epi.proteos.info

Aller au contenu | Aller au menu | Aller à la recherche

13 avril 2014

Subsidies for wind and solar are here to stay

Note: this post is an english summary of two posts in french (here and here).

It is often said that subsidies granted to wind and solar power are temporary and are here to help them become competitive with respect to other sources of electricity. Here, based on what happens currently on the electricity market in Germany and France, I will show that the removal of subsidies for new wind or solar capacity is unlikely and that it is probable that these subsidies will become a very long lasting feature of the electricity market in Europe.

A common characteristic of both wind and solar power is that their marginal cost is zero. Producing one more kWh does not cost anything to the owner. He has paid for his machine and pays for the maintenance, regardless of how much the machine produces. Their production is also essentially random — especially that of wind — and subject to the vagaries of the weather. Producer are also dispersed because the cost of building a single machine is not extraordinarily high. These 3 elements will transform producers of wind and solar power into price takers: they will accept any positive price, or even negative prices if they can't disconnect from the grid. Nowadays, they are shielded from the variations of the spot price by the feed-in tariffs which guarantee a fixed price for their production. A system of market premiums do not change that much the situation, as this would only encourage disconnections when the price drops too far in negative territory.

As a consequence, one can expect that wind would fetch a price lower than the baseload price — the non weighted average of all hourly prices in a given year. for solar power, the situation is slightly different because solar power is available during the day, where consumption is also higher than during the night. The price of electricity is thus generally higher during the day than during the night. But if the solar capacity is large enough — larger than night-day swing in demand — they will also fetch a lower price than the baseload.

To check these hypotheses, I gathered prices on Epexspot with a perl script. For France, one can get detailed production data from éco₂mix. For Germany, there's nothing so detailed … and free at the same time. Wind and solar productions are known thanks to an european directive. The data has been gathered by P.-F. Bach, a danish retired engineer.

In Germany

The german market is in a situation of over supply because of the economic situation in Europe, of new coal plants — coal is now relatively cheap because of exports from the US and the shaled gas boom there — and of the construction of more than 30GW of wind and 30GW of solar. As a consequence the baseload price is low. In 2012, it was about €43/MWh; in 2013 it was about €38/MWh. Wind power fetched an average of €37.5/MWh in 2012 and €32/MWh in 2013. Solar power got €44/MWh in 2012 but €37/MWh in 2013: the advantage for solar power of producing only during the day has been completely eroded by the large size of the capacity in Germany.

de_market_prices_2012_en.jpg prix_sources_allemagne_2013_en.jpg

Trying to correlate wind production and the price leads to an estimate of the reduction of the spot price of €1.3/MWh per GW of wind production. However, the correlation is weak, because the price of electricity reflects many other constraints, such as total consumption. prix_eolien_allemagne_2013_en.jpg

In France

France is in a market economic crisis now, which put it also in a situation of average over supply. There are worries regarding peak capacity as european directives such as LCP and IED are forcing old coal- and oil-fired plants to close. The baseload price is higher than in Germany. In 2012, it was about €47/MWh; in 2013 it was about €43.5/MWh. The wind price was €45/MWh in 2012 and €42/MWh in 2013. Up to 2013, there was no specific data for solar power. In 2013, solar fetched a price of €43/MWh.

fr_market_prices_2012_en.jpg prix_sources_france_en.jpg

If we look at the correlation between the price and the wind production, we see same slope, yet the correlation is very weak, because there is much less wind capacity in France than in Germany. As a consequence, other factors tend to dwarf the effect of wind power most of the time. If we look at wind production as a share of consumption, the correlation becomes much clearer, yet other factors continue to play a major role. prix_eolien_france_2013_en.jpg prix_eolien_vs_conso_france_2013_en.jpg

What consequences?

With these two years of data, we can conclude that intermittent sources of electricity would fetch a price lower than the baseload price in an open market. The magnitude of the rebate depends on the installed capacity. The european wind power lobby tells us that there were 33.7GW of wind in Germany and 8.2GW in France at the end of 2013. Similarly, there was something like 36GW of solar in Germany and 4.3GW in France at end 2013. In Germany, wind represented 8.1% of the electricity production in 2012 and 8.4% in 2013; solar was at 4.2% (2012) and 4.7% (2013). In France, wind represented 2.8% of the production in 2012 and 2.9% in 2013; solar was at 0.7% and 0.8% respectively.

Despite such low figures, the rebate is already 15% in Germany for wind power. Thus, it is hard to imagine that wind and solar would come to dominate the electricity production in Germany without a long lasting system of subsidies. The more wind power increases its share, the more the price it fetches on the open market is far from the baseload price. In the case where wind power would represent 30% of the production in Germany, it could mean that wind power would only get around 50% of the baseload price. The system of subsidies is also feeding on itself: today, new capacity is built thanks to subsidies, but the more wind capacity there is, the more the subsidies are needed to allow the construction of new wind turbines to proceed. Reaching price parity with other technologies will not be the end of road for wind and solar: they need to become much cheaper than alternatives to survive on their own in an open market. Therefore, I think that the chances that the subsidies will end any time soon are very slim. On the contrary, it looks like these subsidies will become a permanent feature of the electricity market throughout Europe.

That does not mean in itself that such subsidies should not be granted. After all, if we are to phase out the use of fossil fuels in electricity generation, wind and solar are among the few technologies where capacity can be expanded without hitting a hard geographical limit right away. Yet, a fixed feed-in tariff does nothing to lower the price of a technology, on the contrary one may just choose to use this tariff as a given and not try to lower prices. Indeed, wind power tariffs have been steady in France for some years and the amount of new wind capacity connected to the grid each year is decreasing since 2009. The European Commission wants these fixed tariffs to be phased out by 2017, but it is unclear if this will result in price decreases: in France there has been competitive tenders for some technologies and it turned out that, in the end, prices were often higher than the fixed tariffs. This state of affairs was widely denounced in a public report last year.

Another issue is the intermittency of wind and solar means that other means of production have to be used to plug the gap between their production and the demand. For the foreseeable future, this is going to mean relying on dispatchable plants, such as hydro dams, nuclear plants and, of course, fossil fueled plants. These plants generally see their profitability eroded by the operation of wind and solar power as they run less hours and receive a lower price because of the zero marginal cost of wind and solar production. As it is unthinkable that black outs be allowed, it is likely that we will see the implementation of capacity markets throughout Europe. It turns out that the technology that allows the lowest investment for a given guaranteed dispatchable capacity is the open cycle gas turbine, a fossil fueled technology. In other words, it may well be that governments may command subsidies for wind and solar power in the name of fighting climate change, while at the same time the very same governments will enforce rules guaranteeing the cash flows of fossil fueled plants to ensure security of supply.

Finally, it does seem that the foundations of the electricity internal market are rotten: the low carbon means of production — be it nuclear or renewables — have their price essentially determined by their capital expenditures, whereas the majority of the costs for fossil fuel plant are fuel costs. Having costs determined primarily by the cost of fuel is useful when the market of reference is the spot market: it reduces the investment risk you take. If you have to invest huge sums of money in a machine that will last decades, you will want to have a guarantee on your cash flows to avoid losing your shirt in case events do not back your assumptions. That means low carbon means of production like long term contracts which are discouraged under current EU rules. For wind and solar, their intermittency makes them also less appealing for such long term contracts, as they can guarantee at which time they are producing. That is why I think that subsidies for wind and solar will stay for a very long time, perhaps permanently, in one form or another.

16 mars 2014

L'activisme gouvernemental sur la pollution perdu dans le smog

Le smog qui flotte qui en ce moment sur la France pour cause de manque de vent en ce début de mars est l'occasion de la publication d'articles dénonçant l'inertie du gouvernement sur la question de la pollution atmosphérique. C'est l'occasion d'interroger d'anciens ministres de l'environnement, qui déclarent tous, sauf pour celui actuellement au gouvernement, avoir eu du mal à faire passer des mesures contre la pollution atmosphérique. On note aussi le retour des accusations envers le diesel, qui serait responsable de ces pics de pollution.

Rappelons quand même que la combustion du gazole routier ne représente qu'environ 10% des émissions de PM10 en France.

La forte baisse de la pollution, cet autre Boeing 777 qui a disparu des radars

Comme il s'agit de regarder ce qui a été fait depuis 20 ans, commençons par nous tourner du côté des émissions. Le CITEPA recense les émissions de polluants en France et compare aux engagements pris. On peut voir que la plupart des engagements pris ont été tenus. La consultations du site permet de construire le tableau suivant qui montre que les émissions ont fortement baissé en 20 ans, pour toutes sortes de polluants.

Polluant Évolution
2012/1995
Évolution
2012/2000
Évolution
2012/2005
SO₂ -74% -60% -45%
NOx -42% -38% -30%
PM10 -48% -38% -24%

Une critique souvent faite est qu'on ne constate pas de baisse pour les stations de mesures de polluants, notamment pour les particules. En effet, si on regarde la concentration moyenne, on voit que la concentration ne baisse que très lentement. Malgré la forte baisse des émissions, la baisse n'est que de quelques pourcents seulement. Airparif-PM10.jpg

Cependant, la faiblesse de cette baisse s'explique par le fait qu'une grande partie des PM10 présentes à un moment donné sur l'agglomération parisienne proviennent en fait d'ailleurs. Airparif estime cette proportion à 68%. Avec une telle proportion, on voit que faire baisser, même fortement, les émissions de particules en région parisienne n'aura qu'un faible effet sur la concentration moyenne. Airparif s'est essayé, dans un exercice prospectif, à modéliser la baisse de la concentration moyenne à attendre d'ici 2020 en fonction de la baisse des émissions. Dans le scénario tendanciel, les émissions dues au trafic routier, principal accusé dans les média, diminuent par rapport à 2008 de 50% pour les PM10 et 80% pour les PM2.5. baisse_emissions_trafic.jpg

Et voici les résultats qu'on peut en attendre sur la concentration moyenne, sachant que la modélisation a tendance à sous-estimer les concentrations. On constate des diminutions formidables, de l'ordre de … 5%! En fait, ce qui diminue fortement, c'est la hauteur des pics, qui, comme leur nom l'indique, ne durent pas longtemps et contribuent peu à la valeur moyenne. Mais ce sont sur ces pics qu'est basée la réalisation d'un certain nombre d'engagements. Comme leur durée et leur hauteur dépend aussi de conditions météo qui peuvent être extraordinaires et sur lesquelles nous n'avons aucune prise, on comprend qu'il en aura certainement de moins en moins de pics de pollution, mais probablement jamais zéro! baisse_concentration_fond.jpg

Un fort activisme réglementaire totalement ignoré

On peut aussi se retourner vers l'Union Européenne qui édicte depuis un certain temps déjà les normes à suivre en matière d'émission de polluants. Le mérite des décisions prises par l'Union et son organe exécutif, la Commission, doit en partie être attribué au gouvernement français puisqu'il en a approuvé la plupart. Et de ce côté on est gâté: les normes d'émissions des moteurs automobiles ont été durcies à 6 reprises depuis le début des années 90. La directive GIC (Grandes Installations de Combustion) est en train de forcer la fermeture de plus de la moitié du parc de centrales électriques au charbon en France d'ici à fin 2015. La directive IED (Émissions Industrielles) contraint les industriels à moins émettre de polluants et force par exemple la fermeture des 2/3 des centrales au fioul françaises, d'ici fin 2015 aussi.

Dans ces conditions, affirmer que le gouvernement ou les politiques ne font rien contre la pollution, c'est se moquer du monde.

Dénoncer tout le monde, sauf les coupables

Ces articles de dénonciation comme celui du Monde sur l'inertie du gouvernement sont aussi l'occasion de relayer un certain nombre de poncifs:

  1. Ainsi en est-il de l'accusation envers les agriculteurs pour l'utilisation d'engrais qui provoque l'émission de NOx. Or, l'usage d'engrais n'est responsable que de l'émission de 68kt annuelles de NOx, soit 10% de ce qu'on peut attribuer aux carburants, qui sont pour le coup les responsables archi-dominants des émissions.
  2. Si bien sûr au ras du pot d'échappement, le long des axes les plus fréquentés, le trafic routier est responsable de la plupart de la présence de particules, lorsqu'on regarde au niveau de l'agglomération parisienne dans son ensemble, le trafic routier est responsable d'autant d'émissions de particules que le chauffage au bois. On peut aussi remarquer qu'en moyenne seules 1/3 des particules dans l'air parisien sont produites localement.

Les pics de pollution aux particules se produisent tous en hiver, lorsqu'il fait beau et qu'il n'y a pas de vent. Ce fait montre que le gazole ne peut être le seul responsable: il existe aussi des jours de beau temps sans vent aux mois de mai, juin ou septembre, où il y a autant de trafic que les mois d'hiver. Ce qui provoque le dépassement des seuils d'alerte, c'est qu'en hiver, en plus du trafic routier, les chauffages sont allumés. Or, le fioul domestique — qui est à un colorant près le même combustible que le diesel — représente au niveau national entre la moitié et le tiers des émissions dues au diesel routier, alors que seuls 15% des logements sont encore chauffés au fioul. On voit là que les chaudières au fioul n'ont pas vu les normes les concernant être révisées à 6 reprises ces 20 dernières années. Le bois, quant à lui, représente entre 3 et 4 fois les émissions du diesel. C'est en vain qu'on cherchera une incrimination du chauffage dans l'article du Monde.

On voit là que ces dénonciations permettent d'éviter de s'attaquer à ce qui pose véritablement problème. Contrairement à ce qu'affirme Delphine Batho, s'attaquer aux vieux véhicules n'est pas que s'attaquer aux pauvres, c'est aussi s'en prendre aux véhicules les plus polluants, car relevant de normes dépassées et trop souvent déréglés. La faveur que rencontre ces vieux véhicules n'est d'ailleurs pas limitée aux pauvres: le premier ministre est propriétaire d'un Combi VW hors d'âge; on peut aujourd'hui se dire écologiste, être ministre et être propriétaire d'une 4L, forcément dépourvue de pot catalytique. S'attaquer au chauffage au bois signifie s'en prendre à de nombreux particuliers mais aussi freiner l'adoption du bois en remplacement d'autres modes de chauffage — quoiqu'il remplace souvent le fioul — pour lui préférer le gaz ou l'électricité. En ces temps où les énergies renouvelables sont portées au pinacle, ce serait inattendu. Les technologies qui permettent de ne pas émettre des particules existent bien, comme on le voit, cependant les personnes qui réclament le plus de mesures en ce moment ne sont pas spécialement favorables à l'augmentation de la production d'électricité en France — qui viendrait en ces moments de calme plat du nucléaire — ou de gaz — si on veut le produire localement, il ne reste guère que le gaz de schiste.

Au final, la diminution de la pollution est bien réelle en France et due en bonne part à un durcissement conséquent de la réglementation. Le bas niveau actuel de pollution est aussi dû à un certain nombre de choix politiques, comme le nucléaire et le choix du gaz pour le chauffage, accompagné par le durcissement progressif des réglementations. Chercher des boucs émissaires comme dans ces articles de dénonciation ne fera qu'empirer les choses en menant sur des voies sans issues: le niveau de pollution est suffisamment bas pour que de mauvaises décisions se traduisent par une gêne pour les habitants sans réel gain voire une hausse de ce niveau.

1 mars 2014

Les subventions à l'éolien et au solaire sont parties pour durer (version 2)

L'année dernière, j'avais regardé si l'éolien et le solaire pourraient avoir une chance de survivre sans les subventions accordées aujourd'hui, à savoir être construites pour l'argent encaissé en revendant l'énergie produite sur le marché de gros. La réponse que j'avais apportée alors était négative: sans subventions ou prix garanti les productions éoliennes et solaires ne pourraient pas survivre ou, en tout cas, aucune nouvelle infrastructure ne serait construite. En regardant sur l'année 2013, ce verdict est confirmé.

L'électricité d'origines éolienne et solaire ont pour caractéristique commune d'être à coût marginal nul. Produire un kWh supplémentaire ne coûte rien de plus au propriétaire qui a déjà investi dans sa machine et paye son entretien qu'elle produise ou pas. La production possible dépend uniquement des caprices de la météo. Les producteurs sont aussi très dispersés car une seule machine n'est pas extrêmement chère à construire. Ces 3 éléments transforment ces formes de production d'électricité en preneurs de prix: ils acceptent tout prix positif, voire même un prix négatif s'ils ne peuvent se déconnecter du réseau. Actuellement, les producteurs d'électricité éolienne ou solaire sont protégés de cette réalité par les tarifs de rachat qui leur assurent un prix de vente à l'avance.

En conséquence, on peut s'attendre à ce que l'éolien dont la production s'effectue grosso modo au hasard reçoive des revenus inférieurs au prix moyen du marché dit aussi prix de base — le prix obtenu en faisant la moyenne non pondérée de tous les prix horaires. Pour le solaire photovoltaïque, la situation est un peu différente: la consommation est supérieure le jour à ce qu'elle est à 4h du matin. Le prix est donc en général plus élevé le jour que la nuit. Mais si la capacité installée de solaire photovoltaïque est suffisamment grande — plus grande en tout cas que la différence de consommation entre le jour et la nuit —, on peut assister au même phénomène. Qualitativement, c'est lié au fait que le prix marginal est nul et aussi que la production est aléatoire … elle a donc une moindre valeur qu'une production prévisible à l'avance.

Pour regarder la situation, j'ai récupéré les prix sur Epexspot à l'aide d'un script perl. Pour la France, on peut récupérer les données détaillées de production sur éco₂mix. En Allemagne, il n'existe rien qui soit aussi détaillé … et gratuit. On connaît les productions éoliennes et solaires grâce à une directive européenne qui oblige à la publication. Ces données sont récupérées par P.-F. Bach, un ingénieur à la retraite danois. Les données récupérées ont été placées dans 2 fichiers LibreOffice: l'un pour la manipulation des données de RTE, l'autre pour les calculs qui donnent les prix.

La situation en Allemagne

L'Allemagne est marquée par une situation de surproduction, causée par la construction de centrales au charbon — dont le prix est bas en ce moment du fait de l'afflux de gaz de schiste aux USA — et par l'ajout de plus de 30GW de panneaux solaires et 30GW d'éoliennes. En conséquence le prix de base est bas (~38€/MWh). Le solaire emporte environ 1€/MWh de moins et l'éolien vaut plutôt 32€/MWh en moyenne. On note, même si la corrélation directe est faible, que chaque GW de production éolienne retire 1.3€/MWh au prix spot de l'électricité.

prix_sources_allemagne.jpg prix_eolien_allemagne.jpg

La situation en France

La France n'est pas marquée par la même situation, car le développement des énergies renouvelables s'y est fait à un rythme nettement moins intense. La crise pèse toutefois sur la consommation et par conséquent sur les prix. Le prix de base est de 43.5€/MWh, le prix pondéré par la consommation ~47€/MWh, l'éolien et le solaire ainsi que la catégorie "autres" fait de productions subventionnées (biomasse, etc.) ou marginales (comme l'usine de la Rance) sont les seules productions dont le prix est inférieur au prix de base (42€/MWh pour l'éolien, 43€/MWh pour le solaire). L'impact de l'éolien paraît relativement plus fort qu'en Allemagne avec un impact de 1.4€/MWh en moins par GW supplémentaire éolien produit, même si la corrélation paraît pour l'instant faible.

prix_sources_france.jpg prix_eolien_france.jpg

Quelles conséquences?

On peut constater avec 2 ans de données que les sources aléatoires d'électricité ont un prix inférieur au prix moyen. En conséquence, l'éolien et le solaire devront avoir un coût inférieur au prix moyen de l'électricité pour que des installations soient construites sans subvention. De plus, ce différentiel à couvrir grandit à mesure que les capacités installées augmentent: au fur et à mesure que des installations — actuellement subventionnées — sont construites, le coût à atteindre diminue et d'une certaine façon le jour où l'éolien et le solaire seront rentables sans subvention s'éloigne. Aujourd'hui en Allemagne, avec une production éolienne qui compte pour 8.5% de la production d'électricité, le différentiel de prix est de l'ordre de 15%: on voit mal ces moyens de production devenir dominants sans que les subventions ne perdurent sous une forme ou une autre.

De plus, en produisant de façon aléatoire, ces sources d'électricité dégradent la rentabilité des autres moyens de production. Ces autres moyens de production sont pour une bonne part pilotables et répondent à la demande. Mais comme leur rentabilité diminue, personne n'a vraiment intérêt à en construire. À terme, l'adéquation entre l'offre et la demande pourrait ne plus être assurée ou, dit autrement, le risque de black-out augmente. Il est douteux que nos démocraties laissent cette situation s'installer et on s'oriente vers un système où ces centrales seraient payées pour leur disponibilité et non pour l'énergie qu'elles produisent.

Au final, on voit mal comment l'organisation actuelle du marché pourra perdurer à long terme. Les productions intermittentes éolienne et solaire ont vocation à se développer, du fait de leur popularité auprès des politiques et de la nécessité de la lutte contre les émissions de CO₂. Le problème est qu'on voit mal comment ces sources intermittentes peuvent trouver un arrangement acceptable en dehors de prix déterminés par l'état: elles n'ont rien d'autre à offrir que l'énergie qu'elles produisent et n'ont aucun pouvoir de marché. Mais cet avenir de prix déterminés par l'état est pour l'instant meilleur que la situation des moyens pilotables. C'est notamment l'analyse de GDF-Suez qui n'envisage plus que de construire des moyens de productions subventionnés ou au prix garanti. Pour les moyens pilotables, on s'orientera vers un marché de capacité où on constate que les combustibles fossiles règnent en maîtres grâce à des coûts d'investissements faibles. Un premier risque est alors que les objectifs de réductions des émissions ne soit pas atteint à l'horizon 2030 ou 2040. Un deuxième risque est que les consommateurs ne veulent pas payer 2 fois pour la même chose, et qu'une confrontation sans fin s'ouvre et que le risque de black-out ne fasse qu'augmenter. Enfin, le risque est que la concurrence soit très limitée dans le domaine des énergies renouvelables: comme le prix sera déterminé par décret, aucune entreprise ne sera incitée à proposer un prix inférieur. Si on voit bien que l'organisation actuelle n'est pas soutenable, celle qui finira bien par apparaître n'est pas nécessairement meilleure que les anciens monopoles nationaux du point de vue du consommateur!

25 février 2014

La démocratie des crédules

Gérald Bronner, professeur de sociologie, a publié son ouvrage La démocratie des crédules l'an dernier. En conséquence, il a déjà été commenté ailleurs (critiques favorables sur contrepoints, sur le site de l'AFIS, chez Christophe Ginisty, un professionnel de la communication; critiques défavorables sur Slate et ) et l'auteur a eu l'occasion de s'exprimer dans les médias à diverses reprises (interview aux Échos, une vidéo là, passage à l'Esprit Public sur France Culture). Le domaine de prédilection de Gérald Bronner est celui de l'étude des croyances, définies comme l'ensemble de ce qu'un individu tient pour vrai. La thèse de La démocratie des crédules est que les biais cognitifs commun à l'ensemble du genre humain, l'apparition d'Internet et de ses capacités à diffuser et agréger des opinions, l'intensification de la concurrence entre médias ouvrent la porte à la diffusion de croyances fausses, dégradant fortement le débat démocratique et la rationalité des décisions.

Avant d'aborder le fond, ce livre recèle un nombre surprenant de coquilles. C'est aussi le type de livre qui se prêterait à merveille à une édition numérique spéciale: l'auteur y décrit un certain nombre de travaux de sociologie — dont bon nombre des siens — et renvoie à un certain nombre de sites web tout au long du texte.

La crédulité humaine, ses origines et ses conséquences

Le livre est traversé par l'exposé de limitations de l'esprit humain quand il s'agit de déterminer la véracité de certaines assertions. En effet, l'esprit humain utilise un certain nombre de raccourcis dans la vie courante. Le premier biais est le biais de confirmation qui conduit dans la plupart des cas à préférer les argumentations qui confirment ce qu'on pense déjà vrai, ne pas chercher s'il pourrait exister une preuve inverse ou à ignorer les effets dus aux hasard sur des grands nombres. Ensuite, même si l'être humain est assez doué pour le raisonnement logique, certains aspects lui sont plus difficiles: c'est le cas de l'appréhension de l'implication ou de la manipulation des probabilités conditionnelles. Il est aussi connu que si l'esprit humain appréhende bien les probabilités proches de ½, il appréhende très mal les probabilités proches de 0 ou de 1 en donnant plus d'importance qu'il ne faudrait aux évènements peu probables. Le point commun de ces biais est qu'il faut produire un effort pour appréhender correctement la situation: en temps normal, pour gagner du temps, nous préférons le moindre effort intellectuel. Ces biais sont importants pour le débat public: en général les tenants d'une thèse ne vont exposer que les éléments qui leur sont favorables. On peut aussi remarquer que bon nombre d'assertions en débat sont en fait des énoncés probabilistes ou statistiques. C'est particulièrement vrai quand il s'agit de traiter de risques: au problème de l'appréhension des probabilités, vient s'ajouter le problème de la dissymétrie dans l'appréhension des bénéfices et des risques, à l'avantage de ces derniers.

Gérald Bronner voit Internet comme un outil qui sert les croyances, y compris les plus farfelues. Internet permet en effet de disposer d'une mémoire latente d'une taille extraordinaire et de pouvoir communiquer avec ceux qui partagent les mêmes préoccupations, fussent-elles extrêmement confidentielles. Cela permet à des groupes marginaux de regrouper rapidement leurs arguments et de les faire connaître. Le livre s'attarde sur des phénomènes de constitution de rumeurs, comme suite à la mort de Michael Jackson ou aux attentats du 11 septembre 2001, pour constater qu'Internet permet d'accumuler un grand nombre d'arguments, pas forcément tous compatibles entre eux d'ailleurs, en faveur de l'existence d'un complot en un temps réduit. Tout ce qui est nécessaire est de la motivation. Cette motivation, caractéristique essentielle des militants, se traduit par le fait qu'une vision rationnelle du monde n'est pas forcément majoritaire lorsqu'on fait une recherche sur Internet. L'auteur prend 5 exemples: l'astrologie où on peut constater l'importance de l'exploitation commerciale, les crop circles, l'aspartame, le monstre du Loch Ness et la télékinésie. Il a effectué courant 2010 des recherches sur Google sur ces thèmes et a constaté que les sites répandant des croyances fondées sur rien de scientifique étaient de loin majoritaires! Les recherches menées pour l'écriture de ce billet montrent que ce n'est plus toujours le cas, comme dans le cas de l'aspartame, où la communication des agences de sécurité sanitaire a pris le dessus à l'aide d'articles de presse. La motivation des croyants et leur maîtrise technique leur permet d'obtenir une exposition tout à fait correcte. De plus, les résultats des recherches sont influencées par la requête: ajouter «complot» à toute recherche comme cet auditeur de radio cité dans le livre va évidemment donner un grand nombre de résultats penchant dans ce sens!

Le livre s'intéresse ensuite à l'influence de la concurrence entre média dans la diffusion des croyances. Pour Gérald Bronner, le mouvement de libéralisation des fréquences et l'apparition d'Internet ont provoqué un trop-plein de concurrence. En voulant toujours aller plus vite que le voisin, il est tentant de ne plus vérifier. En voulant attirer le chaland avec des nouvelles fracassantes, il est tentant de relayer des rumeurs farfelues. Le point de l'auteur n'est pas que le milieu médiatique soit malhonnête mais que la logique concurrentielle pousse à relayer des croyances. La vitesse de publication en particulier oblige les journaliste à prendre les raccourcis intellectuels qui donnent une perception faussée de la réalité.

Enfin, la combinaison de ces trois éléments met en danger la démocratie. La démocratie repose sur des décisions prises en commun et elles sont sujettes aux biais de raisonnement lorsque ceux-ci poussent toujours dans le même sens de décision. Les erreurs de raisonnement peuvent être corrigées au cours du temps nécessaire à l'élaboration de la décision: voter une loi y prend du temps. Mais comme les croyances ont de plus en plus d'exposition, notamment dans les média, il est de plus en plus difficile de prévaloir sur les biais cognitifs. Si, auparavant, la correction des erreurs de raisonnement n'avait rien d'obligatoire, elle devient de plus en plus difficile, car la voix des croyants motivés a de plus en plus de résonnance. Gérald Bronner s'attarde sur deux processus apparus plus ou moins récemment dont l'idée était de faire apparaître un consensus rationnel grâce à la délibération ou la publication d'éléments de fait, ce qu'on appelle la transparence. La délibération est illustrée par les débats publics pour la construction d'infrastructures. Le problème est que ne participent à ces débats que les gens motivés. Ce sont pratiquement toujours des opposants. En conséquence, ils sont surtout l'occasion pour les opposants d'exprimer leur point de vue sans relâche. La transparence est illustrée par la publication de toutes sortes de statistiques sur des sites web dépendant de l'état. Le problème est une nouvelle fois qu'on peut en faire un usage biaisé: dans une telle masse de données, on peut faire apparaître des choses qui ont l'odeur du scandale en n'en regardant qu'une partie, mais qui le sont nettement moins quand on regarde un ensemble plus grand. L'auteur prend l'exemple de la soi-disant vague de suicides à France Télécom où le taux de suicide était en fait très comparable au reste du pays.

Quels remèdes?

À l'opposé ce qu'on entend souvent sur la question, Gérald Bronner ne plaide pas pour plus d’éducation pour lutter contre cette progression des croyances farfelues. Il constate en effet que l'irrationalité ne disparaît pas avec la hausse du niveau d'éducation. C'est par exemple ce qu'on peut constater dans le domaine de l'énergie. Par contre, ce qui est constaté, c'est que statistiquement, avoir un diplôme du supérieur scientifique réduit cette proportion. En conséquence, Gérald Bronner suggère d'insister sur des enseignements qui vont à l'encontre des pentes naturelles de l'esprit — et qui ont souvent une coloration scientifique.

Il demande aussi que les journalistes soient mieux formés à ces mêmes biais cognitifs et aux formes usuelles de légendes urbaines. Il appelle aussi à la formation d'un organe professionnel pouvant sanctionner les errements les plus graves de la profession. Enfin, il recommande une modification de la communication de la part des scientifiques, tant dans la forme que dans l'engagement.

Ce que j'en ai pensé

Je trouve que la lecture de ce livre est tout à fait recommandée. J'ai particulièrement apprécié la description des nombreux biais de l'esprit qui nuisent à une compréhension rationnelle du monde par l'ensemble d'entre nous. Ces biais sont utilisés, consciemment ou pas, par les tenants des croyances. La position de l'auteur sur le danger pour la démocratie, ou plus exactement sur la possibilité de prendre des décisions rationnelles en démocratie, est aussi largement fondée. Sur beaucoup de sujets où la technique est fort présente, on peut constater que ce n'est pas le consensus scientifique sur la question qui borne l'univers des possibles.

Les deux types biais qui m'ont semblé très pertinents. La première catégorie est celle liée à la logique mathématique et notamment aux probabilité conditionnelles. Ayant dans ma prime jeunesse suivi des cours de maths, je peux confirmer que les réflexes en la matière ne s'acquièrent qu'avec une certaine pratique et que même alors, ce n'est pas aussi naturel qu'on pourrait le penser. Ce cursus m'a aussi permis de m'apercevoir que les énoncés probabilistes étaient le meilleur exemple de l'énoncé pourri, celui qui vous induit en erreur. L'entrainement en la matière n'est certainement pas inutile, puisque j'ai trouvé que certains énoncés donnés dans le livre étaient incomplets pour qu'on puisse apporter une réponse. Il faut cependant remarquer une nouvelle fois que nombre d'exposés actuels sont en termes de probabilités ou de statistiques et qu'ils sont donc intrinsèquement difficiles à appréhender. On ne peut pas non plus facilement modifier l'énoncé d'un problème qui fait polémique pour le sortir de l'ambiguïté!

La deuxième catégorie est celle du biais que Gérald Bronner nomme «effet Fort» où l'argumentation procède pas une logique d'accumulation et où tout ce qui est avancé en faveur d'une thèse n'a en fait même pas besoin de l'être. Je trouve que l'exposé de ce biais, dont la logique est celle de «il n'y a pas de fumée sans feu», trouve de nombreux échos dans le débat public actuel. Cela explique aussi la grande difficulté des contradicteurs «rationalistes»: pour répliquer il faut bien connaître les arguments de ses adversaires, ce qui est nettement plus difficile quand il y en a beaucoup! Les experts qui voudraient contredire se trouvent aussi parfois en position de concéder des points à ceux dont ils contestent les thèses. Ce faisant, ils renforcent la validité de la thèse adverse, même si le point concédé ne devrait pas logiquement venir en soutien de cette thèse. Pour contester efficacement une thèse farfelue, on conçoit alors que la motivation devient primordiale. Or cette motivation est un des aspects fondamentaux du prosélyte qui cherche à répandre sa croyance.

Ce qui m'amène à la critique principale du livre: les solutions proposées ne semblent pas à la hauteur du problème. Commençons par l'évolution de la communication de la part des scientifiques et experts. Outre que ceux-ci sont souvent mal préparés à intervenir dans les médias, en partie faute de la motivation propre aux prosélytes, il faut bien constater que recourir aux biais de l'esprit amène sur une pente glissante et à pouvoir répandre des croyances. Pour prendre un exemple, je vais partir d'un élément contenu dans le livre: un sondage a trouvé que 65% des français pensent que respirer l'air des villes est aussi dangereux que fumer du tabac (figure 12, p19). Il m'est difficile de ne pas rapprocher cela des fameux 42000 morts des particules, qui sortent tout droit de la communication qui a entouré une étude scientifique sur la question, et dont j'ai tenté de montrer, tant bien que mal, que ces morts n'avaient rien de comparable aux morts du tabac. User des biais de l'esprit emporte donc à mon sens un certain nombre de risques que les tenants de la rationalité peuvent à bon droit rechigner à prendre.

L'enseignement de la logique mathématique aux journalistes me semble se heurter à un obstacle de taille: le manque de goût qu'ont sans doute ceux-ci pour les maths! En effet, s'ils ont choisi une autre voie d'enseignement, c'est sans doute que les maths n'étaient pas leur matière préférée. Et on voit là que statistiquement le fait que les journalistes soient de formation littéraire les rend plus sensibles aux croyances, notamment dans les domaines techniques. Toujours sur le sujet des journalistes, si on peut certainement blâmer la situation du marché de l'information pour la qualité du traitement, ce ne peut être le seul élément. La malhonnêteté de certains ou leur idéologie les conduit à privilégier et répandre des croyances. Le cas du témoignage de Djamel, jeune homme qui prétendait avoir été violé par Dominique Baudis mais dont on avait coupé au montage les déclarations comme quoi il se disait aussi fils de Michael Jackson et violé par Sarkozy, est exemplaire à ce sujet: c'est là un acte qu'il est difficile de qualifier autrement que de malveillant. Quant à espérer un virage vers un journalisme de qualité tombant moins dans le piège de l'urgence, on risque de prolonger la tendance à la segmentation du marché par préférences politiques … et on risquerait alors de voir plus de reportages du type de celui où on va à la rencontre des électro-hypersensibles sans aucune distance critique.

Au final, ce livre me semble salutaire en ce qu'il expose clairement un certain nombre de biais dont nous pouvons tous être victimes, ce qui est un premier pas pour essayer de s'en prémunir. Le livre est aussi convaincant dans l'enchainement qui cause la piètre qualité du débat public sur nombre de question à forte composante technique. Mais, même si l'auteur se veut optimiste en présentant ses solutions, il est difficile de ne pas finir la lecture de ce livre plus pessimiste qu'on ne l'a commencée.

3 février 2014

Je ne comprends toujours pas pourquoi on nous demande une chose et son contraire

C'est ce que Christophe de Margerie, dirigeant de Total, célèbre firme pétrolière, déclare durant son audition à l'Assemblée Nationale. On peut dire qu'en gros, cette intervention résume l'ensemble de son propos et de ses réponses aux questions que les députés lui ont posées.

Une des principales occupations de de Margerie est de répondre aux accusations de mépris, causées en partie par ses réponses franches et le fait qu'il est en situation de monopole dans les DOM-TOM. L'esclandre qui l'oppose à Jean Lassalle a pour cause profonde la fameuse histoire de l'usine Toyal de la vallée d'Aspe et sa possible «délocalisation», pour cause d'agrandissement, vers le site de Lacq. La morale de cette histoire est simple: les politiques affirment vouloir le développement d'entreprises industrielles mais s'émeuvent bruyamment contre les conséquences.

Les questions des députés des DOMs sont très prévisibles: la nécessité que les carburants qui y soient aux normes européennes met Total en situation de monopole. Qui dit monopole, dit entreprise qui a une capacité à imposer des prix et ressentiment des clients qui voient un produit cher et un service sans sourire. Et bien souvent, la firme en situation de monopole a la même réponse que de Margerie: changez de crêmerie si vous ne voulez plus me voir, avec d'autant plus d'assurance que les capitaux à engager pour racheter les installations construites sont très importants. La question de la SARA est assez similaire: les normes européennes sont en vigueur dans les DOMs, ce qui permet à la raffinerie, créée par un oukase à la fin des années 60, de rester longtemps une situation de monopole, car les voisins au niveau de vie nettement plus bas ne partagent pas les même préoccupations. Les manifestations de 2009 ont amené à une régulation politique des prix, chaque volonté de remettre en cause les règles de fixation des prix mène maintenant à la confrontation. Bref, la décision politique a été prise d'avoir des carburants aux normes européennes mais les conséquences, notamment financières, ne sont pas assumées.

Une autre question qui est posée à Christophe de Margerie est celle de l'optimisation fiscale. Mais il l'explique bien, Total a en fait peu de moyens de la pratiquer très efficacement. L'activité de Total requiert en effet d'obtenir des permis auprès des états dans le sous-sol desquels se trouvent des hydrocarbures. Il est alors obligé de payer des sommes souvent très élevées pour cela: la rentabilité de l'extraction du pétrole et du gaz naturel n'ont échappé à personne. Le prix de vente de la marchandise est aussi parfaitement connu: les hydrocarbures sont vendues sur des marchés mondiaux dont les prix sont publics. Les états sont aussi capables d'obtenir les règles de modification des prix en fonction de la qualité du pétrole. Total est donc mal équipé pour utiliser une astuce courante d'optimisation fiscale qui consiste à facturer les productions en interne au groupe aux prix les plus divers, pour aller faire des bénéfices dans des pays à la fiscalité agréable. Si ce genre d'astuce fonctionne très bien pour un supermarché en ligne ou une société d'édition de logiciels, c'est nettement plus compliqué dans une activité d'extraction minière! En conséquence, Total paierait des impôts en France s'il y possédait des puits en grand nombre. Or, il se trouve que le gisement de Lacq va fermer incessamment et qu'il n'y a aucune opportunité d'expansion dans les gaz ou pétroles de schiste. En quelque sorte, les députés veulent à la fois que les entreprises qui exercent leur activité en France y paient leurs impôts et que les entreprises qui exercent leur activité à l'étranger fassent de même. Ils veulent que Total paie plus d'impôts en France mais lui interdisent toute possibilité réelle d'expansion de son activité.

Au contraire, l'activité de Total en France se contracte: on y consomme de moins en moins de carburants. En conséquence, des raffineries ferment: il n'y a plus que 8 raffineries en service en France et avec 5 d'entre elles, Total n'est peut-être plus si loin du monopole familier aux DOMs. De Margerie remarque aussi que la réduction des émissions de gaz à effet de serre va s'accompagner nécessairement de la continuation de cette tendance et que, depuis de longues années, les politiques prêchent en faveur des économies d'énergie. Tout irait pour le mieux si ces mêmes politiques ne faisaient pas bruyamment savoir qu'ils étaient contre les fermetures de raffineries: le dirigeant de Total cite même le cas d'une militante écologiste lui ayant reproché la fermeture de la raffinerie de Dunkerque. De fait, on demande à Total de moins produire et de moins vendre mais aussi d'employer plus de monde.

Tout ceci serait très drôle si ce n'était pas si répandu dans le discours public. Ainsi, on entend dire qu'on veut moins d'émissions de gaz à effet de serre mais aussi moins de nucléaire, qu'on veut plus de téléphonie mobile et moins d'antennes relais, moins de concurrence et des prix abordables, de l'innovation dans les semences mais pas d'OGMs, de l'innovation en général mais pas de risques ni de personnes dérangées. La liste est pratiquement sans fin des demandes contradictoires qui sont adressées aux citoyens. On pourrait dire qu'il s'agit de rechercher en fait un compromis, mais on ne peut que constater que dans de nombreux domaines, la voie est barrée par des interdictions. En procédant de la sorte, les politiques espèrent contenter le maximum de monde en ne vexant personne; mais on ne peut que constater qu'en fin de compte ils ne font que vexer ceux qui ne comprennent pas qu'on leur demande une chose et son contraire.

25 janvier 2014

Décongélation

Il y a un an à peu près, une proposition de loi écologiste était renvoyée en commission. Elle a fait cette semaine son retour dans l'hémicycle et elle a cette fois été adoptée. Même si le contenu, après décongélation, a été notablement altéré par rapport à la version précédente, on ne peut constater la victoire des écologistes et des associations anti-antennes qui ont là fait un premier pas, selon une tactique bien rodée.

Il n'est pas nécessaire d'aller bien loin pour voir cette tactique détaillée: il s'agit de mettre un pied dans la porte en accréditant l'idée que les ondes émises à des fins de communications sont dangereuses, d'interdire la publicité auprès des jeunes de gadgets électroniques, d'augmenter la paperasserie demandée afin de provoquer un choc de simplification de pouvoir attaquer les permis de construire, de publiciser les choses pour pouvoir faire le siège des mairies. À ce propos, j'ai pu constater que le projet, près de chez moi, de construction d'une antenne relais à la place d'une maison à l'abandon suscite une opposition très localisée — avec, à certains moments, les 3 numéros en amont et en aval aux couleurs de Robin des Toits — et la maire s'est fendue d'un message dans le journal de la commune pour dire qu'elle s'opposait à ce projet. Alors même qu'en certains points de mon immeuble, on ne capte pas de signal — ce qui peut-être aussi dû aux caractéristiques du bétonnage local. J'ai aussi remarqué que sur mon lieu de travail, situé à quelques kilomètres, la 3G n'était disponible qu'en des endroits très particuliers. Bien sûr, ces demandes de renforcement des procédures par les associations anti-antennes ne feront qu'augmenter, prenant prétexte de la préoccupation des citoyens, elle-même alimentée en partie par l'inscription à l'agenda de débats pareils. Cette tactique est bien connue, l'obstination dont ont fait preuve les élus écologistes en fait partie.

Une autre partie de l'offensive est médiatique. Une fois de plus, force est de constater que, face à des activistes très motivés, le consensus scientifique et son langage pusillanime ne font pas le poids. Ainsi cet article du Figaro, peu suspect de sympathie pour les thèses écologistes, où à chaque énoncé de la position orthodoxe, la position hétérodoxe a droit à un exposé bien plus long, mais vide de faits autres qu'anecdotiques. Ce même journal nous gratifie aussi du récit au premier degré et sans aucune critique d'une malade. L'article du Monde nous rappelle la monographie du CIRC mettant les champs radio-fréquences en classe 2B. Mais bien sûr pas un mot sur les autres membres de cette classe, comme des substances aussi strictement régulées que le café, les extraits de gingko biloba et d'aloé vera, ou les légumes conservés dans du vinaigre. Et bien sûr pas un mot de l'évaluation du pire cas possible: même en tirant le maximum de ce qu'on pouvait dire d'une seule étude sur le sujet, les antennes n'étaient pas dangereuses, mais j'avais pu calculer qu'une utilisation très intensive du téléphone pouvait à l'extrême provoquer 60 cancers par an en France. Une lecture cursive le montre rapidement: dans la presse, la possibilité d'une absence de danger n'est mentionnée qu'en passant ou en faire-valoir de l'opinion contraire, alors même que c'est le consensus scientifique sur la question.

Disons le simplement: les radio-fréquences ne sont pas un danger réel. En bientôt 100 ans d'usage de la radio, aucune maladie professionnelle n'a été signalée. L'usage massif du portable depuis plus de 10 ans aurait dû donner lieu à une explosion de maladies en cas de danger important. Au contraire, les innovations que les radio-fréquences ont permises ont sauvé des vies en grand nombre. Elles rendent aussi de grands services à la population et c'est la raison pour laquelle cette technologie a été aussi rapidement adoptée. Plutôt que de parler d'activité économique, c'est là le fait marquant du téléphone portable: un objet utile à la population et qui ne pose pas de problème de danger en lui-même. Et que voit-on? La presse fait maintenant campagne contre un objet de tous les jours et les députés votent une loi contre cette technologie dont l'utilité ne se dément pas. Ce qui amène au fond la question: le téléphone portable, voire même la télévision, la radio, le radar, tout cela serait-il autorisé s'ils étaient inventés demain? Plus largement, si une nouveauté fort utile pour la population en général apparaissait demain, les politiques n'auraient-ils d'autre empressement que de l'interdire?

15 janvier 2014

De la contestation de la loi de programmation militaire

En décembre dernier, une loi de programmation militaire a été adoptée. Comme les précédentes, elle prévoit des crédits d'investissement pour acheter des armes et du matériel — destinés à être rabotés —, des subsides pour financer des opérations à l'étranger — destinés à être dépassés — ainsi que des possibilités légales supplémentaires d'action pour les services de sécurité. C'est le cas d'un article qui a créé la polémique et installe dans la loi un droit d'accès administratif aux données de connexion.

Cet article a suscité l'ire de l'association des entreprises vivant d'Internet et celle des activistes favorables à la liberté sur Internet. Ces réactions, il est vrai quelque peu tardives, ont suscité des réponses de la part des promoteurs du texte, le député Urvoas et le sénateur Sueur. Un des premiers points avancés est que les contestataires ont partie liée aux géants américains du web, impliqués dans le programme PRISM de la NSA. On ne peut que remarquer que ces derniers n'ont pas forcément toujours été consentants, et que ce type d'argument tend à renforcer l'image du barbouze paranoïaque, pour qui toute contradiction est le fait de l'ennemi.

Le principal de l'argumentation porte en fait sur les garanties institutionnelles apportées par la loi. Le problème est que des affaires plus ou moins récentes ne donnent pas forcément confiance dans un tel système, soit parce qu'il a été contourné, soit parce que le contrôle n'a pas empêché des dérives. C'est ainsi que David Sénat a été viré de son poste de conseiller au ministère de la Justice parce que ses appels téléphoniques ont été épluchés, les services se retranchant tant bien que mal derrière un article de la loi de 1991 sur les écoutes qui n'était de toute évidence pas prévu pour cela. On se rappelle aussi que Julien Dray avait fait l'objet d'une enquête de Tracfin, sans doute suscitée par l'importance des mouvement de fonds que provoque son passe-temps de collectionneur de belles montres. Cette enquête s'était transformée en enquête sur la gestion — certes emprunte d'une légèreté étonnante — de SOS Racisme, alors que les liens entre Julien Dray et cette association portaient sur des montants bien plus faibles. À l’occasion du débarquement de David Sénat, Jean-Louis Bourlanges, révolutionnaire bien connu, avait déclaré que chacun sait que dès que vous avez une responsabilité plus ou moins importante, vous êtes écouté, ce qui montre une confiance toute relative dans l'efficacité des institutions en place. Or, c'est à la même institution — la CNCIS — qu'on confie le pouvoir de surveiller ces services, qui ont visiblement une vision extensive de ce qui leur est autorisé, lors de l'usage de ce nouveau pouvoir légal.

L'argumentation des 2 parlementaires se rapproche ainsi quelque peu de celle des partisans de la légalisation des stupéfiants: il vaut mieux réguler que de laisser faire dans l'illégalité. À la lecture de l'analyse de la loi dans son ensemble par un vieil habitué, on se rend compte qu'il s'agit surtout de légaliser des pratiques policières. Toutes les mesures prises au lendemain des attentats du 11 septembre 2001, soi-disant à titre temporaire, ont finalement été, avec cette loi, actées à titre définitif. Il faut bien constater que cette loi s’inscrit dans la continuité de ce qui s'est fait ces 10 dernières années sous les gouvernements de droite. Même si l'avis de l'avocat général de la CJUE laisse présager la fin de ces mesures de surveillance, on peut comprendre la déception des opposants à ce genre de mesures.

Cette déception explique sans doute en partie l'aspect outrancier de certaines réactions qui crient à la dictature: les opposants de la surveillance ont l'impression que c'est la seule façon d'obtenir quoi que ce soit. Ce fut le cas lors des lois Hadopi, par exemple. Elle explique aussi que les deux parlementaires se soient fendus d'une explication: les opposants à la surveillance se pensent sans doute de gauche, ou en tout cas, pensent y avoir trouvé plus d'alliés qu'à droite. La contestation par la gauche de diverses mesures (Hadopi, lois mémorielles, certains blocages administratifs de sites web, etc.) les a sans doute confortés dans cette opinion. Cependant, force est de constater que la gauche est aussi friande de lois restreignant la liberté, notamment d'expression, que la droite. La première loi sécuritaire de l'après 11 septembre a aussi été votée sous le gouvernement de Lionel Jospin. Quant à la Hadopi, après avoir lutté contre ce type de surveillance, il n'est plus question que de la fusionner avec le CSA.

D'aucuns, souvent déjà acquis à la cause, ont suggéré aux contestataires de faire plus de politique. Cependant, s'il y a aussi peu de monde dans ces groupes de pression, c'est qu'en fait, la question des libertés publiques suscite une grande apathie parmi la population française. Et que le nombre de convaincus est faible. Les questions qui ont réussi à mobiliser le grand public sont celles où il était touché directement, comme la Hadopi. Pour le reste, les idées libérales ayant quasiment disparu du débat en France, il ne faut pas espérer qu'une vision suspicieuse des pouvoirs de surveillance de l'état ou qu'une conception de la liberté d'expression proche du Premier Amendement séduisent énormément de monde. Si le Chaos Computer Club allemand arrive à rassembler du monde, c'est que la méfiance envers les pouvoirs de police de l'état est bien réelle. Au fond, ce que l'émotion autour de la loi de programmation militaire nous apprend, c'est que le nombre des opposants aux mesures de surveillance est faible en France et que leur seule chance de se faire entendre, c'est de combiner hurlement à la dictature et mesure qui touche directement le public. On ne peut pas dire que ce soit porteur d'un dialogue raisonné avec les politiques, malheureusement.

26 novembre 2013

Peut-on facilement redéployer des milliards de dépenses publiques?

Une remarque souvent entendue dans le débat public est qu'il serait possible, sans difficulté extraordinaire, de redéployer des crédits au sein du budget de l'état — en général, quelques milliards d'euros — pour favoriser une mission particulière. Je m'étais par exemple fait l'écho des difficultés de l’institution judiciaire en France dont le budget est d'un peu plus de 7.6G€. On pourrait penser affecter 1 ou 2 milliards de plus par an pour aider à résoudre les problèmes qui se posent (engorgement des tribunaux, prisons vétustes, etc.). Dans le même ordres d'idées, Thomas Piketty proposait la semaine dernière dans une tribune dans le journal Libération d'augmenter le budget de l'enseignement supérieur de 6G€ soit à peu près 50% des 12.7G€ prévus en loi de finances 2013.

À première vue, il semble en effet aisé de trouver de tels montants dans le budget de l'état ou des divers organismes publics: la dépense publique s'élève à plus de 56% du PIB de sorte que 1G€, c'est moins de 0.1% de la dépense publique. La proposition de Thomas Piketty reviendrait alors à redistribuer un peu plus de 0.5% des dépenses, ce qui ne semble pas bien difficile a priori.

La première chose qui rend difficile une telle redistribution, c'est qu'il y a des demandes dans d'autres domaines. Rien que dans le premier paragraphe, j'ai réussi à citer 2 causes où il existe une demande de crédits supplémentaires. Or, il en existe quasiment autant que de missions de l'État! On peut aussi constater que François Hollande a promis d'embaucher des professeurs, des policiers et des personnels supplémentaires pour la justice pendant sa campagne présidentielle. La deuxième, c'est qu'il existe des postes budgétaires importants qui ont une grande persistance, comme les dépenses de personnel. Il est compliqué de faire passer des personnels d'une partie à l'autre de l'état en France à cause de besoins en compétences et de l'existence de statuts différents … et aussi sans doute d'une faible appétence pour quitter certaines administrations. Cette inertie explique en partie pourquoi les annonces d'économies dans les budgets publics se traduisent par une ribambelle de petites économies mises bout à bout. La troisième, c'est qu'il existe déjà un courant obligatoire de dépenses publiques supplémentaires: il y a alors une substitution obligatoire des dépenses de l'état en cours et il n'est pas forcément si évident qu'on puisse en rajouter.

Dépenses de Sécu et de retraites Sur le graphe ci-dessus, on constate que la somme des dépenses de retraites et d'assurance maladie croissent presque linéairement d'année en année. En une dizaine d'années, elles ont augmenté de 150G€, soit 15G€/an, plus du double de ce que revendique Thomas Piketty pour l'université. Mais contrairement à ce qu'il demande, cette augmentation se produit tous les ans! Sauf changements de règles, il faut donc trouver tous les ans des crédits à redistribuer parmi les dépenses publiques, ce qui diminue d'autant le potentiel d'augmentation pour d'autres missions.

Même s'il y avait plus de croissance que dans la période actuelle, ces conclusions seraient sans doute encore valables. En période de croissance, les fonctionnaires demanderaient plus d'augmentations de salaire, le remplacement des équipements qui ont vieilli. Et on peut aussi constater qu'en moyenne, les dépenses de protection sociales augmentent en proportion du PIB — d'environ 0.2% par an —, ce qui rend toujours la tache difficile pour trouver des fonds pour d'autres activités. Dépenses de Sécu et de retraites en %age du PIB

En conséquence, il ne me semble pas si facile de trouver 6G€ à affecter à l'université. Quel que soit l'intérêt de la cause, la difficulté est que les dépenses sociales imposées par le passé — retraites et une bonne part des dépenses de santé — augmentent d'année en année. Si on pense que la dépense publique a atteint un point haut en France et qu'on ne veuille plus augmenter les impôts, il faut alors soit diminuer les autres dépenses publiques et accepter l'éviction de dépenses utiles par ces nouvelles dépenses forcées, soit stopper cette hausse des dépenses sociales, ce qui est extrêmement difficile. Les dernières décisions sur les retraites montrent quel chemin a été choisi: celui de l'éviction des dépenses publiques par les retraites et les dépenses de santé, ainsi qu'une continuation des hausses d'impôts. Malheureusement, il est prévisible qu'on ne pourra pas trouver de sitôt 6G€ supplémentaires annuels pour financer l'université.

30 octobre 2013

La taxe des petits malins

Le gouvernement a aujourd'hui décidé de reporter sine die l'application de l'écotaxe, officiellement taxe poids lourds, suite aux manifestations qui se sont déroulées en Bretagne.

À première vue, l'écotaxe ressemble à une taxe d'usage: plus on roule, plus on paie, le produit net de la taxe est affecté à l'organisme étatique chargé des projets d'infrastructures. Cependant, contrairement à une véritable taxe d'usage, les voitures particulières sont exonérées, ainsi que d'autres poids lourds parmi lesquels les véhicules de secours et … les citernes de lait. Des abattements sont prévus pour certains endroits, dont la caractéristique principale est d'être peu pourvus en autoroutes. À part les grandes routes, le reste est exonéré, un des buts avoués de la taxe est de favoriser les canaux et le train. On remarque aussi que plus le poids lourd respecte une norme anti-pollution récente et moins le poids lourd consomme de pétrole, moins il paie. C'est aspect est naturel puisque cette taxe a été décidée après le fameux Grenelle de l'Environnement. Il semble donc qu'il s'agit en fait de taxer la consommation de carburant, on y reviendra.

Un article des Échos sur la genèse de cet impôt particulier, on constate aussi que d'autres raisons ont présidé à cette remarquable invention. L'appât du gain que l'exemple allemand a provoqué: peu importe que le réseau allemand ne connaisse pas le péage. Les reports de trafic vers l'Alsace créent aussi un allié, les élus alsaciens, qui ne veulent pas de ce nouveau trafic. Enfin, la privatisation des autoroutes a privé l'organisme qui s'occupe des infrastructures de la plupart de son financement.

La complexité de la taxe ne cesse d'étonner. Elle nécessite la pose de portiques le long des grandes routes partout en France et l'enregistrement de l'ensemble des camions circulants. Une telle infrastructure demande un entretien important, ce qui fait que la collecte coûte 250M€, soit un quart des recettes totales. Penser qu'une gestion publique aurait fait mieux n'est pas fondé: les radars automatiques coûtent plus de 200M€.

Alors, pourquoi ne pas avoir simplement rogné la ristourne fiscale sur le diesel dont bénéficient les poids lourds? Le risque aurait alors été le blocage de grandes villes ou plus simplement des raffineries. Pour amadouer les éventuels protestataires, les transporteurs routiers ont été autorisés à extérioriser le coût de cette taxe auprès de leurs clients dont la grande distribution, en sus des autres exonérations accordées: aux laitiers, aux Bretons, etc. Le report dans un futur indéterminé en 2008 a aussi permis de reporter à plus tard la protestation et de se lier les mains en préparation de cette contestation très prévisible lorsque le moment de payer allait s'approcher. Enfin, créer une taxe particulière permettait de l'affecter et s'empêcher de déshabiller les investissements dans les infrastructures pour boucler le budget.

Évidemment, l'heure de passer à la caisse a fini par se préciser et il s'avère que la taxe aurait dû s'appliquer à partir de l'année prochaine. Et tout s'est passé de façon défavorable. Les donneurs d'ordres ont négocié comme avant auprès des transporteurs, et la taxe allait se répercuter suivant la théorie de l'incidence fiscale. Il s'avère que dans l'agro-alimentaire, c'est à court terme les agriculteurs qui paient. Comme une bonne part du transport s'effectue en fait dans les derniers kilomètres et que les abords des grandes villes sont dépourvus d'autoroutes à péages, ceux qui pensaient être à l'abri car en «cycle court» se sont aperçus qu'en fait, ils allaient payer.

On a là un concentré de l'impéritie de l'état français. Une taxe pour décourager l'usage d'un produit qui se raréfie — même le PDG de Total dit que les quantités extraites chaque année vont baisser la prochaine décennie — et qui est responsable d'une bonne part du réchauffement climatique — un tiers des émissions dues à la combustion d'hydrocarbures au niveau mondial — est légitime, mais personne ne sait comment la faire accepter. Germe alors l'idée de la faire par une voie détournée, en persuadant ceux qui pourraient bloquer la mesure qu'ils ne paieront pas, en se liant les mains et en reportant l'application à une époque où il est probable que le pouvoir aura changé de mains. Bien sûr, pour que l'illusion fonctionne, la complexité de la taxe est très élevée et demande des investissements pour mettre en place un système de recouvrement. L'illusion se dissipe et le nouveau gouvernement ne sait toujours pas comment faire accepter cette augmentation de taxes. Ce manque d'argent oblige alors à mettre en veilleuse certains projets d'infrastructures, faute de financement. On sait aussi que ces deux aspects, moins de consommation de pétrole et disposer de rentrées fiscales pour financer les infrastructures, font consensus entre les différents partis. Au fond, les politiques ne savent plus comment faire accepter des actions qu'ils jugent légitimes, que ce soit pour financer l'action de l'état ou pour éviter des évènements néfastes.

21 octobre 2013

Les Visiteurs

Lundi dernier, d'anciennes gloires de la politique française ont publié une tribune dans le journal Libération, intitulée La France a besoin de scientifiques techniciens. Ils y dénoncent les militants qui ont empêché la tenue du débat public officiel sur le stockage géologique des déchets nucléaires et, partant, l'impossibilité de mener un débat serein sur les questions polémiques du moment où la technique joue un grand rôle: nucléaire, OGMs, ondes électromagnétiques, etc. Ils déplorent la faiblesse des vocations pour les domaines techniques et scientifiques. Ils y énoncent la nécessité du progrès technologique et leur volonté de laisser aux spécialistes des domaines techniques la liberté d'exprimer les conclusions que donnent la science.

Cette tribune m'a immédiatement fait penser au film Les Visiteurs: on a là des gens d'un certain âge qui semblent se réveiller bien tard une fois que des évènements ne font que révéler une tendance de long terme. La publication de la tribune dans la presse papier tout d'abord: cela rend la diffusion restreinte au seul lectorat déclinant de la presse papier le jour de la publication. À ce jour, seul Jean-Pierre Chevènement s'est fait l'écho de la tribune sur son propre site, une fois l'embargo du journal a expiré. À ma connaissance, ni Michel Rocard, ni Robert Badinter n'entretiennent de site web ou de page facebook. Contrairement à eux, Nicolas Sarkozy n'exprime plus ses opinions que par sa page facebook, sa notoriété lui garantissant une exposition immédiate et la reprise par les médias.

Sur le fond, la contestation ou le mépris de ce que disent les scientifiques n'a rien de vraiment nouveau, il y a probablement toujours eu une proportion de gens prêt à le dire haut et fort. Ce qui a changé, c'est que ce type de comportements est devenu acceptable et ces propos sont désormais relayés dans les médias généralistes. Ainsi, on a signalé sur ce blog que les tenants de la nocivité des ondes électro-magnétiques trouvaient à s'exprimer au premier degré dans ''Le Monde''. Avec la publication du rapport de l'ANSES, un journal comme Les Échos fait du teasing sur ce sujet avant de dire le lendemain que les dangers sont quasi-nuls. Sur les OGMs, on constate que si les opposants trouvent antenne ouverte, le consensus scientifique a peine à trouver son chemin jusqu’à la diffusion. Ainsi en est-il d'un document approuvé par l'ensemble des Académies des Sciences européennes disant que les risques des OGMs n'étaient pas plus grands que les techniques de sélection classiques et que les OGMs avaient eu des conséquences favorables pour leurs utilisateurs. Par ailleurs, les destructions d'essais ou de cultures n'ont pas vraiment été décrites comme du vandalisme.

Quant aux politiques, on ne peut pas dire qu'ils se précipitent pour faire contrepoint. Ils favorisent ouvertement ces études destinées à chercher des risques éventuels par rapport à des nouveautés. On a d'ailleurs l'impression que ces recherches de risques sont avant tout là pour permettre d'interdire des produits impopulaires. Le cas le plus patent est encore celui des OGMs où suite à l'arrêt récent du Conseil d'État peu ont élevé la voix pour dénoncer un abus de pouvoir ou pour relayer les conclusions du document des Académies des Sciences. Quand cela est politiquement expédient, ils semblent accueillir avec bienveillance l'hypothèse que les ondes électro-magnétiques puissent être nuisibles. Mais pour en arriver à ce qu'un député européen menace de poursuites judiciaires des experts s'ils font des déclarations qui ne vont pas dans le sens souhaité ou, ce qui a suscité la réaction des signataires, à ce qu'on interrompe le débat officiel sur le stockage géologique des déchets nucléaires, c'est qu'il s'est passé une longue période de démonétisation de ce que disent les scientifiques et les experts.

Au fond, les signataires sont nés et ont débuté leur carrière politique à une époque où le progrès technique était encore paré de la vertu d'améliorer la condition humaine, mais pendant qu'ils exerçaient le pouvoir, cette vision des choses s'est dégradée. C'est ainsi que sous le quinquennat de Jacques Chirac, le principe de précaution a été constitutionnalisé, révélant l'attitude des élus vis-à-vis des nouvelles techniques; Bernard Kouchner, alors ministre du gouvernement Jospin, a préféré interrompre le programme de vaccination contre l'hépatite B bien que les avis d'experts étaient que le bilan de cette vaccination était très positif; Alain Juppé lui-même a été à l'origine de la première interdiction d'OGM en France — déjà sur un maïs Bt —, et les signataires ne se sont pas précipités pour défendre le Pr Pellerin quand il a dit que le nuage de Tchernobyl n'aurait aucun effet sur la santé en France. Il me semble donc que les signataires portent une part de responsabilité dans cette dégradation de l'image de la science et de la technique en France.

Au fond, toutes ces décisions ont été prises parce que c'était politiquement favorable; ils ne sont pas exprimés fortement parce que ça n'en valait pas la peine à ce moment-là. Mais petit à petit, le discours des scientifiques a été remplacé par le discours d'autres personnes qui se sont érigés en concurrents. Ceux-ci ont en commun de défendre une cause, qui se moque bien d'être basée sur des faits. Qu'il faille bien s'occuper des déchets nucléaires à forte activité, même si le recours à l'énergie nucléaire s'arrête, ne peut arrêter les opposants au nucléaire civil: il s'agit avant tout d'entraver une activité honnie. Il en va de même pour les OGMs, symboles de l'agriculture industrielle; des ondes électromagnétiques et les antennes relais, qui ont pour énorme défaut d'être visibles depuis son jardin. Comme ces concurrents savent se faire entendre et sont nettement plus bruyants que les scientifiques, les politiques ont répondu à leurs demandes via divers artifices. Quoi de mieux que rechercher les risques posés par une technique et ignorer ses bénéfices pour pouvoir l'interdire? Quoi de mieux qu'un moratoire en attendant que la contestation se tasse?

Cette tribune me fait donc penser à la réaction de gens revenant voir une maison qu'ils avaient beaucoup aimé, mais qu'il n'avaient pas beaucoup entretenu, faute de temps, faute d'envie et parce que ça tiendrait bien encore un peu. C'est humain, mais si tous les occupants font de même, l'édifice se dégrade et finit par menacer ruine.

30 septembre 2013

Il n'y a que les imbéciles…

… qui ne changent pas d'avis. C'est ce qu'est en train de nous démontrer le gouvernement à propos de l'ouverture dominicale — ou l'absence d'icelle — des commerces de bricolage, ainsi que pour faire bonne mesure, de l'ouverture nocturne de magasins dans des rues touristiques.

Ce jour, Marisol Touraine, ministre des affaires sociales, a déclaré:

Il y a des salariés qui ont envie de travailler dimanche, des gens qui ont envie de faire leurs courses le dimanche

Cependant, il y a longtemps, très longtemps, dans une galaxie lointaine, très lointaine, c'est à dire en France sous le mandat de Nicolas Sarkozy, une loi avait été votée pour permettre à divers commerces d'ouvrir s'ils avaient la chance de se trouver dans une aire géographique particulière (un PUCE), dont la délimitation était, pour faire court, laissée à l'appréciation du maire. Il se trouve que l'opposition d'alors avait exprimé un vif désaccord avec ce projet. Pour preuve, un député de l'Indre-et-Loire, Touraine Marisol avait en ces temps reculés clamé avec éloquence son refus d'une telle dérogation:

À cet égard, l’argument selon lequel le travail le dimanche serait fondé sur le volontariat est une véritable supercherie.

et même:

Par ailleurs, dans certains pays, comme la Chine, on peut faire ses courses sept jours sur sept et presque vingt-quatre heures sur vingt-quatre. Est-ce là ce que vous nous proposez ? On peut légitimement se poser la question car, après tout, on pourrait exiger, au nom du développement économique, que les commerces ouvrent tard le soir.

En 4 ans, Madame Touraine paraît donc avoir changé d'avis. Malheureusement, les extraits de son intervention sur France 5 n'en donnent pas les raisons, si elle les a données.

Se pose ici un problème classique en politique: dans l'opposition, tout est simple, on peut se contenter d'être contre tout ce que veut le gouvernement en place. Arrivé au gouvernement, bien sûr, rien n'est simple, d'autant que le temps passé dans l'opposition est l'occasion de moult déclarations imprudentes. Il reste que le citoyen aimerait de temps en temps un peu de sincérité dans les opinions exprimées par leurs représentants et que leurs votes soient le résultat d'un minimum de raisonnement. À défaut, on aimerait à tout le moins connaître les raisons des changements de direction et savoir pourquoi ce qui paraissait mauvais hier devient bon aujourd'hui.

Ce genre de comportement ne fait que renforcer la méfiance, voire le dégoût, que peuvent éprouver les citoyens envers leurs représentants. À titre personnel, je m'étais abstenu lors du dernier scrutin présidentiel en partie parce qu'il m'était bien difficile de croire un mot de ce que disait François Hollande. Un peu moins de postures dans le discours public permettrait aussi de cerner les véritables points de désaccord aussi bien que les points qui font consensus. Et lorsque consensus il y a, on pourrait espérer que les partis de gouvernement travaillent au moins à ce que ce consensus débouche sur quelques mesures assumées comme telles. Il semble toutefois que la nécessité de se montrer guerroyant contre le camp d'en face l'emporte toujours sur l'éventualité de faire quelque chose d'utile pour la société.

22 septembre 2013

De la réduction de la consommation d'énergie finale de 50% d'ici 2050

Vendredi dernier, François Hollande a annoncé son objectif de voir la consommation finale d'énergie — celle payée par le consommateur final — divisée par 2 d'ici 2050. Je suis fort sceptique que cet objectif puisse être réalisé et certain qu'il est néfaste, ce qui ne doit pas surprendre mes lecteurs réguliers.

Pour bien comprendre à quel point cet objectif est irréaliste, il faut se rappeler que, dans le scénario central du gouvernement allemand, il n'est prévu qu'une baisse de 40% (tableau 1 p7). À ceci, il faut ajouter que la population est attendue en baisse d'un peu plus de 10% (tableau 2-2, p80); en conséquence, la baisse de consommation d'énergie finale par habitant est d'environ 1/3. En France, il est communément admis que la population augmentera d'environ 10% d'ici 2050, l'objectif présidentiel se traduit par une baisse de 55% de la consommation par habitant. L'Allemagne a décidé de s'embarquer vers un modèle où l'essentiel de son énergie proviendrait de sources renouvelables et a exclu de recourir au nucléaire, ce qui limite les quantités disponibles — quoique 15% d'importations d'électricité soient par exemple prévues. Cette simple comparaison devrait amener à avoir des doutes sérieux sur l'éventuelle réflexion qui a précédé cette annonce, ou alors sur les scénarios allemands.

Les sources ne sont pas bien difficiles à trouver, le fameux débat, dont on a dit pis que pendre ici-même, fournit tout de même quelques documents dont un résumant les scénarios considérés. On y voit p8 la liste des scénarios qui correspondraient plus ou moins à l'objectif présidentiel, leurs supporters rassemblent essentiellement des associations écologistes, l'ADEME, ainsi que le gestionnaire du réseau de gaz — point qui peut étonner quand on sait qu'il doit être question de réduire les émissions de gaz à effet de serre. Le groupe de scénarios "Sobriété" est représenté entre autres par le scénario négaWatt où il s'agit d'abord d'être contre le nucléaire et de tout faire pour l'éviter. (On peut lire ma critique de scénario,celle de Sauvons le Climat, ainsi qu'une critique de la partie «biomasse»). Le groupe de scénarios "Efficacité" compte notamment l'ADEME (critique personnelle & celle de Sauvons le Climat, publiées avant que les documents complets ne soient rendus publics). Ces scénarios ont pour caractéristiques communes une contrainte importante placées sur les citoyens: impossible de se déplacer comme on le souhaite, le secteur des transport est soumis à des limitations draconiennes pour quelqu'un vivant en 2013. Des hypothèses bizarres sont faites, ainsi point de développement des deux-roues à moteur pour l'ADEME d'ici à 2030, alors qu'avec la forte hausse du prix du pétrole, ils s'étaient quelque peu développés. Il n'y a pas d'étalement urbain, la surface habitable par habitant est constante — elle a augmentée d'un tiers entre 1984 et 2006 (p129) —, ce qui implique un zonage très strict et des problèmes pour les jeunes générations, les vieux ayant tendance à rester dans leurs grands logements une fois les enfants partis. Bref, les prix élevés de l'immobilier sont garantis dans ce type de scénario. On mange aussi suivant les préconisations de la FAO, c'est à dire nettement moins de viande et plus de petits pois. Dans le même esprit, le système électrique est équilibré de façon quasi-magique en utilisant de fortes doses de sources fatales intermittentes. Il semble ainsi que la manip' qui permet au système électrique d'être équilibré dans le scénario de l'ADEME, c'est qu'un filtre passe-bas limite les fluctuations de l'éolien en mer (p206 du document technique de l'ADEME). On peut dire que c'est un cocktail détonnant d'ingénierie sociale et d'hypothèses audacieuses sur les sources mobilisables, dont rien ne dit que les citoyens et les entreprises les acceptent et les mettent en œuvre.

Pour donner une idée de la contrainte à placer sur la consommation d'énergie, on peut se tourner à nouveau vers l'Allemagne. Comme on le sait, les prix de l'électricité pour les petits consommateurs ont fortement augmenté sous l'effet de l'introduction de la Stromsteuer et de l'explosion de la taxe «renouvelables». Ils sont passés de 14 cents/kWh en 2000 à 26 cents/kWh en 2012 (source: BDEW, p41), soit presque une multiplication par 2. Dans le même temps, la consommation d'électricité par les ménages et le secteur tertiaire, impactés de plein fouet par la hausse des prix, a augmenté de 7% (Source: AG Energiebilanzen p30). En France, les prix sont passés de 12 à 14 cents/kWh et la consommation a augmenté de 25% pour un périmètre comparable. On voit que la consommation d'électricité ne répond que faiblement aux hausses de prix, par ailleurs tous les nouveaux objets ou presque en utilisent. Or, la production d'électricité est fortement contrainte dans les scénarios préférés du Président Hollande. Un rationnement n'est donc pas à exclure.

On pourrait penser que, comme ces déclarations portent sur un terme éloigné où François Hollande aura 96 ans, ces déclarations n'engagent à rien. Malheureusement, elles ont probablement une importance certaine, au contraire. Estimer que la consommation finale va baisser de 50% d'ici 2050 a des conséquences sur les investissements à faire aujourd'hui: pas besoin de capacité électrique pilotable supplémentaire, par exemple. Or, il s'avère que si la croissance repartait, il est fort possible selon RTE qu'on ne puisse éviter un black-out lors des hivers 2016 et 2017. Il faut aussi prendre en compte le fait que construire des centrales électriques, des lignes haute tension, des réseaux de chaleur, tout cela prend du temps et de plus en plus, à cause des consultations qui ne cessent de s'allonger pour les projets d'infrastructure. Si le gouvernement, forcément impliqué dans ces décisions, sous-estime gravement la demande, une pénurie est inévitable car le temps manquera pour construire les infrastructures nécessaires. En fait, estimer que ces déclarations n'ont aucune importance, c'est penser que les transitions énergétiques sont rapides et qu'on peut facilement changer de direction à tout moment. Rien n'est plus faux: historiquement, les nouvelles sources d'énergies ne se sont imposées que lentement, sur plusieurs décennies. Des pays de taille raisonnable comme la France peuvent aller plus vite, mais cette prégnance du long terme reste: dans le secteur électrique, la construction du parc nucléaire qui domine la production d'électricité a été décidée il y a maintenant 40 ans, sa réalisation a pris 20 ans pour l'essentiel. Il en va de même pour le chauffage: de nombreuses maisons restent chauffées au fioul alors que ce dernier n'est plus compétitif au vu des cours actuels, les chaudières gaz à veilleuse sont restées longtemps sur le marché — et sont sans doute toujours en usage — alors que celles à allumage électronique sont plus économiques au total. Il est donc sans doute de bon ton de prévoir une marge sur la consommation d'énergie: il est tout de même nettement plus simple de s'abstenir de construire quelque chose dont on n'a finalement pas besoin que de s'agiter en toute hâte parce qu'une pénurie s'est révélée.

De même, se reposer sur des technologies n'ayant aucune application actuellement, même sous la forme de prototypes est dangereux. Ces installations sont très populaires car parées de toutes les vertus, elles bénéficient en quelque sorte de la prime au rêve: ces installations ont pour principal avantage que personne ne les a vues en vrai ni n'a payé pour. On trouve dans ce genre d'infrastructure le stockage de l'électricité ou, dans un autre registre, les réacteurs au thorium. Il apparaît ainsi que le stockage le plus facile de l'électricité peut se faire via la production de chaleur, aussi connue sous le nom de chauffage électrique. Il semble que malheureusement, l'intersection de l'ensemble des supporters des énergies intermittentes et des supporters du chauffage électrique est vide. Même pour les installations qui n'existent qu'à l'état de prototypes ou connaissant un fort développement, rien n'assure qu'on pourra les déployer à plus grande échelle. Des limites fortes existent aussi pour les énergies renouvelables. Par exemple, 40% du maïs américain et 14% du soja servent à produire de l'éthanol pour une proportion dans l'essence aux USA de 10% seulement. En Allemagne, les cultures destinées à l'énergie représentent déjà 17% de la surface agricole utile. De l'autre côté, le 21e siècle a surtout vu le retour du charbon comme source importante d'énergie, y compris en Europe. Cela veut dire qu'il vaut mieux partir pour diminuer les émissions de CO₂ avec des technologies qui ont déjà fait en grande partie leurs preuves (nucléaire, réduction de la consommation des moteur automobiles…) et qui ont encore une grande marge de progression, quitte à intégrer les nouveautés par la suite, plutôt que de faire le pari de l'apparition d'une technologie miracle.

Au fond, il me semble que cette déclaration confirme que les mauvais traits de la politique énergétique de François Hollande que je craignais dès l'hiver 2011. Il fait des déclarations, en partie pour faire plaisir à ses alliés écologistes, en partie parce qu'il a été convaincu, mais leur réalisation concrète est hautement improbable: l'effort à réaliser est inouï. Un effort comparable à celui de l'Allemagne correspondrait, compte tenu des évolutions démographique, à une baisse limitée à 20% de la consommation d'énergie finale, ce qui correspond aux scénarios écartés. Appliquée telle qu'annoncée, la politique ne laisse aucune marge de manœuvre, sauf à prévoir de rater la cible en termes d'émission de CO₂. Il se trouve qu'on ne peut pas non plus écarter ces déclarations d'un revers de main, car l'approvisionnement en énergie de la France de 2050 se décide en partie aujourd'hui.

6 septembre 2013

Dimitris

Ce dimanche, le Monde nous a gratifié d'un article sur ceux qui se nomment électro-hypersensibles. On nous présente le cas de plusieurs personnes. Une femme se dit intolérante à diverses fréquences allant du 50Hz du courant électrique aux micro-ondes, elle semble vivre en permanence avec un bracelet anti-statique. Elle l'utilise pour se mettre à la terre, alors que, marchant pieds nus, sa conductivité électrique, que sous-entend la prise au premier degré de son affection, devrait lui permettre se décharger automatiquement. Un homme est aussi atteint après avoir eu une vie frénétique en travaillant sur plusieurs continents. Un autre se dit aussi atteint, de plus, il ne supporterait aucun produit chimique. À première vue, il s'agit d'un rassemblement de personnes souffrant effectivement d'une ou plusieurs affections handicapantes, puisque, par exemple, l'électricité est devenue omniprésente dans le monde moderne. Cela dit, rien ne dit que le diagnostic que ces personnes portent sur elles-mêmes soit le bon.

On s'aperçoit que la journaliste a tout de même une intime conviction: les téléphones portables sont bien responsables. Elle nous dit que ce sont des symptômes que nombre de médecins, démunis, attribuent encore régulièrement à des troubles psychiatriques ou psychosomatiques et que la controverse est loin d'être tranchée chez les scientifiques et divise la classe politique. Ainsi donc, il semble qu'il ait encore des médecins qui n'ont pas vu la lumière et qui osent encore attribuer ces symptômes à des causes psychiatriques. Il y aurait aussi une controverse scientifique. Les lecteurs réguliers de ce blog se rappelleront sans doute que j'ai déjà abordé ce thème par deux fois. On peut résumer le consensus scientifique en signalant que l'ANSES rappelait que les seuls résultats positifs obtenus à ce jour sur le plan thérapeutique sont ceux obtenus par des thérapies comportementales ou des prises en charge globales et qu'un article scientifique a montré que ces personnes étaient bien incapables de détecter les ondes auxquelles elles imputaient leurs maux. Il est aussi très étonnant qu'aucune explication ne soient apportée au fait qu'après plus d'un siècle d'utilisation du courant alternatif et des techniques utilisant les ondes radio, ce n'est qu'avec le téléphone portable que sont apparus ces électro-sensibles.

On se trouve ainsi dans un cas où la situation est présentée sous un jour tout à fait particulier et on ne peut s'empêcher de remarquer qu'on nous avait déjà fait le coup en 2008. La dispute politique, par contre, est bien réelle; elle est portée par les écologistes. Par une coïncidence extraordinaire, cet article est publié juste après la publication d'un rapport concluant à la multiplication par 3 du nombre d'antennes si on voulait passer en deçà du seuil arbitraire et sans justification de 0.6V/m en gardant une bonne qualité de service. En attendant, dans certains immeubles, on a du mal à capter le signal, alors que le téléphone portable est aujourd'hui le seul téléphone pour un certain nombre de ménages, grâce notamment à son faible coût puisque pour 2€ par mois et un appareil à 20€ on peut appeler de partout, alors qu'un ligne fixe réclame de l'ordre de 15€/mois d'abonnement et oblige à payer un raccordement de 50€.

La revendication qui est porté par le rassemblement qui nous est décrit mérite aussi le détour: la création de zones sans ondes. Cette revendication est impossible à satisfaire depuis que Marconi a inventé la radio, notamment à ondes courtes, que le courant alternatif alimente tous les équipements du confort moderne et que le téléphone satellite a fait son apparition. Elle est directement inverse à celle des élus et de la plupart des habitants qui ont réclamé à cor et à cri une bonne couverture par le téléphone portable, non sans succès puisqu'on a rapporté des cas de personnes sauvées par des messages envoyés depuis un endroit autrefois improbable. Cette revendication s'accompagne d'une menace d'utilisation de la violence puisque la zone blanche, on la prendra s'il le faut. Cette revendication a donc pour principal intérêt de faire passer ceux qui veulent limiter l'exposition pour des modérés préférant la paix.

Cette semaine, un journaliste a aussi fait part des raisons qui l'ont amené à quitter le journal qui l'employait. Son employeur le soupçonnait en fait de n'être guère impartial quand il voulait couvrir les évènements entourant la contestation de la construction de l'aéroport de Notre-Dame-des-Landes. Il faut dire qu'il qualifie de magnifiques 3 jours sur place en compagnie des contestataires. Pourtant d'autres échos laissent entendre un quotidien de racket et de vols dans les supermarchés pour les habitants, priés d'être contre l'aéroport sous peine de rétorsions bien réelles. On le voit, la réalité montrée dépend fortement du point de vue de celui qui tient le stylo ou, de nos jours, le clavier. Sans surprise, la vision relayée reflète les opinions politiques de l'auteur, sans que le lecteur n'ait de moyens rapides de vérifier quels faits auraient pu être occultés, voire même qu'on lui raconte en fait n'importe quoi. Autrefois, des puissants accréditèrent le récit d'un homme sans qu'il ne fût nécessaire qu'ils y crussent, car c'était expédient pour leur cause politique. Aujourd'hui, les choses n'ont peut être pas tant changé; si la cause politique a des chances de remporter un succès, il est loin d'être sûr que les malades qu'on nous montre bénéficient vraiment, à terme, d'un relais sans critique de leur croyances.

27 août 2013

La réforme des retraites la plus injuste de ces 30 dernières années

Ce mardi 27 août vers 19 heures, Jean-Marc Ayrault, premier ministre, a annoncé les projets du gouvernement en matières de retraites. Il semble que ce soit la réforme des retraites la plus injuste de ces 30 dernières années car elle fait porter tout l'effort aux actifs via des prélèvements supplémentaires, alors que ce sont les actifs qui ont subi toutes les conséquences de la crise actuelle. Le discours du premier ministre relaie aussi des mythes communs sur les retraites.

Qu'on en juge: le rapport Moreau avait fait la liste des mesures envisagées. Il est difficile de croire que cette liste ne trouve pas son origine dans un cabinet ministériel et que la commission ait servi à autre chose qu'à discuter des options envisagées au début de l'année par le gouvernement. liste_moreau.jpg

Qu'en a retenu le gouvernement? Une augmentation de 0.6 point des cotisations retraites déplafonnées — soit environ 4.5G€ de recettes —, une taxation des suppléments de retraites — 900M€ de recettes retraites — et un gel égal à une demi-année d'inflation via le report de la réévaluation des retraites — non comprise, mais qui doit rapporter moins de 1G€ au vu de l'évaluation du rendement du blocage des retraites. Premier constat: il ne semble pas qu'on atteigne les 7G€ que le rapport Moreau estimait nécessaires pour combler le déficit du régime général, il manquerait 600M€/an au bas mot si des mesures supplémentaires ne sont pas prises. Au surplus, le premier ministre a annoncé la création d'un «compte pénibilité» qui réclamerait environ 2G€/an (p169), financé sans doute via des taxes sur les entreprises. Au total, on voit qu'il y a 6.5G€/an d'impôts sur les actifs en plus et au maximum 2G€ à porter par les retraités. Les actifs supportent donc les trois quarts de l'effort. On peut juste rappeler que la baisse du niveau de vie a essentiellement frappé les actifs via une forte augmentation du chômage, un blocage courant des salaire et des hausses d'impôts.

Quant à l'allongement de la durée de cotisation, il ne se produira qu'après 2020, pour atteindre 43 ans de cotisations en 2035. Même si on voit que les rendements espérés sont faibles à court terme, une telle addition aurait été la bienvenue, surtout qu'à première vue, le compte n'y est pas pour combler le déficit. Mais ce n'est pas tout: le premier ministre déclare que l'allongement de la durée de cotisation aurait un impact brutal sur les intéressés mais aussi sur les comptes du chômage et les minima sociaux. Ce faisant, il relaie l'idée que l'emploi serait un gâteau de taille fixe. Or, les changements effectués sous le quinquennat de Chirac et celui de Sarkozy montrent qu'il n'en est rien: lorsqu'on supprime les mesures qui payaient les personnes de plus de 50 ans pour rester chez elles sont supprimées, le taux d'emploi augmente et rejoint le taux d'emploi des âges immédiatement précédents. On note aussi un net accroissement du taux d'emploi de la classe d'âge entre 55 et 64 ans du fait des règles d'âge qui repoussent l'âge de la retraite à taux plein. Dit plus simplement, le premier ministre ment et il est contredit par l'expérience récente. Au contraire, repousser l'âge de la retraite augmente le nombre total d'emplois en France.

Dans le même genre de déclaration, on trouve celle comme quoi la CSG n’a pas été créée pour financer les retraites. Tout le monde sait bien que l'impôt sur le revenu a été créé pour financer les retraites et que la suppression d'une niche sur cet impôt peut aller les financer. On peut aussi constater que c'est la partie déplafonnée des cotisation retraites qui est augmentée, elle n'ouvre aucun droit et sert conceptuellement à financer le minimum retraites ou les autres mesures redistributives.

Le premier ministre prend aussi prétexte de la proximité des taux de remplacement pour ne pas toucher au système de retraites du public. Or le problème est que ce taux de remplacement est en trompe-l'œil. Tous les fonctionnaire qui touchent de nombreuses primes ont un taux de remplacement très inférieur, puisqu'elles ne donnent pas droit à retraite, alors que ceux qui en touchent peu, comme typiquement les enseignants, ont un taux de remplacement excellent. Il fait donc perdurer une injustice interne au système. Mais il y a mieux: les derniers changements aux régimes complémentaires du privé AGIRC et ARRCO ne suffiront pas à assurer leur équilibre en 2020, des changements supplémentaires seront nécessaires, il vont impacter directement le niveau de vie des retraités et les taux de remplacement. Ils devraient donc diverger peu à peu de ceux du public.

Il se murmure aussi que le patronat aurait renoncé à la contestation contre une baisse des cotisations finançant les allocations familiales. Cela se traduira soit par une augmentation de la CSG — et une baisse du niveau de vie — soit une baisse des dépenses — ce qui a déjà été prévu en avril dernier. Le contraste est d'ailleurs saisissant: en avril, le gouvernement taxe les allocations familiales pour renflouer les caisses d'allocation familiales; en août les bénéficiaires principaux des systèmes de retraites sont épargnés. On sait, de plus, que les caisses d'allocations familiales ne sont en déficit que parce que des dépenses de retraites leur ont été imputées. La priorité est donc claire: tout doit être fait pour préserver le niveau de vie des retraités.

Au fond, c'est peut-être là la réforme des retraites la plus injuste depuis 30 ans. Toutes les autres prévoyaient une limitation du surcoût fiscal pour les actifs en faisant porter une part du déficit par les retraités, essentiellement futurs, il est vrai. La réforme avec le plus grand effet a été la réforme Balladur, qui a indexé définitivement les retraites sur l'inflation au lieu des salaires et a limité le montant des retraites versées. Les réformes Fillon et Sarkozy ont essentiellement porté sur l'allongement de la durée du travail qui, non seulement réduit les dépenses à terme, mais augmente aussi les recettes pour l'ensemble du système de protection sociale. Cette réforme reprend essentiellement le programme d'ATTAC qui voulait réévaluer chaque année les cotisations de 0.2 point par an. L'essentiel de l'effort est donc financé par une perte de pouvoir d'achat des actifs, présents et futurs. Alors que ces actifs, eux, ne peuvent réellement espérer de voir un système aussi généreux: membres de classes creuses, victimes de prévisions toujours trop optimistes, ce sera sans doute sur eux que tombera la diminution des retraites servies.

23 août 2013

Le marché des quotas de CO₂ a-t-il échoué?

Le rapport de la Cour des Compte sur les énergies renouvelables comporte une partie où elle tente d'évaluer les bénéfices des diverses politiques d'aide mises en place. Pour cela, il est pratique de pouvoir donner un prix aux tonnes de CO₂ dont on aura évité l'émission, puisque c'est là un des buts avoués de la politique en faveur des énergies renouvelables. Elle distingue divers modes de valorisation parmi lesquels le marché des droits à polluer, la valeur tutélaire — qui est une sorte de valorisation intrinsèque des bénéfices de moindres émissions — et la valorisation fiscale. Après avoir constaté le faible prix des droits à émettre du CO₂, elle affirme que en raison de l'échec du marché à valoriser le carbone, la seule valorisation qui intègre les dommages environnementaux reste une valorisation théorique publique, appelée valeur tutélaire du carbone. C'est une antienne qui est souvent reprise dans les média tant francophones qu'anglophones et qui me semble attribuer à ce marché une tache qu'il ne pouvait effectuer.

L'essence du marché du carbone est la suivante: les états de l'UE (et quelques autres) émettent des titres qui donnent le droit de rejeter dans l'atmosphère du CO₂, avec 1 tonne de rejet pour 1 titre. Pour des raisons pratiques, seul un certain nombre d'industries sont obligées d'en détenir, les particuliers en sont par exemple dispensés. Le principe est alors de placer une limite supérieure globale aux rejets des grandes industries comme la sidérurgie, la fabrication de ciment et d'électricité. Cette limite supérieure, actuellement d'un peu plus de 2Gt, décroît d'année en année, il est prévu que la quantité de titres créés par les états baisse de 1.7% par an d'ici 2020. De cette façon, les rejets de CO₂ peuvent être progressivement amenés à un niveau ne mettant pas trop en danger l'équilibre climatique de la planète. Ces titres sont prévus pour être échangeables contre de l'argent — y compris auprès des états qui mettent aux enchères une partie des titres émis chaque année — ce qui fait que la répartition des efforts de réduction des rejets n'est pas fixée à l'avance, et devrait commencer par là où c'est le moins cher, les industries où il est plus facile d'éviter de rejeter du CO₂ revendant leurs crédit aux autres ou passant leur tour lors des enchères. Si une entreprise rejette du CO₂ sans avoir acquis de droit à polluer, elle doit payer une amende, ce qui fait que lorsque la limite supérieure des rejets est dépassée, ce système se transforme en taxe carbone. On voit donc que le résultat est de se donner une quantité maximale de pollution émise chaque année.

En fait, les états ne sont pas la seule source de droits à polluer. Le protocole de Kyoto a créé des certificats de réduction des émissions via ce qui est pompeusement désigné sous le nom de mécanisme de développement propre, alias CDM. L'ensemble des certificats émis représente environ 1.4Gt de CO₂, ils peuvent être utilisées dans l'UE au même titre que les droits émis par les états. Ce sont donc 1.05Gt qui se sont retrouvés ces 5 dernières années sur le marché européen. Soit environ 10% du total des titres émis par les états ou l'équivalent des titres créés par la Pologne. La même Pologne qui a tenté d'obtenir le droit de donner des crédits gratuits pour des usines inexistantes. Dans le même ordre d'idées, des manœuvres ont fait que les crédits obtenus par le CDM ne sont valables qu'à condition qu'ils n'aient pas été attribués pour la construction d'une centrale nucléaire ou pour la création d'une forêt, par exemple. Pourquoi ces exceptions, alors que construire certains types de centrales au charbon y donne droit? Eh bien, parce que! … Ou bien plus exactement qu'il faut bien faire un compromis pour faire passer certaines mesures. Dans le cas d'un marché comme les droits à polluer, les compromis sur les quantités de titres sont fondamentaux. Une fois qu'ils sont actés, il est très difficile de revenir dessus … et difficile de blâmer le marché du carbone lui-même pour les décisions qui ont mené là: après tout, la contrainte majeure de ce marché est cette quantité de titres créés!

Un autre exemple de cette dépendance à la quantité de titres est le marché US des droits à émettre du dioxyde de soufre (SO₂), gaz qui entraîne des pluies acides. Ce système est souvent vanté comme ayant très bien marché. Il est crédité d'une baisse des émissions de 43% entre 1990 et 2007. Mais comme le nombre de permis émis chaque année n'a pas varié depuis 2000, car le Congrès n'a pas réussi à trouver un accord, le prix des permis s'est effondré. En fait, il s'avère que ce système pêche par sa rigidité: pour modifier le paramètre principal qui est le nombre de titres émis chaque année, il faut passer par le Congrès. La réglementation est nettement plus facile à modifier et c'est ce qui s'est passé aux USA: la réglementation a été durcie au point où il est impossible d'atteindre le plafond d'émissions. On a aussi assisté à un retrait du charbon au profit du gaz de schiste dans la production d'électricité. Mais personne ne dit que le marché du SO₂ est un échec parce que le prix des permis est trop bas; pour constater si les buts sont atteints, on regarde si le plafond a été respecté et combien cela a coûté. On ne se pose même pas la question de savoir s'il eût été possible de faire mieux, or il s'avère que dans le même temps, l'UE a fait bien mieux. Les émissions de SO₂ y ont été divisées par 3, certains pays comme le Royaume-Uni les ont divisées par 6. La cause en est que l'UE a édicté des réglementation strictes notamment via les directives GIC (LCP en anglais) et IED.

Dans le domaine des émissions de CO₂, on constate que l'UE a aussi adopté toute une série de réglementations qui visent à diminuer les émissions. On peut citer les engagements sur les énergies renouvelables, sur l'efficacité énergétique ou même les directives LCP et IED qui vont faire fermer de vieilles centrales au charbon et au fioul. Des évènements non prévus au départ peuvent aussi permettre de respecter le plafond sans effort. La dépression actuelle en fait partie: de nombreuses aciéries et cimenteries ont fermé, la demande en électricité stagne voir baisse à cause de la faillite de nombreuses entreprises et de la baisse du niveau de vie des habitants. Évidemment, peu souhaitaient que le respect du plafond d'émissions passe par une crise pareille et le scénario prévu était que des investissements permettraient de conjuguer croissance et limitation des émissions de CO₂. C'est simplement ignorer que devenir l'Albanie est une façon de réduire drastiquement les émissions de CO₂. Après tout le marché du CO₂ ne dit pas comment réduire les émissions, mais fixe juste la limite à ne pas dépasser. Le prix des permis ne fait que refléter l'effort qu'il faut faire pour être sûr de ne pas dépasser le plafond ou alors, lorsqu'on est trop près ou delà du plafond, le prix de l'amende.

Comme le prix des permis reflète surtout l'effort à faire pour rester sous le plafond prévu à l'origine, il n'y a aucune raison que ce prix reflète le coût pour la société de la pollution. On peut même dire que les promoteurs d'un tel système espèrent ouvertement que le prix des permis soit nettement inférieur au coût de la pollution. Que les prix du carbone sur le marché soient bas n'est pas en soi-même un échec. S'en plaindre, c'est surtout se plaindre que les évènements n'ont pas été conforme à ce qui avait été prévu. Or sur le marché du carbone, le prix s'ajuste en partie par ces évènements imprévus, qu'ils soient bons ou mauvais. Cela veut aussi dire que les valorisations théoriques et via le marché n'ont pas les mêmes significations. Une valorisation théorique donne une idée des sommes qu'on peut rationnellement payer pour éviter une pollution, en dehors de toute autre considération, notamment de savoir s'il existe une façon plus économique de faire. La valorisation par le marché a pour but de rechercher la façon la plus économique d'atteindre une certaine quantité de pollution. En ce sens, il n'y a pas à se prévaloir d'un éventuel échec du marché pour se référer à une valorisation théorique, d'une part parce que le marché ne couvre pas l'ensemble des des émissions, d'autre part parce qu'il peut finalement devenir rationnel de diminuer la pollution plus qu'il n'était prévu au départ. Inversement, un prix bas sur le marché du carbone signale surtout que les objectifs fixés au départ vont être atteints sans beaucoup d'efforts, mais sans rien dire sur la situation générale de l'UE.

Finalement, on peut dire qu'on affuble la situation actuelle du marché du CO₂ du nom d'échec pour de mauvaises raisons. Ce qui est regretté, c'est que les choses ne sont pas passées comme prévu: c'est la crise qui a fait s'effondrer les émissions dans le secteur industriel, pas une quelconque innovation. C'est oublier que le marché ne fait que fixer un maximum d'émission — qui peut être dépassé en payant une amende, d'ailleurs — et que d'autres politiques que le seul marché du CO₂ sont en place pour essayer de faire baisser les émissions, comme par exemple les subventions aux énergies renouvelables. Il est inévitable que ces subventions exercent une pression à la baisse sur les prix des permis … en engageant parfois des dépenses astronomiques. On ne peut pas non plus confondre le coût théorique de la pollution et le prix des permis, puisqu'en fait l'espoir est que la pollution sera réduite en dépensant moins que ce que la pollution coûte à la société. Au fond, le marché du CO₂ n'est que la voiture balais des politiques européennes sur le sujet, c'est une tentative de fixer un plafond annuel d'émissions. Se plaindre de son échec du fait du bas prix des permis, c'est un peu se plaindre que la voiture balais soit vide à l'arrivée d'une étape du Tour de France. L'étape était peut-être trop facile, peut-être le peloton n'est-il composé que de dopés, mais rien de tout cela n'est la faute de la voiture balais.

22 août 2013

Les objectifs de production d'énergies renouvelables sont intenables

La Cour des Comptes revient dans son rapport sur les objectifs qu'ont fixé les différents gouvernements qui se sont succédé en termes de production d'énergies renouvelables. Ces objectifs ont été formalisés suite au niveau européen avec la politique dite des «3x20» où l'un des termes est de produire 20% de l'énergie consommée en Europe via des moyens renouvelables. La Cour, dans sa conclusion du chapitre 1 (p38), nous dit que ces objectifs sont volontaristes et particulièrement ambitieux, une façon polie de dire qu'ils sont impossibles à atteindre.

La Cour rappelle (p26) le précédent pari pris au comptoir du café du commerce avant de prendre les engagements de la politique des 3x20. Il s'agissait, en 2001, de produire 21% de l'électricité avec des renouvelables à horizon 2010. La base de comparaison était alors 1997, où l'hydroélectricité produisait 15% du total. Le résultat a été qu'au final, en 2010, la production d'électricité de sources renouvelables a atteint … 15% du total — sans correction des effets climatiques — ce qui intègre les effets des premières mesures prises pour tenir l'engagement actuel. Un deuxième round d'engagements plus solennels a été lancé en 2004, pour aboutir aux engagements actuels formalisés en 2009. Ces engagements visent toutes les formes d'énergies et plus seulement la seule électricité. Il s'agit pour la France de produire 23% de l'énergie finale à partir de sources renouvelables.

La Cour remarque que la France est parmi les pays de l'UE le plus ambitieux puisque la proportion d'énergie renouvelable doit augmenter de 12.7 points de pourcentage par rapport à 2005, année prise comme référence. Avec cette façon de mesurer, c'est le 4e objectif le plus ambitieux, après le Royaume-Uni — qui part de presque rien… —, le Danemark et l'Irlande (p31). Cet effort est supérieur à celui promis par la vertueuse Allemagne, où le soutien politique apparaît nettement plus fort. On peut se demander ce qui a mené à une telle décision…

L'objectif global est détaillé par grandes filières: chaleur — un tiers de l'énergie consommée devait venir de renouvelables —, électricité — 27% —, transport — 10%. Les choses se corsent à partir de là:

  • La Cour signalait dans son rapport sur les biocarburants (p43 et p47-48) que la proportion de biocarburants intégrables à l'essence était limité par une directive européenne. Celle-ci fixe un plafond de biocarburants intégrables inférieur aux demandes de la loi française et les distributeurs d'essence doivent donc de ce fait payer une taxe. En 2011, la proportion atteinte était de 6.7% d'EnR dans les transports. En l'absence de modification des normes européennes sur les carburants, il paraît impossible de réaliser l'objectif, même si certains biocarburants comptent double.
  • La France produit à l'heure actuelle environ 80% de son électricité à l'aide du nucléaire. On voit donc que l'objectif correspond à une production où il n'y aurait plus que le nucléaire et les énergies renouvelables. Comme il s'agit essentiellement de s'appuyer sur des moyens de production intermittents pour combler la différence entre la production hydraulique et l'objectif, ça ne paraît pas crédible, même en fermant la centrale de Fessenheim. On pourrait aussi penser augmenter la production totale d'électricité, mais le détail des objectifs montre que ce n'est pas l'option qui a été choisie. Par ailleurs, depuis 2008 et la crise, la consommation d'électricité stagne en France, ce qui est un facteur limitant.
  • La production de chaleur n'est pas normalisée en fonction des conditions climatiques. C'est ainsi qu'on pourrait réaliser les objectifs par filière et manquer l'objectif global, seul officiellement contraignant, de ce fait. Ce n'est pas qu'une considération académique: le bois — alias «biomasse solide» — est censé remplir presque 50% de l'objectif total. La variation de chaleur produite par ce biais est de l'ordre de 10% entre 2011 et 2012.

Même si les objectifs sont libellés en pourcentage de l'énergie finale produite, des objectifs en termes nominaux ont été édictés. La Cour présente l'état des lieux en 2011 en regard des objectifs pour 2020 dans un tableau, reproduit ci-dessous. CComptes_enr_objectifs.jpg On constate que, notamment pour les gros contributeurs attendus que sont l'éolien et le bois pour la chaleur, il y a un grand écart entre ce qui a été réalisé et l'objectif. Même en 2012, année froide, le bois de chauffage reste en deçà de la trajectoire prévue, ce qui n'est pas de bon augure. De plus, l'ADEME dans son scénario, qu'on ne peut pas vraiment soupçonner de sous-estimer les gisements d'énergies renouvelables, estime que le gisement «biomasse solide» accessible en 2030 est de 18Mtep: on voit donc que l'essentiel de l'effort devrait porter dans les quelques années qui viennent. Pour l'éolien l'objectif implique peu ou prou la construction de 30GW d'éoliennes. La tendance actuelle laisse penser qu'il n'y en aura pas la moitié. D'autres filières sont signalées dans le rapport comme très en retard, comme la géothermie électrique, et la différence entre les objectifs nominaux et les réalisations ne sont sans doute pas pour rien au laisser aller que la Cour note dans certaines filières, notamment la production d'électricité à partir de biomasse. Certaines filières ne sont pas trop mal placées par rapport aux objectifs comme le solaire photovoltaïque et le biogaz — qui sont même au delà. Mais ces filières ne peuvent pas de façon réaliste combler le manque que laisseront les gros contributeurs.

La trajectoire prévue au départ voulait aussi qu'environ les deux tiers de l'effort soient produits entre 2012 et 2020. Pour les plus gros contributeurs prévus à cet effort, la biomasse pour la chaleur et l'éolien, on n'en prend a priori pas le chemin. Certains des objectifs sont devenus aussi nettement plus controversés. C'est ainsi le cas des biocarburants, de la production d’électricité à partir de biomasse — qui reste malgré tout le seul moyen pilotable avec des perspectives d'augmentation de la puissance installée. D'autres se font étriller dans le rapport pour leurs coûts, notamment la géothermie électrique, solaires photovoltaïque et thermique.

L'impression qui se dégage est que ces engagements n'ont pas fait l'objet d'une réflexion très poussée avant d'être pris. Il semble que certains décideurs aient décrété que l'intendance suivrait. Malheureusement, en la matière, il existe quelques contraintes comme la physique, l'inertie créée par la base installée, la capacité financière de l'état ou celle des citoyens. Ces derniers peuvent aussi ne pas faire exactement ce qui est attendu d'eux. On ne peut que constater que ces objectifs sont en partie à l'origine des gaspillages d'argent public dénoncés par la Cour dans son rapport: les objectifs ont été détaillés par filières et incluent des filières particulièrement onéreuses comme le solaire photovoltaïque. Par ailleurs, même pour des filières dont l'intérêt est évident — bois pour le chauffage, pompes à chaleur —, les difficultés sont bien présentes, ce qui montre que les énergies renouvelables ne gagneront que progressivement des parts de marché.

20 août 2013

À propos de l'éolien à 60€/MWh

Le rapport de la Cour des Comptes sur les énergies renouvelables contient un chiffre qui a vocation a être abondamment repris à propos des coûts de l'éolien en France. Le coût minimal mentionné par la Cour est de 60€/MWh. Évidemment, il s'agit d'un minimum, dans le calcul duquel les hypothèses prennent une grande part. On peut donc s'attendre à ce que ce chiffre soit abondamment repris, sans la mention des hypothèses.

La Cour écrit dans son rapport la chose suivante:

La Cour a pu examiner des calculs de rentabilité de parcs éoliens terrestres français réalisés par un exploitant dont les éoliennes bénéficient d'implantations géographiques favorables. L'ordre de grandeur des coûts de production calculés par le Cour se situe entre 60€/MWh avec un taux d'actualisation réel de 5% et 68€/MWh pour un taux d'actualisation réel de 7%.

Comme j'ai réalisé en début d'année quelques calculs pour me rendre compte des coûts d'investissements qu'impliquaient les tarifs de rachat des énergies renouvelables, cette donnée a attiré mon attention et m'a permis d'essayer de reproduire les conditions pour arriver à de tels coûts. Il faut rappeler avant toute chose que les calculs effectués par la Cour des Comptes sont des calculs de valeur actuelle nette. Les principaux paramètres qui ont un impact sur le calcul sont les suivants:

  1. Le coût d'exploitation: pour une éolienne, il s'agit de payer l'entretien de la machine, le comptable, les impôts et tout ce qui peut être nécessaire au fonctionnement d'une entreprise.
  2. Le montant investi dans la machine: on construit généralement un équipement de ce genre pour gagner de l'argent et bien sûr plus on paie cher la machine, plus il faut vendre cher pour rentrer dans ses frais
  3. Le taux d'actualisation qui représente la rémunération du capital investi. Une nouvelle fois, il ne s'agit pas d'une entreprise philanthropique, les investisseurs s'attendent à gagner de l'argent. Il en existe 2 types: les créanciers obligataires et les actionnaires. Les actionnaires ne se voient promettre par contrat aucune rémunération, ils prennent le plus de risques et exigent donc une rémunération supérieure aux créanciers obligataires (comprendre: les banques) qui se voient, eux, promettre un certain rendement à l'avance.
  4. La durée d'amortissement. Plus on amortit sur une longue durée, moins les coûts sont élevés. Toutefois à partir d'une certaine durée — qui dépend du taux d'actualisation — on ne gagne presque plus rien à allonger la durée d'amortissement. Cette durée est aussi liée à la durée de vie de la machine.
  5. La quantité de courant produite. Dans le cas qui nous occupe, la Cour précise que les éoliennes bénéficient d'implantations géographiques favorables, dont on peut retirer que la production de ces éoliennes est notablement supérieure à la moyenne française.

On voit qu'il faut faire quelques hypothèses pour pouvoir commencer à faire un calcul, car tout n'est pas dit dans le rapport de la Cour des Comptes. J'ai donc fait l'hypothèse que les coûts d'exploitation étaient de 15€/MWh, que la durée de vie était de 20 ans. J'ai aussi pris un facteur de charge — le ratio de la production réelle à la production maximale théorique si l'éolienne tournait toujours à fond — de 27%, supérieur aux 23% pris habituellement par RTE comme la moyenne française. Pour obtenir un coût de 60€/MWh pour une actualisation à 5% et 68€/MWh pour une actualisation à 7%, j'arrive à un coût d'installation de 1330€/kW, qui correspond grosso modo à ce qu'on peut attendre d'une éolienne. Si on prend ce même coût d'installation mais qu'on estime que le facteur de charge descend à 23% — la moyenne française, donc — et qu'on prend un taux d'actualisation de 8% — conforme à ce qui a été pris dans le rapport sur le nucléaire —, on trouve un coût de 82€/MWh, le tarif de rachat actuellement en vigueur. Inversement, si on applique un taux d'actualisation de 5% à l'EPR de Flamanville, on trouve que le coût du courant est d'environ 68€/MWh, en prenant en compte les coûts annoncés en décembre dernier par EDF. On peut retrouver ces calculs dans une feuille Google docs.

Qu'en conclure? Tout d'abord, bien sûr, que les hypothèses prises pour faire ces calculs sont d'une importance primordiale. Un taux d'actualisation bas va forcément diminuer drastiquement les coûts, d'autant plus que la durée de vie de l'équipement est longue. C'est pourquoi les coûts de l'EPR de Flamanville ont tendance à plus baisser que ceux des éoliennes … Comme rappelé plus haut, la production d'énergie n'est pas une entreprise philanthropique, ce qui signifie que les investisseurs doivent espérer une certaine rémunération avant de se lancer. EDF peut emprunter à un taux nominal de 4%/an, sans doute le taux minimal que peut espérer une entreprise du secteur. EDF a aussi à peu près autant de capitaux propres — qui reviennent aux actionnaires — que de dettes. Dans ce contexte, un rendement réel de 5% revient à une rémunération du capital de 10%/an, ce qui est considéré comme faible … Pour mémoire, la Cour des Comptes a calculé le coût du programme nucléaire sur la base d'un taux réel de près de 8% soit un rendement du capital de presque 16% pour EDF.

Par ailleurs, la quantité de courant produite joue aussi un rôle primordial. Pour calculer des coûts représentatifs, il vaut mieux se baser sur la production moyenne des installations. Ceux qui ont une implantation géographique favorable auront une production plus élevée, sans pour autant avoir des coûts augmentés d'autant, ils seront donc plus rentables. Même si on compte s'installer d'abord sur ces sites, l'installation d'un grand nombre d’éoliennes obligera à s'installer aussi sur des sites moins favorables.

Enfin, le rapport de la Cour signale que les promoteurs d'éoliennes rencontrent des difficultés à obtenir des permis de construire. Presque 40% sont retoqués à bon droit par l'administration, un tiers des permis délivrés sont ensuite contestés par des particuliers. Cela signale une grande difficulté pour les promoteurs à pouvoir véritablement s'installer sur ces fameux sites favorables. De plus, plus il y aura d'éoliennes, plus on peut craindre que le nombre de recours par des particuliers augmente. Ce genre de difficultés n'est pas forcément pris en compte dans les coûts chiffrés, il n'en est pas moins qu'il renchérit sans doute significativement les coûts réels. Pour preuve, depuis quelques années, le rythme d'installation des éoliennes a baissé, ce qui pointe soit vers des difficultés de financement, soit vers difficultés pour trouver des sites où on peut effectivement construire. A contrario, cela montre que le tarif de rachat de 82€/MWh pour les nouvelles installations n'est pas éloigné de la réalité des coûts comme le suggère une lecture hâtive du rapport de la Cour des Comptes.

19 août 2013

Inventaire de cadavres dans les placards

Jeudi 25 juillet, la Cour des Comptes a publié un rapport sur la politique de développement des énergies renouvelables qui complètent les rapports sur les biocarburants ou la CSPE. Le rapport sur les biocarburants dressait un état des lieux sans concessions de cette politique et invitait à revoir ce système d'aides. Sur la CSPE, pour faire face à la hausse prévisible des sommes prélevées, la Cour recommandait d'élargir l'assiette aux autres énergies que la seule électricité. Ce rapport-ci est plus semblable par son amplitude à celui sur les biocarburants, c'est naturellement que ces derniers sont exclus du périmètre et que les recommandations de la Cour sur la CSPE viennent s'y intégrer. Comme dans tout rapport de ce genre, la Cour fait un certain inventaire des cadavres qui trainent et fait un certain nombre de recommandations pour qu'ils soient dûment inhumés et qu'on ne les revoie plus.

Avant de s'aventurer plus avant, j'ai déjà évoqué à quelques reprises le douloureux problème des subventions aux énergies renouvelables électriques (un exemple) et ma position jusqu'à présent est que le coût des nouvelles installations — généralement élevé — n'est pas justifié par leurs bénéfices dans le contexte français — notamment en termes de baisses d'émissions de CO₂.

Les diverses avanies des différentes énergies renouvelables électriques

Commençons par ce qui pourrait sembler anecdotique: la géothermie dans la production d'électricité (p68). La Cour nous signale qu'un important retard a été pris, notamment dans les DOM-TOM. Il n'aura échappé à personne que nombre de territoires d'outre-mer sont des îles volcaniques, dont certaines comptent toujours un volcan en activité (Réunion, Martinique, Guadeloupe). Pour l'instant, les seules usines en service sont celles de Bouillante en Guadeloupe et celle de Soultz-les-Forêts en Alsace. Elles ne sont pas gérées par un industriel, ce sont des projets de recherche. La Cour note que les coûts ne lui ont pas été communiqués, ce qui n'augure rien de bon. On apprend aussi incidemment que le potentiel de la Réunion est grandement obéré par le classement du volcan au patrimoine mondial.

En ce qui concerne l'hydro-électricité, la Cour remarque simplement une certaine évaporation du potentiel nouvellement installable ces 10 dernières années. En 2006, le potentiel était évalué à presque 30TWh supplémentaires, un peu plus de 5% de la production actuelle d'électricité en France. En 2013, il est redescendu à environ 2TWh. La Cour signale aussi qu'en raison de nouvelles règlementations sur l'eau, la production est désormais attendue en baisse avec les ouvrages actuels (p82).

Sur l'éolien terrestre, la Cour s'en prend surtout à la réglementation. La complexité du droit français freinerait l'installation des éoliennes. Il est par exemple pratiquement impossible de construire un éolienne dans les zones côtières, protégées par la loi littoral. Mais on s'aperçoit surtout qu'elles rencontrent une opposition certaine. Elle provient dans un premier temps des administrations locales: 47% des permis de construire sont refusés par les préfets, dont la décision est invalidée dans un refus sur 5 (p61), ce qui fait qu'au total, il y a un refus définitif dans 2 cas sur 5. C'est aussi le fait de particuliers: 31% des permis de construire sont attaqués, pour un taux de succès faible d'environ 1 sur 5 (p62), mais cette action de contestation suffit à ralentir fortement les constructions … ce qui renchérit les installations.

Quant à l'éolien en mer, la Cour traite cette technique de pari industriel coûteux. Il faut dire que les appels d'offres avaient débouché sur un prix de 228€/MWh. La Cour dénonce d'ailleurs cette procédure d'appel d'offres: l'état a accordé un lot à un consortium se basant sur une turbine d'Areva alors qu'il était plus cher que le concurrent pour permettre l'installation d'une usine au Havre (p66). De plus, le prix maximum cible a été dépassé dans 3 des 4 lots accordés — ce qui fait que la note sur le critère prix a été de 0 dans ce cas (p52). On comprend aussi que la concurrence a été très réduite, car les entreprises n'ont pas eu le temps de réaliser les études nécessaires, sauf une: EDF (réponse de la CRE p221). En creux, on lit aussi une explication du prix: assurer une sécurité financière aux usines à construire et qui seront en fait destinées à alimenter le marché anglais — sans aucune assurance sur son existence réelle (p103). À lui tout seul, cet appel d'offres demandera des subventions annuelles estimées à 1.1G€ une fois les champs mis en service. La cour cite aussi un coût de l'électricité produite compris entre 105 et 164€/MWh avec un faible taux d'actualisation réel de 5%. Les coûts sont donc intrinsèquement élevés.

La biomasse retient aussi l'attention de la Cour. Elle constate encore que les appels d'offres ont été particulièrement peu sélectifs, puisque l'état a parfois retenu l'ensemble des offres (p66). Cela peut s'expliquer par un faible taux de réalisation réel, puisque la CRE l'a estimé à 30% pour les appels d'offres précédents (p52 et p224). La Cour note que les projets de biomasse projettent de recourir significativement aux importations: cela représenterait un quart du total, avec des pointes à 77%. Tout ceci trouve une excellente illustration dans un encadré p67 à propos du projet de centrale biomasse d'E.On France. Ce projet était classé bon dernier par la CRE, mais a quand même été sélectionné par le gouvernement; il importera environ la moitié de son combustible.

L'énergie solaire a droit pour sa part à une volée de bois vert. Tout y est réuni: appels d'offres très peu sélectifs qui trouvent un prix plancher dans l'existence de tarifs de rachat, mauvais suivi du marché des panneaux solaires, prix intrinsèquement élevé. À tel point que, cette année, il est prévue que le solaire photovoltaïque absorbe les 2/3 de la CSPE destinées aux énergies renouvelables électriques. Pour une production 3 fois inférieure à l'éolien, il absorbe presque 4 fois plus de subventions. De plus, la Cour note à la suite de la CRE l'existence d'une fraude massive: dans la réponse de la CRE (p228), on apprend qu'en 2010, 99.7% des installations ont été déclarées comme intégrées au bâti, leur donnant droit à une prime. Comme noté dans cette réponse, les résultats des premiers contrôles aléatoires (...) entraînent de fortes suspicions sur la conformité de ce chiffre avec la réalité. On signale aussi des sous-déclarations de puissance — utiles pour bénéficier là encore d'un meilleur prix — de déclarations à la découpe, etc. Par ailleurs, dans le domaine de la production de chaleur, le solaire thermique emporterait une subvention superlative de plus de 10k€/tep produite soit quelques 20 fois plus que le soutien accordé au bois dans le même contexte (p88).

Que faire?

Les recommandations de la Cour se basent sur les avanies rencontrées par les différentes énergies et les divers processus utilisés. Il est clair qu'il y a des problèmes de méthode qui amènent à renchérir les coûts pour le contribuable. C'est donc naturellement que la Cour recommande qu'il faille choisir entre appels d'offres et tarifs de rachat fixes (p84), que les avis de la CRE soient plus systématiquement suivis, de se limiter aux filières les moins chères, à savoir l'éolien pour l'électricité et la biomasse dans la production de chaleur. La Cour recommande aussi de procéder à plus de contrôles dans les filières comme le photovoltaïque et de mettre fin à la prime d'intégration au bâti. La Cour montre aussi un certain penchant pour un système de primes de marché (p111) et elle recommande aussi de faire porter la CSPE sur l'ensemble des énergies et pas la seule électricité.

Un trait marquant des technologies dont le système d'aide est donné pour défaillant par la Cour est que l'État a voulu faire de la politique industrielle. Si le projet d'E.On a été retenu, c'est sans doute parce que des considérations d'emplois étaient en jeu. E.On a pour projet de fermer la plupart des centrales au charbon construites en leur temps par Charbonnages de France, on se doute qu'un projet de transformation permet d'éviter d'éventuels problèmes sociaux. Le prix élevé de l'éolien en mer est expliqué par la volonté de se placer sur un éventuel marché européen et par la nécessité de construire des moyens de production surdimensionnés par rapport aux besoins français qui en découle. La prime d'intégration au bâti dans le solaire photovoltaïque a été édicté pour favoriser l'industrie locale, censée être positionnée sur des produits à plus forte valeur ajoutée, mais semble avoir été principalement exploitée pour des fraudes ou des hangars agricoles. La sensibilité de l'état à des considérations autres que le rapport coût/bénéfice semblent donc être à l'origine des dérapages les plus voyants; c'est d'ailleurs un problème fort classique des politiques publiques dans tous les domaines.

La Cour dénonce aussi cet état de fait en comparant les diverses technologies. Le système d'aide est d'abord basé sur les coûts de chaque technologie: un prix d'achat est déterminé pour chaque technologie, pas pour la contribution à la réduction des émissions de gaz à effet de serre ou la production pure. Cette façon de faire pose problème lorsque des baisses de prix se produisent, ce qui est espéré, particulièrement pour les moyens de production les plus chers. Évidemment, le solaire photovoltaïque a vu ses coûts plonger depuis des niveaux stratosphériques et a surpris tous les gouvernements européens ou presque. Des bulles basées sur de hauts niveaux de subvention se sont formées entre 2008 et 2012, par exemple, en Espagne, en France, en Allemagne et en Italie. Le solaire photovoltaïque est responsable de l'explosion de la taxe «renouvelables» en Allemagne et pose de graves difficultés au gouvernement espagnol. La Cour remarque aussi que ce type de système est fondamentalement vicié, puisqu'il aboutit à soutenir une filière quelqu'en soit le coût (p115). Elle propose donc logiquement de soutenir d'abord les filières les moins chères, l'éolien pour l'électricité, le bois pour la chaleur. Dans le même cadre, elle propose aussi de passer sur un système de prime de marché (p111), de limiter sévèrement le recours aux appels d'offres qui n'ont pas franchement fait la preuve de leur efficacité dans ce domaine et de se baser sur une valeur dite tutélaire de la tonne de CO₂ évitée — c'est dire une valeur déterminée par décret — pour évaluer les bénéfices. C'est une position proche de celle que j'avais exprimée jadis. La Cour approuve aussi l'idée sous-jacente au système de soutien au solaire photovoltaïque rénové: il s'agit en gros de prévoir des baisses de prix à chaque fois que des seuils de capacité installée sont atteints, ce qui revient à prévoir à l'avance combien on veut dépenser sur une technologie.

Il n'aura pas échappé aux habitués de ce blog que j'approuve globalement les conclusions de la Cour en ce qui concerne les problèmes de la politique de soutien aux énergies renouvelables. Le problème majeur est que les prix payés sont déterminés par technologie et en fonction d'impératifs qui n'ont en fait rien à voir avec l'objectif officiellement proclamé, qu'il s'agisse de la proportion d'énergies renouvelables ou de la réduction des émissions de CO₂. Toutefois, il faut bien remarquer que ce type de politique qui ne tient pas compte des coûts est un classique dans le domaine des politiques publiques, mais que cet aspect est renforcé par l'ambition des objectifs à atteindre ainsi que par la difficulté de l'évaluation des bénéfices.

2 août 2013

MON810, le retour de la vengeance

Comme prévu, l'arrêté pris pendant la campagne électorale de 2012 pour interdire le MON810 a été annulé par le Conseil d'État. Avant même que la nouvelle ait été annoncée, le ministre de l'agriculture, Stéphane Le Foll déclarait: le Conseil d'État n'est pas le décideur, ce n'est pas lui qui dit si on peut ou pas interdire les OGM, il ne s'appuie que sur la base juridique pour dire si elle est valide ou pas. Cette phrase est d'une magnifique casuistique, puisque le Conseil d'État, s'il ne publie aucun texte règlementaire, a bien le pouvoir de décider si une interdiction est valide ou pas. Elle a aussi le mérite d'indiquer la suite des évènements, une nouvelle interdiction est déjà annoncée. On ne peut que remarquer que c'est la deuxième fois que l'État est condamné pour les mêmes raisons et que le gouvernement entend poursuivre la politique qui consiste à s'assoir sur les décisions de justice. Le gouvernement perpètre ainsi et de façon répétée un abus de pouvoir caractérisé.

Le principe de la tactique est connu: espérer que les partisans se fatiguent avant les opposants et finissent par ne plus aller faire respecter leurs droits devant les tribunaux. C'est en bonne voie: des associations d'agriculteurs se disent prêtes à ne plus intenter de recours si un simple débat a lieu sur la possibilité de cultiver d'autres OGMs à venir. Autrement dit, il s'agit de lâcher la proie pour l'ombre. Tout d'abord, il est difficile d'imaginer qu'un autre OGM puisse réussir là où le MON810 n'a pas pu triompher de l'opposition, alors que sa principale utilité était d'éviter, en faisant produire la toxine par la plante, d'avoir à utiliser des produits insecticides potentiellement dangereux en leur substituant une toxine utilisée en agriculture biologique et d'avoir à passer vaporiser ces produits. En effet, le maïs MON810 permet d'arriver au Graal écologiste de ne pas utiliser de produit chimique tout en facilitant la vie de l'agriculteur. On se demande ce qu'on peut espérer de plus. Dans un même ordre d'idées, Greenpeace lutte avec acharnement contre le riz doré, un riz dont les grains contiennent du carotène grâce à l'insertion de gènes de maïs et ne présentant donc strictement aucun danger. Mais même dans l'hypothèse — hautement improbable donc — où les agriculteurs sortiraient vainqueurs de ce débat, ils ne pourraient cultiver ces hypothétiques plantes sans autorisation délivrée par la Commission Européenne. Elle a fait preuve jusqu'à présent d'un empressement tout relatif, puisque seuls 3 OGMs ont jamais été autorisés à la culture. Ce débat sera donc un marché de dupes.

Les écologistes ne font même plus mystère de l'illégalité de l'interdiction. José Bové déclare immédiatement au Figaro que ce qui motive la décision du Conseil d'État, ce sont les règles européennes, qui sont claires. Seuls des arguments scientifiques peuvent interdire l'exploitation d'un OGM. Et de se dire prêt à la violence sous couvert de désobéissance civique. Christian Bataille, membre de l'OPECST, a beau tonner contre les Torquemada et enfin dire les choses comme elles sont, cette politique continuera aussi longtemps que l'opposition aux OGMs restera vivace et peut-être au delà. Les opposants ont réussi — fait sans précédent! — à tuer la recherche publique en France sur le sujet et à bloquer toute autorisation d'OGMs, au point de désespérer le principal promoteur commercial, Monsanto.

Les péripéties et les déclarations du gouvernement montrent aussi qu'en France, on ne peut profiter des libertés individuelles que si elles ne déplaisent pas à la majorité accompagnée d'opposants particulièrement bruyants, ce qui en est la négation même, les libertés individuelles étant surtout utiles quand le grand nombre conteste vos droits. Et c'est sans doute là, le plus grave.

23 juillet 2013

Le rapport Moreau et les pistes de réforme pour les retraites

Il y a un peu plus d'un mois, la commission installée par le gouvernement pour lui présenter des solutions pour rééquilibrer les comptes des caisses de retraites a rendu son rapport, connu pour faire court sous le nom de la présidente de la commission, Yannick Moreau. Le rapport est découpé en 3 parties, la première sur les réformes précédentes, la seconde sur la situation présente des caisses de retraites et leur avenir si on ne fait rien, la troisième faisant des propositions pour essayer de rétablir l'équilibre financier à court et long terme. Si les 2 premières parties peuvent être considérées comme un résumé de l'histoire récente et des rapports du COR, la troisième est originale et probablement appelée à inspirer en partie les décisions du gouvernement sur la question. C'est surtout à cette dernière que je vais m'intéresser ici.

Combler le trou d'ici 2020

Le rapport comporte un tableau résumant les perspectives financières des régimes de retraite (p49). Elles sont sinistres: des déficits annuels compris entre 15 et 20G€ sont prévus d'ici 2020, si rien n'était fait. Les déficits les plus importants sont prévus pour la fonction publique d'état (7G€/an en 2020) et les retraites complémentaires du privé (8.3G€/an avant la réforme de cette année). Le régime général aura un déficit qui se réduira grâce à des excédent du fonds solidarité vieillesse qui finance les minima. En prenant en compte les régimes «alignés», on arrive à un déficit de 4.8G€ avant prise en compte de la conjoncture de cette année. En effet, les prévisions du COR se basaient sur les prévisions du gouvernement de l'automne 2012… La commission estime qu'il faut escompter un déficit de 2G€ supplémentaire et se fixe l'objectif de trouver 7G€ annuels d'ici 2020 (p86). Les régimes complémentaires, quant à eux, ont pris des mesures permettant de combler un peu plus de la moitié du déficit annuel prévu en 2020 avec des hypothèses de croissance qui ne seront pas réalisées. La commission ne propose pas grand chose à leur sujet, ni d'ailleurs, au sujet des retraites alignées sur le régime de la fonction publique. En d'autres termes, les propositions du rapport Moreau ne concernent qu'un (petit) tiers du déficit prévu en 2020. La réforme qui s'annonce sera donc probablement incomplète; les mesures au sujet de la fonction publique qui sont envisagées restent donc mystérieuses; on entendra sans doute de nouveau parler des retraites complémentaires d'ici 2017.

Comment répartir la douloureuse? Le rapport propose 2 répartitions: un tiers pour les retraités, 2 tiers pour les actifs — ou moitié pour les retraités, moitié pour les actifs. La première répartition est justifiée par le poids démographique relatif, la deuxième par la contribution des actifs a constitué l'essentiel de la réponse jusqu'ici et par un marasme économique certain dont les conséquences pèsent d'abord sur les actifs. Le rapport remarque (p100) que les retraites complémentaires ont plus sollicité les retraités que les actifs du moment … mais le rapport n'élabore pas de scénario suivant cette voie.

Côté retraités, il s'agit donc de faire baisser les pensions nettes d'impôts une fois prise en compte l'inflation. Il y a donc des hausses d'impôts qui sont proposées, comme l'amoindrissement du traitement privilégié des retraités vis-à-vis de la CSG, de faire peser l'impôt sur le revenu sur les avantages «familiaux» ou encore de limiter les effets de l'abattement de 10% au titre de l'IRPP. On remarque que c'est l'alignement de la CSG qui rapporterait le plus avec 2G€/an de recettes. L'autre levier est de jouer sur l'indexation des retraites. Elles sont actuellement indexées sur les prix, l'idée est donc de les revaloriser de l'inflation diminuée de 1.2 point pendant 3 ans, au moins pour celles ne relevant pas des minima. Apport en fin de période: 2.8G€/an.

Côté actifs, le rendement des mesures autres que les hausses d'impôts est médiocre. En effet, ces économies ne se font sentir que progressivement, au fur et à mesure que les actifs deviennent des retraités. C'est ainsi qu'augmenter la durée de cotisation de 1.25 année ne rapporterait que 600M€ en 2020, une sous-indexation similaire à celle des retraités 800M€. Le rapport propose ouvertement de fortes hausses d'impôts, via le relèvement de la partie déplafonnée des cotisations retraites de 0.1 point par an. Selon les scénarios proposés, le rendement serait compris entre 3 et 4.2G€/an. Pour comparer, le CICE, instauré par ce gouvernement, est censé représenter 20G€ à partir de 2014. Entre 15 et 20% de cette mesure seraient donc stérilisés en 2017… Cela dit, il faut bien admettre que l'autre mesure à rendement assez rapide, le recul de l'âge légal, a été choisi par le gouvernement Sarkozy pour la dernière réforme. Il ne reste donc guère, comme mesures de trésorerie immédiate, que le relèvement des impôts ou la baisse des pensions.

À la lecture du rapport, on s'aperçoit que la commission favoriserait les mesures de durées de cotisation, malgré leur faible rendement, à cause de leurs effets à long terme et car ce type de mesure est comprise et admise comme un levier naturel (p95). Elle favorise aussi une désindexation des retraites, on lit qu'il s'agit de la seule mesure lisible et aisée de mise en œuvre permettant de limiter l'évolution des dépenses des régimes (p93). Mais tout cela ne suffit pas et on s'achemine ainsi vers une hausse des impôts, que ce soit via l'alignement de la CSG des retraités sur celle des actifs — souhaitable par ailleurs — ou via l'augmentation des taux de cotisation pour les salariés. Un problème connexe qui se posera, sans doute dans un futur proche, est le comblement du déficit de l'assurance maladie, le levier des impôts ayant déjà été actionné un certain nombre de fois ces dernières années.

À plus long terme

À plus long terme, les choses sont relativement claires, la commission écrit dans le rapport les mesures de durée constituent la réponse la plus pertinente pour adapter le système de retraites au progrès social que constitue l'allongement de l'espérance de vie (p105). La commission étudie des scénarios où la durée de cotisation augmenterait à partir de 2020 — on a vu qu'on pourrait commencer avant — pour aller jusqu'à 44 ans suivant divers rythmes. Le scénario où il y a le plus d'économies est bien sûr celui où l'évolution est la plus rapide (1 trimestre par an); ce scénario semble servir de base pour évaluer les autres mesures. Dans ce cas, l'incidence budgétaire totale pour la CNAV serait positive de 8.5G€ annuels, en comptant tant les surplus de cotisations payées par ceux qui restent en activité que les retraites à payer en moins (p108). S'il était acté un tel rythme d'augmentation serait nettement supérieur à celui prévu par la réforme Fillon de 2003 qui rapporte moitié moins. Comme je l'ai déjà signalé, cette augmentation de la durée de cotisation me paraît souhaitable puisque c'est à la fois la mesure la moins douloureuse et celle qui permet non seulement de renflouer les caisses de retraites, mais aussi les autres caisses publiques, comme celles de l'État ou de l'assurance maladie, via un surcroît d'activité.

La commission s'attarde aussi sur les modalités d'indexation des retraites. Quoique pouvant être assez obscur ce paramètre technique est d'une importance fondamentale. Le rapport contient un exemple édifiant: si les salaires progressent de 1.5% en sus de l'inflation, un calcul de retraite se basant sur les 25 dernières années donne une différence de 16% entre un calcul se basant sur une réévaluation suivant l'inflation et une réévaluation suivant les salaires. Actuellement, la pension moyenne vaut 88% du salaire moyen: autant dire que sans le changement d'indexation la pension moyenne serait sans doute supérieure au salaire moyen aujourd'hui — ce changement s'est produit dans les faits à la fin des années 80 avant d'être rendu automatique par la réforme Balladur en 1993. Dans le langage de la commission cela donne: le maintien de la parité des niveaux de vie entre ménages actifs et ménages retraités a été préservé, au lieu de se déformer en faveur des seconds (p115). La lecture des simulations du COR montre aussi que c'est en fait toute la différence entre les scénarios de forte croissance et les scénarios de marasme économique. L'indexation suivant l'inflation fait diminuer le ratio pension/salaire plus rapidement en cas de forte croissance, ce qui permet dans les cas les optimistes de dégager des excédents. Même si la commission s'attarde aussi sur le cas d'une hypothétique forte croissance, on peut dire qu'en fait, l'indexation sur les prix n'a pas assez bien fonctionné pour permettre d'éviter d'avoir à passer par la case des réformes successives.

La commission propose ainsi un moyen de rendre l'équilibre des régimes moins dépendant de la croissance économique de manière à obtenir le ratio pension/salaire souhaité. La proposition est que les retraites, ainsi que les bases servant à les calculer, ne soient réévaluées suivant les salaires moins 1.5%. Un tableau p117 montre toutefois qu'il ne faut pas en attendre de miracles si elle est utilisée seule. Dans le scénario C', le solde ne serait amélioré que de 0.3 point de PIB. Cependant, combiné aux mesures d'allongement de la durée du travail, le déficit serait significativement réduit par rapport aux simulations du COR. Avec ce nouveau mode d'indexation, les gouvernement se faciliteraient donc un peu la vie. Un bémol toutefois: cette indexation ne serait pas automatique, ce qui laissera au gouvernement la possibilité de déséquilibrer le système à long terme. Cette méthode est faite pour permettre de geler — voire baisser — automatiquement les pensions en cas de crise économique, les caisses de retraites souffriraient d'un gouvernement continuant à revaloriser pour préserver le pouvoir d'achat.

Le rapport comprend aussi une mesure plus originale. Il s'agit d'une combinaison entre âge et durée pour permettre de prendre sa retraite: ce qui compterait ce serait désormais la somme de l'âge de la personne et de la durée cotisée. On pourrait ainsi partir — à terme — sans décote si la somme des deux vaut 106 (p141). La commission mentionne toutefois que malgré un allongement de la durée de cotisation plus rapide encore que dans le cas du «simple» allongement de la durée de cotisation, la situation financière serait moins bonne. Le rapport n'explique pas pourquoi, mais je pense qu'on peut le deviner. Contrairement au scénarios d'allongement de la durée de cotisation, où on suppose grosso modo que tout le monde reste au travail plus longtemps pour éliminer la décote, dans un système «âge + durée», certains peuvent partir en allongeant moins leur durée de cotisation que d'autres. Pour dire les choses simplement, dans un système «âge + durée», les années d'études comptent pour une demi-année de travail salarié. La conséquence est que les cadre n'auraient pas besoin d'atteindre les 44 annuités ou l'âge butoir de 67 ans (ou plus si un changement intervient). Prenons 2 exemples:

  • Dans un cas, quelqu'un commence à travailler à 16 ans. Il travaille ensuite continûment. Il pourra partir à la retraite à 61 ans, après 45 ans de travail.
  • Dans un autre cas, le travail commence une fois les études terminées à 23 ans, après un bac +5. Il pourra toucher une retraite sans décote à 64 ans et demi, soit 41 ans et demi de cotisations.

Ces simples exemples montrent que ce système est plus injuste encore que les système actuel, puisque l'allongement de la durée de cotisation s'appliquerait à plein à ceux qui commencent à travailler jeunes, qui sont aussi les plus mal payés et qui ont l'espérance de vie la plus courte. Par contre, les cadres seraient largement épargnés. Si on veut vraiment un système plus juste et plus compréhensible, autant prendre la durée de cotisation comme seul critère quitte à augmenter rapidement l'âge légal éliminant la décote pour le fixer entre 70 et 75 ans pour lui donner le seul statut de filet de sécurité. On l'aura compris, je suis franchement hostile à un système «âge+durée»!

Quelques conclusions

La lecture de ce rapport montre qu'une grande part du rétablissement des comptes de la CNAV se fera par des hausses d'impôts. Qu'on envisage toujours sérieusement de faire porter les coûts principalement aux actifs après une crise économique d'une ampleur majeure me semble inquiétant pour les choix qui devront aussi être faits sur l'assurance maladie. Par contre, à plus long terme, la commission propose clairement que ce soit l'allongement de la durée de cotisation qui domine, ce qui permet en fait de ne faire payer personne au sens propre, tout en permettant d'augmenter toutes les recettes fiscales. Si le gouvernement souhaite faire une réforme allant au-delà de 2020, il devrait donc acter un passage plus ou moins rapide aux 44 années de cotisations. Le parti socialiste devrait donc manger son chapeau après s'être opposé pendant plus de 20 ans à cette mesure évidente. Le gouvernement pourrait éviter ça en évitant de se prononcer sur le futur.

Par contre, l'idée d'un système «âge+durée» me semble clairement dangereuse, d'une part à cause des problèmes de financement, d'autre part parce qu'il perpétue voire fait empirer l'injustice principale du système actuel qui est que ceux qui ont commencé jeunes doivent travailler plus longtemps avant de toucher une retraite à taux plein.

- page 1 de 7