2 mai 2015

Le scénario d'électricité 100% renouvelable de l'ADEME

Médiapart a publié sur son site un pré-rapport d'une étude commandée par l'ADEME sur la faisabilité d'une production d'électricité totalement renouvelable en France. Par la suite, devant cette fuite, l'ADEME n'a guère eu d'autre choix que de publier elle-même ce document provisoire sur son site web. Ce post concerne le contenu de ce document, et il fait suite à celui concernant d'autres scénarios de production électrique 100% renouvelable (ou quasiment).

Comme explique dans le post précédent, le scénario de l'ADEME peut s'appuyer sur des précédents et ne sort pas de nulle part. En fait, pour faire le scénario le plus crédible possible, on peut déduire de ces précédents les choses suivantes:

  1. L'éolien terrestre va constituer la première source d'électricité. La production est répartie tout au long de l'année avec en moyenne un surplus en hiver, ce qui ressemble à la consommation. De plus, c'est aujourd'hui la source renouvelable d'électricité la moins chère aujourd'hui; les baisses de prix à prévoir pour en faire l'acteur dominant peuvent se révéler faibles. La France bénéficie aussi d'une situation relativement favorable du point de vue de l'intermittence avec une forte différenciation entre les régimes de vent au sud (Mistral et Tramontane) et au nord (vents d'Ouest venant de l'Atlantique). En supposant une amélioration de la technologie, le facteur de charge — la quantité produite rapporté au maximum possible — augmente à conditions météorologiques constantes, ce qui limite les besoins de stockage ou de lignes THT.
  2. Comme l'éolien ne suffit pas à lui tout seul, il faut lui adjoindre une autre source: en général, le photovoltaïque est indiqué car on peut en installer un peu partout, sur les toits dans le pire des cas. Comme une baisse des prix importante s'est produite ces dernières années, il suffit de prolonger la tendance pour obtenir des prix bas. Cependant, le photovoltaïque et l'énergie solaire en général présentent 2 gros défauts: la production est concentrée l'été et en milieu de journée ce qui provoque des pics de production.
  3. En conséquence, il va falloir mobiliser de la demande mobile au cours de la journée ou de la semaine. En invoquant un mix de smart grid, de chauffage électrique et de voitures électriques, comme dans le scénario du Fraunhofer Institut, c'est réalisable. Il faut cependant rester à des puissances déplaçables raisonnables sous peine de paraître peu crédible.
  4. Pour compléter la gestion dynamique de la demande, il faudra du stockage. En effet, il est impossible de s'affranchir totalement de l'intermittence rien qu'avec le solaire et l'éolien: pour passer les périodes sans vent ni soleil, il faudrait construire énormément plus de capacités de production que l'énergie totale consommée ne le nécessite. Il faut aussi limiter cette composante, car cela coûte cher, tant en production qu'en argent. De ce côté, la France présente un atout avec ses lacs de barrage qui permettent de limiter cet appel au stockage.
  5. Construire des lignes THT et se reposer sur le commerce international est aussi utile: c'est une façon relativement économique d'éponger les surplus et de remplir les creux. Une nouvelle fois, une minimisation des besoins est importante, non pas tant à cause des coûts que de l'opposition générale que la construction de ces lignes suscite
  6. Enfin, évidemment, il faut que les coûts des technologies favorisées soient présentés comme plutôt faibles, sinon le scénario ne semblerait pas très intéressant.

Le scénario de référence

Pour sélectionner la répartition entre technologies ainsi que la répartition spatiale des installations, un logiciel d'optimisation est utilisé pour minimiser les coûts totaux avec en entrée les coûts de chaque technologie par région ainsi que les coûts des lignes THT à installer. Les puissances à installer sont calculées région par région, les réseau THT est optimisé en minimisant les liens entre régions. Les conditions aux bornes sont que la situation commerciale de la France est neutre — autant d'imports que d'exports sur l'année — avec une capacité d'import-export fixée à l'avance au niveau actuel, que le stockage est équilibré sur l'année — autant d'entrées que de sorties — et que la consommation totale annuelle est de 422TWh.

Pour couvrir cela dans le scénario de référence, environ 106GW d'éolien et 63GW de solaire PV sont installés pour compléter les installations hydro-électriques déjà présentes aujourd'hui, 3 GW de bois ainsi que diverses technologies plus ou moins obligatoires à présenter (solaire à concentration, géothermie, ordures ménagères …) mais qui n'ont aucun impact substantiel sur le résultat de la simulation. Le réseau THT modélisé a une capacité de 68GW, une augmentation a priori raisonnable de 30% par rapport à ce qui serait nécessaire aujourd'hui selon le même modèle. Le stockage est représenté par les 7GW de stations de pompage — plus ou moins ce qui existe déjà en France —, 12GW nouveaux de stockage court terme ainsi que 17GW de stockage long terme sous forme de méthane pour servir l'hiver. On peut voir la répartition complète pour les moyens de production «primaires» ci-dessous, ainsi que la répartition de la production qui en découle. mix_install_reference.jpg mix_prod_reference.jpg

Comme on peut le voir, l'éolien sous ses diverses formes représente l'essentiel de la production primaire avec environ les 2/3 du total, l'éolien terrestre en assurant plus de la moitié à lui seul. Le solaire PV et l'hydraulique se partagent quasiment le reste à part presque égales avec une petite place pour les autres technologies. L'importance de l'hydraulique permet à ce scénario de partir sur des bases plus sympathiques que ceux étudiant l'Allemagne: avec les autres technologies renouvelables plus ou moins pilotables ou fonctionnant de façon continue, presque 25% de la demande est couverte. L'importance du stockage n'apparaît pas sur ces graphes — dommage! Mais la façon de le gérer est la principale innovation, me semble-t-il, de cette étude et ce qui permet de la rendre réaliste. En effet, les études passées en revue dans le post précédent achoppent sur deux points: s'il n'y a qu'un seul moyen de stockage adaptable, la puissance installée augmente fortement pour aller chercher l'ensemble du surplus dans les heures de forte production intermittente. En conséquence, le facteur de charge finit par baisser de façon dramatique ce qui fait exploser les coûts: une bonne partie des installations est de fait à l'arrêt toute l'année ou presque. Si on ne met pas de stockage, on doit alors utiliser du réseau à foison, ce qui finit par devenir irréaliste à cause de l'impopularité des lignes THT.

Le stockage est réparti en 3 classes: le court terme, le moyen terme (pompage) et le long terme (méthane). Un des points les plus importants est que le stockage de long terme coûte plus cher que les autres et il faut absolument en minimiser la puissance installée. De même pour les autres, même s'ils sont modélisés avec un coût nettement plus faible, les faire tourner le plus possible minimise les coûts totaux. Pour minimiser la puissance installée de l'entrée et de la sortie en stockage de long terme, l'étude autorise largement le recours aux transvasements entre stockages ainsi que le recours aux importations, même pour le remplissage (cf par exemple les figures 53 et 54 p44). On peut dire que c'est un succès: le facteur de charge de la transformation électricité vers gaz est d'environ 40% avec des mois où elle tourne en permanence comme le mois de juin (cf figure 72 p67) et pour le mois de février, c'est la sortie qui fonctionne à plein régime tout le mois. La flexibilité du stockage associé à son coût raisonnable est à mon avis ce qui explique, avec la proximité des coûts des technologies utilisées, le tir groupé sur les coûts qu'on constate dans l'étude. Cette façon de gérer le stockage permet aussi de limiter la gestion de la demande à une dizaine de GW. Associé aux 30GW de stockage, ça permet d'absorber l'ensemble des à-coups tout en restant dans une zone qui semble à peu près réaliste: c'est la première étude 100% renouvelable que je lis qui entre dans cette catégorie.

Le scénario de référence est complété par des variantes ou des concurrents:

  1. Un scénario où la demande est plus forte: 510 TWh contre 422TWh. C'est le 3e pire cas au niveau des coûts à cause de l'usage de certaines des technologies les plus chères qui sont écartées de ce fait du scénario de référence. Mais on reste à 5% du coût au MWh du scénario de référence, contrairement à ce que disent les titres (cf plus bas).
  2. Un scénario où il y a moins d'hydroélectricté disponible. En conséquence, c'est plus cher car il faut à la fois installer des moyens de production supplémentaires, accompagnés d'un peu de stockage et de réseau. Le MWh est 3% plus cher que dans le scénario de référence.
  3. Un scénario où les énergies marines sont nettement moins chères. Surprise: le coût au MWh est moins élevé en conséquence (-5%). Ça permet de constater que quand les prix baissent, on paie moins cher. C'est un scénario qui pourra laisser un peu d'espoir aux partisans de ces énergies, dont les perspectives sont pratiquement inexistantes si elles restent aussi chères et que le stockage baisse ses prix comme prévu par le scénario de référence.
  4. Un scénario où le coût des lignes THT est doublé. C'est le pire cas au niveau des coûts au MWh (+8%)! Ça s'explique par le fait que la simulation se met à installer des moyens de production chers et à renforcer le stockage. Combiné au dernier scénario, ça montre que le NIMBY est potentiellement très toxique pour les énergies renouvelables électriques (cf plus bas).
  5. Un scénario où on accepte 5% d'électricité non-EnR fabriquée en France et un autre où on en accepte 20%. Ces scénarios permettent de s'apercevoir que le stockage, même avec les hypothèses les plus optimistes ne fait pas vraiment le poids face aux combustibles fossiles, même frappés par un prix du carbone de 100€/tonne. Le scénario avec 80% d'EnR est le moins cher à coût du capital constant (-6%). Le stockage de long terme disparaît totalement au profit des turbines à gaz: c'est peut-être la meilleure preuve qu'il est très difficile de se débarrasser des combustibles fossiles. Les combustibles fossiles remplissent actuellement la fonction qui est dévolue au stockage de long terme, puisque le stockage d'énergie est juste une sorte de tas avec des choses à brûler quand on besoin d'énergie
  6. Un scénario avec 40% d'EnR où le nucléaire apparaît en force. Arrive à rester moins cher malgré le prix du nucléaire dans la fourchette haute des énergies: le stockage est quasi-totalement éliminé à part le pompage, le réseau est fortement diminué, ce qui compense le coût du nucléaire.
  7. Un scénario sans solaire PV. C'est un des plus chers (presqu'autant que le scénario haute consommation), car il faut recourir aux énergies marines — les plus chères de l'étude — et augmenter les capacités de stockage. Cette variante montre le côté relativement complémentaire du PV avec l'éolien.
  8. Un scénario sans éolien avec de grands rotors. Un peu plus cher (+2%), il suffit juste de jouer à la marge sur le PV, le réseau et le stockage. Cette variante montre à mon sens — même s'il est difficile d'en être sûr vue qu'elle n'est pas très détaillée — que la flexibilité du stockage permet d'amortir le profil plus intermittent.
  9. Un scénario avec un taux d'actualisation de 2%, extraordinairement faible. Sans surprise, c'est le moins dispendieux des scénarios: quand des moyens de production à coûts fixes sont financés presque gratuitement, c'est forcément moins cher!
  10. Un scénario où l'éolien terrestre est plafonné à 47GW environ, soit 2 fois moins que l'optimum de la simulation, et le PV de grandes dimensions à 24GW, une baisse d'un tiers. C'est le 2e scénario le plus cher (+7%) car ce sont les moyens de production les moins chers de l'étude. Il faut recourir aux énergies marines pour combler le manque. Dans ce scénario, le NIMBY est un gros problème pour tout le monde, y compris pour bâtir le réseau (cf variante 4.) d'où sa forte toxicité potentielle.

Les problèmes du document

Le premier problème de ce document, c'est qu'il n'est pas fini. Outre qu'il n'y a pas de résumé et qu'on peut facilement noter la présence de coquilles et de phrases bizarres, cela donne sans doute lieu à un contre-sens. Une des conclusions du rapport est que la maîtrise de la demande est un élément clé pour limiter le coût (titre p84) mais que les contraintes d'acceptabilité liées au réseau ne sont pas un obstacle (titre p86) ou encore que de fortes contraintes d’acceptabilité sociale sont compatibles avec un mix 100% renouvelable (titre p81). Ces phrases sont assez attendues dans un rapport de ce type, qui est après tout souvent commandé pour montrer la faisabilité du scénario étudié et relayer ce que pense le commanditaire. Mais en fait, la figure 77 (p71, oui, il faut suivre) qui sert de base à la publicité pour la maîtrise de la demande est fausse: le MWh ne coûte pas 151€ dans le cas de la haute consommation mais 125€ comme indiqué p112 dans le dernier tableau ainsi que dans la discussion p85. La différence est due au fait que sur la figure 71, le coût total est divisé par une consommation fixe de 422TWh et non par la consommation de la variante… D'ailleurs si on lit le dernier tableau pour les coûts totaux — qui paraît coller avec les hypothèses, lui — on voit que toutes les variantes, sauf une, se tiennent dans ±8% du scénario de référence. L'exception est le cas où le coût du capital est de 2%. On peut trouver la répartition des coûts pour certains scénarios sur le graphe ci-dessous: cout_MWh3_annote.jpg

Que l'augmentation de la consommation ne soit pas un gros problème découle en fait des hypothèses prises. Régulièrement des études sur le potentiel des énergies renouvelables trouvent qu'il y a potentiellement assez d'énergie à capter pour couvrir les besoins de consommation de n'importe quel pays développé. Donc tant que les gisements d'énergie peu chères ne sont pas épuisés, l'augmentation du volume d'énergie produite n'est pas un problème de coûts. C'est donc naturellement que dans le scénario à forte consommation, où les énergies chères sont peu utilisées, que le coût de production de l'électricité «primaire» augmente dans des proportions raisonnables (+6%). D'ailleurs, il est important de remarquer que la contradiction dans le discours plaidant à la fois pour de fortes économies d'énergie et assurant que les énergies renouvelables vont devenir peu chères très bientôt: les économies d'énergies ne sont nécessaires que si toutes les sources d'énergies sont chères dans le cas contraire, elles ne servent que comme une sorte d'assurance contre une forte hausse des prix. gisements_utilises.png Par contre, ce qui pourrait se produire, c'est une forte hausse des besoins de stockage et de renforcement du réseau. On note effectivement une augmentation du coût du stockage dans le scénario à haute consommation … mais la modélisation du réseau, qui inclut des frais fixes, a pour conséquence que le scénario à haute consommation a les coûts de réseau par MWh consommé les plus bas! Les deux se compensent à peu près et on touche là à une des limites de la simulation.

En effet, le modèle suppose que le coût du réseau de distribution jusqu'aux lignes haute tension de 63 et 90kV est supposé fixe (p69). Or, plus il y a de moyens de production décentralisés, comme l'éolien ou le solaire PV, plus il faut renforcer le réseau, de la basse tension aux lignes haute tension, et non seulement les lignes THT pour le transport à grande distance. En effet, le solaire PV sur toiture est branché sur le réseau de distribution mais la puissance produite dépasse facilement la puissance couramment consommée pour une habitation, les grandes centrales solaires et l'éolien sont souvent connectés au réseau haute tension. L'étude ignore donc ce poste de coûts, pour être réellement représentatif, il aurait sans doute ajouter un petit quelque chose. C'est en tout cas ce que laisse penser un document de la Dena allemande dont on peut simplement extraire un graphe, en se rappelant que le réseau basse tension est tout de même moins cher au km que les lignes THT: expansion_reseau_allemand.jpg

Quant aux prix, il est important de se rappeler que ce sont les hypothèses de départ et non les conclusions de l'étude: en d'autres termes, le mix final et les coûts donnés à la fin dépendent directement de ces paramètres. Or, il s'avère que les projections à long terme sont dans le domaine de l'énergie le plus souvent fausses; il n'est qu'à voir la qualité des prévisions en ce qui concerne le prix du pétrole. Les hypothèses prises sont résumées par les figures suivantes: prix_sources_enr.jpg prix_stockage.jpg Il est aussi important de connaître le taux d'actualisation pris pour estimer ces coûts: 5.25%. Malheureusement, pour des installations de production, le taux le plus souvent choisi est 8%, en sus de l'inflation. C'est par exemple le taux pris par la Cour des Comptes et EDF pour évaluer les coûts du nucléaire actuel. Avec un taux aussi bas, et en prenant pour base une note du Syndicat des Énergies Renouvelables, on trouve qu'actuellement avec un taux de 5.25%, l'éolien devrait coûter aux alentours de 60€/MWh… La note du Syndicat des Énergies Renouvelables, venant en réponse à un rapport de la CRE trouvant en substance que les rentabilités étaient trop élevées, malgré un rythme d'installation atone, montre que peu sont prêts à investir avec une rentabilité aussi faible. D'un autre côté on voit des technologies fort chères ou quasiment inexistantes baisser radicalement leurs prix. C'est ainsi le cas de sources comme la biomasse ou l'éolien en mer. L'éolien en mer a fait l'objet d'appel d'offres et le prix est ressorti à environ 200€/MWh (sans compter l'indexation) par deux fois. De même les technologies de stockage sont actuellement quasi inexistantes, une seule existe vraiment: les stations de pompage. Dans ce cadre, la technologie de conversion par électrolyse semble se voir attribuer une baisse de prix d'un facteur 4 par rapport à ce qui attendu pour une construction aujourd'hui. Quant au stockage de court terme, il s'agit selon les propres termes du rapport d'une méta-technologie. Pour le dire simplement, il s'agit donc bien là d'hypothèses, qui servent de point de départ à la simulation: en déduire qu'un système 100% renouvelable serait bon marché est une erreur de logique, le système est à un prix raisonnable si ces hypothèses se vérifient.

Le nucléaire se voit attribuer un prix de 80€/MWh pour un facteur de charge de 80%. Avec l'utilisation réelle, le prix ressort d'ailleurs plutôt à 85€/MWh soit environ 30% de plus que l'éolien terrestre dans le modèle. Ce prix correspond grosso modo au prix de Flammanville 3 avant les derniers retards annoncés, soit 9.5G€, avec le taux d'actualisation annoncé (5.25%). La simulation avec peu d'énergie renouvelables est aussi désavantagée par divers facteurs: par exemple, il y a une limite basse pour l'installation de solaire PV sur toiture, une technologie chère dans le modèle, qu'on peut remplacer par l'alternative similaire des grandes centrales PV. Ça coûte environ 400M€ annuels avec les hypothèses du modèle, soit 1€/MWh. Ça peut sembler dérisoire, mais dans une simulation où tous les scénarios se tiennent dans quelques pourcents, ça a son importance. Mais un scénario avec 55% de nucléaire reste alors compétitif malgré le surcoût et les hypothèses de prix enthousiastes pour le stockage. Enfin, il est remarquable que le scénario le moins cher soit celui où les combustibles fossiles produisent quasiment autant qu'en 2012 … les émissions ne baissent que grâce à la fin du charbon et du fioul dans la production d'électricité. C'est la preuve s'il en fallait une qu'il sera difficile de se débarrasser des combustibles fossiles.

Quelques conclusions

Cette étude est la plus réaliste des diverses études modélisant une production d'électricité 100% renouvelable que j'aie lue. Grâce aux installations hydrauliques déjà présentes aujourd'hui et la gestion du stockage — innovante me semble-t-il — la puissance d'entrée des moyens de stockage reste limitée, de même que l'utilisation de la gestion active de la demande. La somme des deux ne dépasse pas 40GW, ordre de grandeur de la puissance moyenne consommée. On reste dans un domaine raisonnable, contrairement par exemple à l'étude du Fraunhofer Institut, où la somme des deux atteignait parfois 100GW, à peu près 2 fois la puissance moyenne consommée. Même si tout n'est pas parfait, cette étude permet de déterminer quels sont les éléments de succès ou de d'échec d'une production nationale d'électricité basée entièrement sur les énergies renouvelables. Il faut donc de l'éolien et du solaire PV abordable, une capacité d'importation intacte, du stockage peu cher et découpé en catégories d'utilisation (court terme, semaine, long terme), de la demande gérable à distance, typiquement basée sur le chauffage électrique. Les facteurs d'échec sont, à part la non-réalisation des facteurs de succès, le développement d'une réaction de NIMBY qui empêcherait la construction de nombreuses éoliennes et de lignes THT.

Comme les capacités à prévoir les inventions et les prix dans le futur sont très limitées, la question à laquelle répond cette étude est en fait: «que faut-il changer pour que la production d'électricité en France se fasse totalement à partir d'énergies renouvelables?». La réponse est donc que l'éolien terrestre doit baisser ses prix de 25%, l'éolien en mer d'un facteur 3 environ, le solaire PV d'un facteur 2, et surtout des technologies de stockage doivent apparaître et devenir compétitives. On doit aussi interdire quasiment les combustibles fossiles, faute de quoi leur utilisation ne serait pas très différente d'aujourd'hui. En outre, une gestion dynamique de la demande doit être mise en place, en grande partie basée sur le chauffage électrique — qu'on ne doit donc pas décourager — et pour le reste sur les voitures électriques — qui doivent encore se tailler une part de marché significative. Enfin, aucun mouvement de NIMBY ne doit apparaître.

Il n'est pas certain que tous ces points puissent se réaliser aisément tous en même temps: pour prendre un exemple, parmi les supporters des éoliennes, on ne trouve pas spécialement de supporters du chauffage électrique ou des lignes à haute tension. Dans un autre genre, la Cour des Comptes avait constaté que 40% des permis de construire d'éoliennes étaient retoqués par l'administration et sur ceux qui passaient ce filtre, un tiers était attaqué par des personnes privées. Au Royaume-Uni, les éoliennes sont suffisamment impopulaires pour que le parti conservateur compte en son sein de nombreux opposants à leur déploiement dans ses rangs, et cette opposition sert de justification au développement de l'éolien en mer pour lequel, d'ailleurs, l'opposition populaire aux éoliennes terrestre est en ce moment à peu près la seule justification.

Pour finir, il reste à répondre la question «Que faire à la vue de cette étude?». La réponse est en fait «pas grand-chose!». Si chercher à faire que les prix des énergies renouvelables baisse ne veut pas dire en installer massivement. En effet, elles sont aujourd'hui nettement plus chères que les alternatives. Par exemple, la position de départ de d'EDF avant négociation est de demander 55€/MWh pour l'électricité nucléaire venant d'un parc rénové, bien moins cher que ce qui est présenté dans l'étude. En conséquence, d'ici 2035, il n'y a pas besoin de changer grand-chose. De plus, certains tarifs de rachat pour les énergie renouvelables restent très élevés et produiront des effets jusque dans les années 2040, comme par exemple ceux de l'éolien en mer. Dans ce cadre, procéder à un déploiement massif dès aujourd’hui serait se faire mal tout de suite pour espérer que ça aille à peu près bien dans une trentaine d'années!

1 mai 2015

Scénarios d'électricité 100% renouvelable: quelques exemples internationaux

L'ADEME fait réaliser actuellement une étude de modélisation sur la faisabilité d'un système électrique français où la totalité de la production proviendrait d'énergies renouvelables. Une version du document résumant les conclusions de la modélisation a été publiée par Médiapart; c'est clairement une version de travail, puisqu'il n'y a pas de résumé au début du document. Cette publication du document non fini par la presse a amené l'ADEME à le publier à son tour sur son propre site. Avant de se tourner vers les résultats du scénario de l'ADEME, il peut être utile de regarder ce qu'ont donné d'autres modélisations ailleurs dans le monde car ce scénario de l'ADEME ne sort pas de nulle part.

PJM et l'Université du Delaware

PJM Interconnection est le nom d'une entreprise américaine gérant le réseau d'une partie des USA, sa zone de gestion originelle comprenait la Pennsylvanie, le New Jersey et le Maryland, d'où son nom. Au début des années 2000, elle a absorbé des réseaux électriques voisins pour s'agrandir considérablement: le réseau géré aujourd'hui comprend en sus des zones de départ la ville de Chicago, l'Ohio, les 2 Virginies, ainsi que des parties du Kentucky, de l'Illinois, du Michigan et de la Caroline du Nord. Dans son rapport annuel 2013, l’entreprise dit avoir transporté un peu moins de 794TWh annuels, avoir un pic de demande à 165GW et desservir 61M de personnes. Pour résumer, une population légèrement inférieure à celle de la France est desservie avec une consommation annuelle et un pic de puissance supérieurs de 60%.

Un papier de chercheurs de l'Université du Delaware, dont il a été question fin 2012, prétend montrer que les énergies renouvelables peuvent couvrir l'essentiel de la consommation à un coût comparable ou inférieur à celui des technologies classiques, un but finalement très proche de l'étude de l'ADEME. Les 100% d'énergie renouvelable ne sont pas atteints, mais c'est tout comme, puisqu'un scénario avec 99.9% de la consommation d'électricité couverte par les énergies renouvelables. Ce papier souffre cependant de tares certaines.

La première est celle du périmètre. La consommation prise en compte est celle de PJM entre 1999 et 2002: 31.5 GW moyens sur l'année soit à peu près 275TWh. Comme expliqué plus haut, PJM a sur son aire actuelle une consommation de l'ordre de 800TWh: la consommation prévue est 3 fois inférieure à la consommation réelle. Ce ne serait pas grave si l'aire prévue pour installer les moyens de production renouvelables était aussi réduite à l'aire ancienne de PJM mais la Figure 2 montre que les données météo utilisées couvrent toute l'aire actuelle. De fait, une division par 3 de la consommation est prévue par ce papier, sans le dire, bien sûr.

La deuxième est la surévaluation de la production à puissance installée donnée. Les puissances installées et les productions sont donnés dans le tableau n°3. On constate que dans le scénario 99.9% renouvelables, il y a 124GW d'éolien terrestre et une production moyenne de 50.3GW, soit un facteur de charge de 40%. Si on croise les données d'installations en service en Pennsylvanie avec la production constatée, on trouve qu'il est plutôt de l'ordre de 30%. De fait, à peu près toutes les études «100% renouvelables» supposent une augmentation importante du facteur de charge de l'éolien, en faisant l'hypothèse que les éoliennes de grande taille s'imposeront (et auront bien les performances attendues).

La troisième, c'est l'importance de la production jetée. La production moyenne annuelle est de 91.5GW (soit environ 800TWh) pour une consommation de 31.5GW: les 2/3 de ce qui est produit est jeté. La raison est que dans leur modèle, le stockage est cher et il vaut alors mieux construire en de multiples exemplaires que d'installer des capacités de stockage — qui sont tout de même présentes avec des véhicules électriques qui servent de réserve. En conséquence, il est assez difficile de croire que le mix choisi est moins cher que la situation actuelle comme le clament les auteurs. Ils arrivent à cette conclusion en faisant plus que tripler le prix réel payé aux producteurs avec les externalités qui ne sont pas incluses dans le prix actuel, comme les émissions de CO₂. Mais même ainsi, ça semble très difficile et reposer sur des hypothèses très optimistes de réduction des coûts. Actuellement, les coûts des énergies renouvelables font l'hypothèse que la totalité de la production est consommée et rémunérée. Si seuls 1/3 étaient véritablement utilisés et payés, les producteurs d'énergie éolienne réclameraient 3 fois plus pour couvrir leurs frais. Ainsi, la baisse des prix attendue devrait couvrir aussi les coûts de cette énergie jetée: la baisse des prix attendue est donc très forte et les consommateurs paieraient aussi nettement plus.

Energieziel 2050 d'une équipe du Fraunhofer Institut

En 2010, une équipe du Fraunhofer Institut (IWES) a publié une étude, commandée par le gouvernement allemand, sur un scénario 100% renouvelables (résumé en anglais). La totalité de l'énergie consommée en Allemagne, et non seulement l'électricité, devait provenir de sources renouvelables. Une partie du scénario était déjà écrite, puisque les besoins en énergie étaient déterminée à partir d'une étude du WWF. La caractéristique de ce modèle est que l'utilisation de combustibles en dehors des transports — provenant exclusivement de biomasse — est restreinte à moins de 400TWh, contre plus de 1300TWh actuellement, soit une réduction par un facteur supérieur à 3 (p23-24). L'électricité remplit certains besoins pratiquement exclusivement remplis par des combustibles en Allemagne, comme le chauffage des habitations. C'est accompagné de réductions de consommation extraordinaires dans ces domaines: ainsi, pour le chauffage et l'eau chaude, un gain d'un facteur supérieur à 15 est prévu, ce qui est, disons, très ambitieux. Au final, la consommation d'électricité n'est réduite que de 7% en passant d'un peu plus de 500TWh à un peu moins de 470TWh.

La stratégie adoptée dans ce scénario est de se reposer sur un petit socle d'hydraulique et de géothermie, puis d'utiliser massivement de l'éolien et du solaire photovoltaïque. Comme ce sont des sources intermittentes, les «trous» sont bouchés, dans l'ordre d'appel, par la biomasse en cogénération, les importations puis par le déstockage et enfin des centrales à (bio)gaz sans cogénération. Les surplus de solaire et d'éolien sont stockés sous forme de chaleur, dans des batteries — via la gestion de la demande — ou d'hydrogène — via des électrolyseurs avec une alternative où du méthane est stocké. Une utilisation massive de la gestion de la demande est faite, en la déplaçant dans le temps, à relativement court terme pour la plupart, même si une partie de la charge des véhicules électriques est retardée de 5 jours au maximum.

La modèle repose donc notamment sur l'installation de 60GW d'éolien terrestre, 45 GW en mer et de 120 GW de photovoltaïque. 44GW d'électrolyseurs sont utilisés pour éponger les surplus, pour être brûlés dans 28GW de centrales au gaz à cycle combiné. Quant à la demande pilotée, elle peut passer de 0 à plus de 50GW en environ 12h, ce qui n'est pas rien quand on sait que la consommation totale de 470TWh équivaut à une puissance moyenne d'environ 54GW. Les auteurs obtiennent la production globale décrite dans la figure ci-dessous (p98), dans le cas du stockage de l'hydrogène (le cas du méthane est identique à ceci près que 7TWh de pertes de conversion supplémentaires sont contrebalancés par autant d'imports): IWES_H2_prod.jpg

On constate que, comme pour le papier de l'Université du Delaware, le facteur de charge de l'éolien terrestre a été boosté par rapport à l'existant: il atteint 32% pour un facteur de charge constaté qui a rarement dépassé les 20% jusqu'à présent.

Pour ce qui est de la modulation de la demande et de la vitesse de démarrage des électrolyseurs, on peut se rendre compte de ce que ça donne en été en regardant le graphe ci-dessous (p86): il ne faut pas se rater! La courbe de demande totale, le trait plein rouge décolle de la demande incompressible (pointillés) de 50GW en moins de 12h. Les électrolyseurs sont parfois sollicités pour leurs 44GW dans un laps de temps encore plus réduit. On constate aussi qu'il n'y a pas de charge pour les véhicules électriques la nuit: tout se passe de jour. Pour donner deux éléments de comparaison, la différence entre la consommation à 6h du matin et 9h du matin en juin en France est de 12GW, le pic record de consommation de 102GW de 2012 avait une hauteur d'environ 10GW comparé aux heures avoisinantes: les auteurs demandent là au réseau de supporter une pente de consommation à peu près double d'aujourd'hui pendant une durée nettement plus longue. IWES_profil_ete.jpg

Côté stockage, les électrolyseurs nécessaires n'existent pas aujourd'hui. D'abord parce que la production d'hydrogène se fait essentiellement à partir de combustibles fossiles aujourd'hui, mais aussi parce que les électrolyseurs actuels sont plutôt faits pour fonctionner en permanence. Or, on leur demande dans ce scénario d'être disponibles toute l'année mais de ne tourner que l'équivalent de 25% du temps. C'est sans doute possible, mais le fait que les électrolyseurs soient aussi peu répandus aujourd'hui pointent vers un coût certain, voire de réelles difficultés techniques. Ce scénario souffre aussi de la présence de sources «magiques», comme la géothermie ou les imports d'énergie renouvelable. La géothermie est aujourd'hui réservée à des situations géologiques spéciales comme celles de l'Islande ou de la Californie dont il ne semble pas que l'Allemagne se rapproche. Ailleurs les coûts semblent très élevés et le potentiel finalement faible. Mais pourtant c'est une source qui produit dans ce scénario 10% du nécessaire à puissance constante. De même, le profil des importations fait plutôt penser à des centrales thermiques classiques (à combustibles fossiles) qu'à des productions renouvelables.

le SRU et les chemins vers l'électrique 100% renouvelable

Le SRU — littéralement le Conseil des Experts sur les Questions Environnementales — est une émanation du gouvernement allemand, établi comme son nom l'indique pour le conseiller sur les politiques environnementales. En 2011, il a publié un document dont le but est de montrer comment bâtir un système électrique 100% renouvelable (version en allemand). Plusieurs scénarios sont évoqués: l'un qui repose sur une autosuffisance totale de l'Allemagne, sans échanges avec les voisins; un deuxième fait l'hypothèse que 15% des besoins allemands peuvent provenir de Norvège, un dernier repose sur un réseau incluant l'Europe et l'Afrique du Nord, similaire au défunt Desertec.

Ce scénario prévoit des installations étudiées selon des considérations de coûts. Seulement, dans des projections à long terme, les prix sont toujours sujet à caution. Ils le sont particulièrement dans ces scénarios où l'éolien en mer devient moins cher que le terrestre en 2050. Comme on peut le constater sur le graphe de la p77, quelqu'un a peut-être un peu abusé de la fonction exponentielle. En effet, pour l'éolien terrestre devienne plus cher que le marin, il faut que le surplus de production marine compense les surcoûts importants de construction en mer, de déplacement pour entretien, etc. Franchement, ça ne paraît absolument pas crédible. SRU_prices.jpg

Avec un éolien en mer à 42€/MWh, celui-ci figure en bonne place dans tous les scénarios, avec 73GW installés qui produisent 317TWh. À partir de là, il est possible de construire des scénarios où les renouvelables produisent 700TWh annuels à un prix de 115€/MWh quand il n'y a pas d'échange (cf Table 3-5 p98). Mais il existe un moyen de réduire encore les coûts: accepter qu'il y ait des échanges internationaux. Le rapport va même jusqu'à affirmer que à propos d'échanges entre l'Allemagne (p95-96):

A simple model for such cooperation is an energy supply network comprising Germany, Denmark, and Norway (or Sweden), whose interchange and reciprocal dependency even the most hardened skeptics would have to admit will entail little or no risk in terms of ensuring a reliable electricity supply.

Des esprits forts pourraient se dire que tout dépend des quantités à échanger voir à importer. Avec 500TWh, les 15% représentent 75TWh; quand la consommation est de 700TWh, ça représente 105TWh. À titre de comparaison, les exportations (nettes) françaises en 2014 — une excellente année de ce point de vue — représentent 65TWh: avec de tels volumes, l'Allemagne deviendrait le premier importateur mondial d'électricité. Accessoirement, la production électrique norvégienne de 2012 était d'un peu moins de 150TWh: ces importations représenteraient entre la moitié et les 2/3 de la production actuelle de la Norvège, source de ces importations! Il est possible que les Norvégiens ne voient pas forcément d'un très bon œil la construction massive de barrages que cela suppose. Mais dans ce cas, c'est miraculeux (p107): le prix moyen dans le cas d'une consommation de 700TWh est de 72€/MWh, certes deux fois plus élevé que le prix spot actuel … mais moins cher que ce que paie un ménage allemand entre la production «standard» et la taxe EnR. En passant, les capacités d'interconnexion nécessaires entre l'Allemagne sont quelque part entre 40 et 70GW (c'est à dire entre 75 et 90% de la demande moyenne). SRU_interconnect_2050_DKNO.jpg

Cela dit, le scénario pan-européen et incluant les pays d'Afrique du Nord est encore plus extraordinaire, puisque le réseau européen ressemblerait à ça: Path_EUNA_2050.png Pour mémoire, en 2010, les interconnexions de l'Europe de l'Ouest ressemblaient plutôt à ça (avec des valeurs en MW donc 1000 fois plus élevées que sur le graphe ci-dessus): interconnect_EU_2010.png Les choses n'ont pas fondamentalement changé depuis, même si une ligne entre la France et l'Espagne a été inaugurée récemment … 20 ans après que sa construction ait été décidée.

Alors, comment faire un scénario 100% renouvelables?

La lecture des ces scénarios nous renseigne sur la façon de construire un scénario de réseau électrique entièrement alimenté par des énergies renouvelables, autres que l'hydraulique. Les ingrédients semblent être les suivants:

  1. De l'éolien, de préférence en supposant que le facteur de charge va augmenter fortement, notamment en supposant que les pylônes et les rotors seront plus grands dans le futur. L'éolien a l'avantage d'être présent un peu toute l'année et d'avoir un surplus l'hiver, lorsque la consommation est plus élevée — que ce soit à cause du chauffage, de l'éclairage … ou des vacances! Son défaut principal actuel est son intermittence, l'augmentation du facteur de charge amoindrit ce problème
  2. De quoi déplacer de la demande de façon importante. En effet, pour compléter l'éolien, la technologie favorite est le solaire photovoltaïque. Il n'a échappé à personne que, comme le soleil ne brille pas la nuit, l'intermittence est très forte dès lors qu'on installe des puissances importantes. Pour éviter de gaspiller de l'énergie et profiter au maximum de la production solaire, il faut déplacer la demande de façon forte.
  3. Des interconnexions: évidemment, aujourd'hui, le stockage n'existant quasiment pas, la solution toute trouvée est d'exporter les surplus et d'importer pour combler les trous. Pour le futur, supposer que construire des lignes THT est moins cher que le stockage n'est pas une hypothèse forte. Ça permet de diminuer la puissance des installations de stockage et aussi d'exporter une partie des problèmes dus à l'intermittence. Minimiser les constructions de lignes THT est cependant une bonne idée: il n'a échappé à personne que ce sont des projets fondamentalement impopulaires et en prévoir trop serait prêter le flanc aux critiques … et plomber les coûts.
  4. Un peu de stockage de l'électricité: quoi qu'il arrive, à cause de l'intermittence du photovoltaïque et de l'éolien, il faut stocker une partie de l'énergie produite. Il faut le faire à tous les horizons de durée de façon à bien amortir les fluctuations de la production. Dans une simulation économique, il faut aussi supposer que ces moyens qui n'existent pas encore ne sont pas trop chers

Avec cela, on peut construire un système basé totalement sur les énergies renouvelables. Ce n'est donc pas une surprise de constater que le scénario de l'ADEME suit exactement ces principes.

2 mars 2015

Sarkozy ou le mandat de la marmotte

Nicolas Sarkozy a donné au Figaro une interview où il évoque la politique qu'il a l'intention de mener si jamais il revenait au pouvoir. Ses intentions peuvent se résumer par la volonté de baisser massivement les impôts ainsi que les dépenses publiques.

Parmi les politiques prônées, figure le recul à 63 ans du départ à la retraite en trois ans après son retour au pouvoir. Malheureusement, comme le rapport de la Cour des Comptes à propos des retraites complémentaires le laisse entendre, reculer d'une seule année l'âge de départ à la retraite est déjà insuffisant. Comme je m'en étais fait l'écho, le plan de base proposé par la Cour pour redresser les comptes des régimes complémentaires passait par un recul de 2 ans de l'âge de départ, en seulement 4 ans. Ce plan comporte aussi des hausses d'impôts, le contraire de ce qu'annonce l'ancien président de la République. Le rapport contient aussi de lourdes allusions à la médiocre gestion du régime général, ses déficits récurrents et sa plus grande générosité qui rend l'équilibre financier plus difficile.

On peut alors voir l'inscription d'une limite de dépenses publique de 50% du PIB dans la Constitution pour ce qu'elle est: une tromperie. En effet, non seulement elle serait nuisible si jamais elle était appliquée, en empêchant par exemple tout plan de relance en cas de crise, mais Nicolas Sarkozy serait aussi bien incapable de la respecter car incapable de faire passer les mesures qui rendraient cet objectif atteignable. Aujourd'hui cela représente un effort à réaliser d'environ 140G€ de réduction des dépenses annuelles dont une grande partie devrait porter sur les dépenses sociales, car on imagine mal Nicolas Sarkozy organiser par exemple une baisse supplémentaire du budget de la défense à l'heure où l'armée est au maximum de ses capacités d'intervention. Mais dans le même temps, il ne sait pas présenter des mesures permettant de faire ces économies sur les dépenses sociales.

Même si cette interview semble essentiellement destinée à la consommation par les troupes de son parti, il est extrêmement déplorable que ses propositions soient déjà périmées dès leur énonciation. On peut en fait craindre une répétition de son premier mandat, où les demi-mesures sur le plan économique ont été masquées par un discours se voulant radical et par l'agitation permanente sur le thème de la sécurité. Bref, un nouveau mandat paraît d'ores et déjà se placer sous le signe de l'éternel retour.

14 février 2015

Les faits n'ont aucune importance

Cette semaine, la mairie de Paris a annoncé des mesures visant à limiter la pollution atmosphérique. La plus remarquée de ces mesures est la décision de restreindre la circulation automobile en interdisant la circulation en dehors du périphérique et des bois à un certain nombre de véhicules autorisés ailleurs, mais trop anciens aux yeux de la maire de Paris.

Après quelques billets sur le sujet, il est intéressant de résumer les quelques épisodes précédents. Il est totalement impossible que les seuls gaz d'échappement, et plus particulièrement ceux des voitures diesel, soient responsables des fameux 42000 décès prématurés, qui ont d'ailleurs une réalité surtout mathématique et non celle de lier une cause à un effet directement tangible. Les émissions de polluants ont fortement baissé depuis 20 ans, ces efforts se poursuivent aujourd'hui, grâce au renouvèlement de toutes sortes de machines et au durcissement des normes. La baisse des concentrations des particules dans l'air parisien est moins rapide, parce qu'une bonne part de ces particules viennent de l'extérieur de la région parisienne. Dernièrement, les effets des concentrations des particules de moins de 1µm ont été comparées au tabagisme passif, dont on estime qu'il est la cause de 1100 décès par an soit environ 40 fois moins que les 42000 morts. Si ces particules de moins de 1µm sont créées par la combustion de carburants divers, elles ne représentent plus que la moitié des émissions de particules provenant du trafic routier.

Les justifications des mesures laissent pantois:

  1. Les éléments techniques sont donnés pèle-mêle sans aucune mise en perspective et sans doute dans l'unique but de faire peur. C'est ainsi que le chiffre de 42000 morts figure en bonne place, mais lorsque la comparaison avec le tabagisme passif est faite, le nombre de morts dus au tabagisme passif, bien plus faible, n'est pas donné. De la même façon, les conclusions qu'on pourrait tirer de la publication de l'InVS ne le sont pas: avec un surplus de décès de 0.5% par 10µg/m³, on peut en déduire qu'il existe en Île de France une corrélation entre la pollution aux particules et environ 1500 décès, essentiellement après 75 ans, d'ailleurs.
  2. Le trafic automobile est donné comme le plus gros émetteur de polluant sans précision, alors qu'évidemment, suivant le type de polluant, cette situation varie beaucoup. Si le trafic automobile est responsable de la plus grande part des émissions de NOx, pour les particules, il est minoritaire.
  3. La mairie de Paris n'hésite pas à déclarer que sa politique de restriction de la circulation est à l'origine de la baisse des émissions de polluants alors qu'elles y évoluent de façon parallèle au reste de du territoire français. Elle s'attribue le mérite de résultats dont elle n'est donc pas à l'origine.
  4. L'importance des pièces d'usure (pneus, plaquettes de freins) dans les émissions de particules n'est mentionné que p6, bien loin de l'avant propos justifiant l'ensemble des mesures … mais juste avant d'énoncer les mesures d'interdiction de circulation prise au vu des normes imposées aux moteurs!

On arrive assez rapidement à la conclusion que les justifications ne sont là que pour la forme, pour pouvoir prendre des mesures qui vont dans le sens de l'idéologie de la majorité municipale. C'est ainsi qu'on y retrouve un certain nombre d'expressions connotées dont l'encouragement des mobilités douces, parmi lesquelles le vélo et la marche à pied, dont tous ceux qui les pratiquent couramment savent qu'elles n'ont rien de tel. Les mesures à prendre sont ainsi connues à l'avance et ne portent que sur le trafic routier: mobilisation de places de parking en surface pour en faire autre chose, subventions diverses à l'achat de véhicules moins polluants et surtout restrictions de circulation suivant l'âge du véhicule — ou la norme respectée, on ne sait trop. C'est bien sûr cette dernière mesure qui frappera le plus de monde, une partie importante du trafic à Paris provenant aussi de banlieue.

Le premier aspect de cette mesure de restriction est son aspect vexatoire: Paris intra-muros possède un réseau dense de transports en communs, les habitants peuvent donc se dispenser de voiture, ce qui est le cas d'environ la moitié des ménages parisiens. De plus, le périphérique n'est pas concerné par ces restrictions, alors que c'est sans doute la route la plus fréquentée de France et par conséquence la plus polluée. Si, véritablement, Anne Hidalgo souhaitait réduire la pollution des automobiles, pourquoi exclure le périphérique de son plan? De même, pourquoi les voitures particulières polluantes seraient autorisées à circuler le week-end? Enfin, pourquoi aucune mesure n'est-elle prise pour les autres émetteurs de polluants que le trafic automobile?

D'un autre côté, cette mesure de restriction ressemble aussi à une gesticulation. En effet, au fur et à mesure du temps qui passe, les véhicules les plus vieux sont mis au rebut. C'est ainsi que fin 2012, les voitures particulières Euro 4 et plus représentaient à peu près 40% du parc selon le rapport 2014 du CITEPA (p145). Cette part est vouée à augmenter, et il semble qu'en fait les restrictions les plus onéreuses portent sur les interdictions faites aux cars ainsi que le dernier niveau d'interdiction de circulation, en 2020, qui portera sur les véhicules inférieurs à la norme Euro 5. L'effet des ces restriction sera de plus probablement limité: le rapport prospectif d'Airparif sur les émissions de polluants prévoyait qu'à réglementation constante les émissions de PM2.5 — de fait celles concernées par les réglementations Euro — diminueraient de 80% entre 2008 et 2020. Les efforts supplémentaires portent donc sur une masse d'émissions fortement réduites. Enfin, réduire les émissions dans Paris intra-muros ne fait rien contre les émissions qui ont lieu juste à côté, en Île de France, et plus largement ailleurs en Europe, ce qui a son importance quand les 2/3 des particules viennent de l'extérieur!

Une politique pragmatique de diminution de la pollution devrait à mon sens suivre certaines grandes lignes:

  1. Pour le secteur des industries et de du trafic routier, reconnaître que les normes élaborées au niveau européen sont le déterminant principal de la réduction à long terme des polluant et qu'il n'y a pas besoin d'en rajouter aux niveaux inférieurs, national et local.
  2. Le diesel n'apportant aucun bénéfice par rapport au super en termes de pollution, les taxes sur les 2 devraient être alignées sur le niveau des taxes sur le super, afin de renforcer l'incitation financière à économiser les carburants. Ça ne se décide pas au niveau de la mairie de Paris.
  3. Le bonus-malus devrait être la seule incitation à acheter des véhicules consommant moins, à condition de ne plus se baser sur le vieux test NEDC mais plutôt sur le WLPT pour éviter que les optimisation des constructeurs ne corrompent trop le système.
  4. Une action locale que pourrait mener la mairie de Paris pour diminuer la pollution est la chasse aux chauffage au fioul et aux cheminées à foyer ouvert. Il ne s'agit pas tellement d'interdire que de faire de la publicité pour les inserts — qui divisent par 4 les émissions de particules provenant du bois par rapport aux foyers ouverts — et de subventionner la fin des vieilles chaudières au fioul, dont certaines des plus grosses sont d'ailleurs celles qui chauffent des HLMs.

Mais comme la parole publique est surtout concentrée sur les méfaits supposés du diesel, qui ont largement disparu et vont continuer à diminuer, peu de temps a été consacré à des propos utiles. Personne ou presque n'a parlé récemment du fait que les cheminées à foyer ouvert étaient les plus gros émetteurs de particules fines en France. Personne pour dire qu'il faudrait aussi remplacer les vieilles chaudières au fioul, qui brûlent essentiellement la même chose que le diesel et émettent aussi des particules. En conséquence de quoi, l'action dans ce domaine a consisté à interdire, ce qui a évidemment échoué devant l'incompréhension générale.

Tout ceci s'explique par la source de ces mesures. Il ne s'agit pas de lutter d'abord contre la pollution, mais surtout de satisfaire une idéologie. Les faits n'ont alors strictement aucune importance: ils peuvent pointer dans le même sens ou dans la direction opposée aux mesures sans impact sur celles-ci. On peut penser que les Parisiens, qui fréquentent assidûment un métro pollué par les particules de pneu et de métal, ne sont pas extraordinairement préoccupés par le niveau actuel de pollution aux particules à l'extérieur. Par contre, ils sont gênés par le trafic routier et ces gens qui viennent envahir les boulevards depuis la banlieue. Les électeurs sont aussi plus favorables qu'ailleurs aux thèses des Verts. La maire de Paris a alors tout intérêt à limiter par tous les moyens la circulation en dehors du périphérique.

26 janvier 2015

Les prévisions trop optimistes du COR

Le 16 décembre dernier, le COR a présenté une actualisation de ses projections sur l'état des finances des systèmes de retraites français. Comme il apparaît qu'elles prévoient toujours un retour à l'équilibre en 2020, le gouvernement s'est proposé de ne rien faire de plus que les dernières modifications, présentées en 2013. Malheureusement, ces prévisions comportent un énorme biais optimiste.

Les résultats des projections financières dépendent bien sûr d'hypothèses économiques. Quand elles sont optimistes, les résultats laissent penser que la situation financière des régimes de retraite est meilleure qu'elle ne le sera en réalité. Pour les projections à court terme, le COR dépend d'hypothèses actées par les projets de loi de finances pour la sécurité sociale. À plus long terme, il est plus libre de décider, mais les prévisions ne sont pas forcément plus réalistes. Il y a 5 scénarios de long terme, dénommés A', A, B, C et C', du plus optimiste au plus pessimiste.

Pour être jugées réalistes, les hypothèses économiques doivent à mon avis respecter a minima une première contrainte, qui est de s'être réalisée dans un passé relativement récent. Ce n'est pas le cas des hypothèses de chômage: dans les scénarios A', A et B, le COR prévoit un taux de chômage de long terme de 4.5%. Dans les scénarios C et C', le taux de chômage est de 7%. Il faut bien noter qu'il s'agit de taux de long terme, qu'on peut approximer par des moyennes sur longue durée, par exemple 10 ans. En effet, le COR ne fait pas vraiment l'hypothèse que le taux de chômage soit constant à un certain niveau, mais plutôt qu'il oscille autour de cette valeur. Si on regarde le taux de chômage en France sur une longue durée, on s'aperçoit que le taux de 4.5% a été dépassé pour la dernière fois en 1978. Quant au chômage de long terme, les données de l'INSEE permettent de tracer ce graphe: chomageLT.jpg On y voit que le taux de chômage moyen sur 10 ans est supérieur à 7% depuis 1987, soit plus de 25 ans. Le vrai taux de long terme semble être aux alentours de 9% depuis le milieu des années 90, soit à peu près 20 ans. Le COR évalue quand même une hypothèse de 10% de chômage: le surcroît de déficit en 2040 est de 0.3% du PIB dans le scénario C' … sachant que le déficit prévu avec 7% de chômage est déjà de 1.2% du PIB. Même si ce n'est pas le déterminant principal, le surcroît de déficit est tout de même notable.

Une deuxième contrainte me semble devoir être respectée pour que les scénarios soient réalistes: que le scénario central soit cohérent avec la tendance récente et, aussi, que les scénarios pessimistes représentent une situation mauvaise qu'on voit ailleurs. Sur le plan de la croissance économique, cela voudrait dire qu'une stagnation soit sérieusement envisagée. De même, la croissance moyenne sur 10 ans réellement constatée devrait servir de scénario central. Si on regarde la situation française, on constate que depuis 2008, la moyenne est plutôt aux alentours de 1%, soit l'hypothèse du scénario C', le plus pessimiste. CroissanceLT.jpg Quant à la masse salariale, source principale de ressources du système de retraites, elle suit désormais à peu près le PIB. L'expansion du salariat est terminée, les marges des entreprises sont plutôt basses en France en ce moment. Bref, le scénario C ou C' devraient être le scénario central et des scénarios plus pessimistes de stagnation économique devraient être présents parmi les scénarios étudiés. Bien sûr, le scénario C' prévoyant déjà de graves problèmes financiers pour les systèmes de retraite, des scénarios encore plus pessimistes seraient simplement catastrophiques sur ce plan. Cependant, ils ne seraient pas totalement dénués de sens, vu ce qui se passe dans certains pays vieillissants comme le Japon ou l'Italie.

D'ici 2020, grâce à l'intarissable optimisme du gouvernement — qui prévoit jusqu'à 4% de hausse annuelle de la masse salariale — le COR conclut que le déficit du système de retraites diminuera et que l'équilibre financier sera atteint aux alentours de 2020. En conséquence, le gouvernement prévoit de ne rien faire. Mais quelle crédibilité accorder à ces prévisions dont la réalisation semble hors d'atteinte aujourd'hui? Le moins qu'on puisse dire c'est qu'un tel optimisme ne sert qu'à se mettre la tête dans le sable et ne rend absolument pas service aux salariés actuels, qui sont les futurs retraités.

4 janvier 2015

Les graves difficultés financières de l'AGIRC

Le 18 décembre dernier, la Cour des Comptes a publié un rapport sur la situation des retraites complémentaires des salariés du privé, gérées par deux associations siamoises, l'AGIRC et l'ARRCO. L'AGIRC gère la retraite complémentaire des cadres, l'ARRCO celle des autres employés; elles sont gérées par les syndicats de salariés et les organisations patronales. Le système français veut que la retraite de base ne tienne compte que du salaire jusqu'au plafond de la sécurité sociale, la pension versée à ce titre ne peut représenter plus de la moitié de ce plafond. Les retraites complémentaires apportent un complément de revenu et sont indispensables pour atteindre l'objectif d'un taux de remplacement de 66%. Pour les cadres, dont le salaire dépasse généralement le plafond de la sécurité sociale, la pension versée par l'AGIRC représente couramment 50% de la pension totale. Ces deux régimes sont actuellement en déficit. La situation financière est particulièrement difficile pour l'AGIRC dont les réserves seront épuisées d'ici à fin 2017 si rien ne change, comme cela a été annoncé dans la presse à l'été 2014.

Les origines des difficultés actuelles

Les difficultés actuelles des régimes complémentaires trouvent d'abord leur origine dans les situations économique et démographique. Il est bien connu qu'il y a de plus en plus de retraités par rapport aux actifs. Par ailleurs, la croissance de la masse salariale a été de seulement 0.2% par an en termes réels depuis 2009, parallèlement à une croissance économique presque nulle depuis 2012. Malgré les ajustements depuis 2010, le déficit actuel est pire que celui qui était prévu en 2010 si on ne faisait rien. Deficit_AGIRC_ARRCO.jpg

La différence entre les prévisions et la réalité s'explique d'abord par les prévisions systématiquement trop optimistes du gouvernement. Si on pouvait comprendre qu'en 2010, année où la croissance était de 2%, on prévoit une croissance tendancielle de 1.5% par an et une inflation d'environ 2% par an, c'est nettement plus difficile à comprendre en 2013, où la possibilité d'une stagnation économique à long terme et d'une inflation durablement faible étaient plus que des hypothèses. Malheureusement, on l'a encore constaté en 2013, les prévisions du COR sont toujours basées à court terme sur les prévisions économiques du gouvernement ce qui oblige à revenir en permanence sur les ajustements précédents, car ils sont toujours insuffisants.

C'est ainsi que les gestionnaires des retraites complémentaires ont pris des mesures de gel des retraites complémentaires, dont les bénéfices ont été largement amoindris par une inflation quasi nulle, et d'augmentation des impôts (0.25 point). Il s'attendaient aussi à pouvoir demander une plus grande durée de cotisation suite à la réforme de 2013, mais leur espoir a été déçu parce que la réforme de 2013 a prévu de boucher le déficit immédiat essentiellement par des augmentations d'impôts (p27). Cette réforme a été aussi largement sous-dimensionnée, au point d'ailleurs, qu'un gel des retraites de base, non prévu à l'origine, a été mis en place au printemps 2014.

Mais il y a aussi des actes du gouvernement qui minent la santé financière des retraites complémentaires, et plus particulièrement de l'AGIRC. Comme la plafond de la sécurité sociale est réévalué en fonction du salaire moyen et qu'il y a de plus en plus de cadres, les ressources possibles de l'AGIRC sont peu à peu préemptées par le régime de base. En effet, au dessus du plafond les cotisations à l'AGIRC remplacent en totalité les cotisations au régime général et elles y sont nettement plus élevées. L'ARRCO est peu concernée, puisque 94% des cotisations des non-cadres sont prélevées en dessous du plafond de la sécurité sociale (p46). Au total, si le plafond de la sécurité sociale avait été réévalué selon le salaire médian et non moyen depuis les années 1970, les retraites complémentaires toucheraient 2G€ de plus par an en cotisations (p49). D'autre part, en dessous du plafond, le quinquennat Hollande a préempté la plupart des hausses possibles: en arrivant au pouvoir en 2012, il a décrété une augmentation des cotisations de 0.5 point pour financer ses dispositions sur les «carrières longues» puis, en 2013, une augmentation progressive de 0.6 point.

Le cumul des mesures prises sous le quinquennat Hollande pour les retraites de base et retranscrites telles quelles pour les retraites complémentaires conduisent d'ailleurs à un déficit supplémentaire chaque année au moins jusqu'en 2030 (p26). Un certain nombre de charges nouvelles ont été créées comme l'élargissement de l'éligibilité aux «carrières longues» et le compte pénibilité. Si pour le régime général de base un surcroît d'impôt les finance, rien n'a été prévu pour les retraites complémentaires: la hausse des cotisations décidées en 2013 couvre à peine le coût de l'élargissement du dispositif «carrières longues»! Pire encore, la loi de 2013 prévoyait dans son étude d'impact un amélioration de 2G€/an à l'horizon 2030 pour les régimes complémentaires. Mais cela ignorait toutes les mesures qui emportaient un coût pour ces régimes! En fait, selon les organismes de retraite complémentaire, le bénéfice est, en 2030, limité à 570M€ annuels (p103-104). On mesure là l'impéritie et l'amateurisme dont le gouvernement Hollande fait preuve sur la question des retraites.

C'est ainsi que le déficit global des retraites complémentaires est attendu à environ 5G€ en 2014 et que les réserves accumulées pendant la première décennie de ce siècle (60G€ au total) vont être épuisées dès la fin 2017 pour l'AGIRC et en 2023 pour l'ARRCO. Malgré une bonne gestion avant la crise, louée par la Cour, les régimes complémentaires sont dans une mauvaise situation financière.

Les remèdes

Comme d'habitude sur les retraites, il n'y a guère que 3 paramètres sur lesquels on peut jouer: le niveau des pensions, le taux de cotisation et l'âge auquel on passe d'actif à retraité. La mesure la moins douloureuse est le report progressif de l'âge de la retraite: personne ne perd de revenu immédiatement, cela permet aussi de faire rentrer plus d'argent par l'ensemble des autres impôts. Malheureusement, le terme rapproché de l'échéance pour l'AGIRC rend indispensable l'usage des deux autres paramètres. Dans le passé, les utiliser ne signifiait pas une baisse du montant nominal perçu, grâce à l'inflation et à la croissance économique. De plus, le déficit est tel qu'il faudrait baisser les pensions de l'AGIRC d'environ 10% ou augmenter les cotisations de 2 points voire plus. On voit que l'ajustement s'annonce douloureux.

La Cour donne deux exemples et un tableau détaillant l'impact de chacune des mesures à l'horizon 2030. Elle se montre aussi sceptique sur les chances de l'AGIRC à parvenir à sortir seule de l'ornière sans adossement à l'ARRCO. La Cour appelle aussi de façon à peine voilée à mettre fin de facto au système de la «retraite à 60 ans», en enjoignant les gestionnaires à reporter l'âge de la retraite pour bénéficier d'une retraite complémentaire sans abattement sans attendre que le gouvernement daigne prendre des mesures (p40 et 45). Remedes_AGIRC_ARRCO.jpg effets_remede1.jpg

Personnellement, je pense que la majeure partie de l'ajustement à court terme devrait être assumée par les pensions versées. Du fait d'une faible inflation, l'impact sur le pouvoir d'achat des retraités des mesures de gel des pensions a été très limité et ils ont été protégés des effets de la crise. En face, même les cadres ont fait face à des gels de salaires et à l’augmentation des impôts. Une baisse très notable des pensions complémentaires des cadres à court terme est devenue indispensable. À plus long terme, l'ajustement doit se faire via l'allongement de la durée du travail, particulièrement pour les cadres, dont l'espérance de vie est notablement supérieure à celle des autres salariés. Une augmentation de la durée du travail supérieure à celle prônée par la Cour dans son premier scénario me semble nécessaire: il faudrait sans doute augmenter progressivement l'âge de la retraite de 3 ans pour les cadres, peu importe d'ailleurs que le régime général de base suive ou pas.

Ce rapport me semble aussi être un réquisitoire contre la réforme de 2013 et l'impéritie du gouvernement actuel. Il était clair tout au long de l'année 2013 que l'ajustement programmé était sous-dimensionné et ne tenait aucun compte des régimes autres que le régime général de base. Rien n'a été fait pour le régime des fonctionnaires qui pèse de plus en plus sur les finances publiques. Les régimes complémentaires ont été totalement ignorés et les marges de manœuvre financières largement préemptées pour le régime de base. Le gouvernement s'est refusé à allonger immédiatement la durée de cotisation nécessaire à une retraite à taux plein: on peut subodorer qu'il préfère que ce soient d'autres que lui qui portent le chapeau de la fin effective et dans tous les cas — y compris pour les carrières longues — de la «retraite à 60 ans».

30 novembre 2014

Du dieselisme passif

Mardi 25 novembre, les particules fines et le diesel ont refait surface dans les médias, toujours pour dénoncer l'ampleur scandaleuse de la pollution. Cela faisait suite à une présentation à la presse des résultats de mesures effectuées à l'aide d'un instrument embarqué à bord du ballon Generali qui flotte au-dessus du parc André Citroën, dans le 15ᵉ arrondissement de Paris. Cette fois-ci, la comparaison choc est que la pollution aux particules de moins de 1µm de diamètre équivalait aux dommages causés par le tabagisme passif.

Si on se rend sur le site de l'Institut National du Cancer, on constate que 1100 décès sont attribués chaque année au tabagisme passif sur l'ensemble de la France. Pourtant, il n'y a pas si longtemps, on nous annonçait que la pollution aux particules était responsable de 42000 morts par an en France, ce qui avait suscité mon premier billet sur le sujet. Les articles et la présentation affirment que les particules d'un diamètre de moins de 1µm sont les plus nocives. En conséquence, on ne peut que s'émerveiller des progrès rapides de la lutte contre la pollution aux particules, puisqu'en seulement 2 ans et demi, le nombre de décès a été divisé par un facteur 40. Malheureusement, il semble que personne n'ait remarqué ces progrès dans la presse, puisque les articles sont toujours aussi négatifs et appellent toujours à pourchasser le diesel. Cette estimation est même inférieure à celle à laquelle je m'étais risqué dans mes billets précédents.

De plus, le seul jour du 13 décembre 2013 semble concentrer le feu des critiques, alors que les mesures ont été effectuées entre septembre 2013 et août 2014 et qu'un autre épisode de pollution aux particules a eu lieu en mars 2014. Ce n'est guère étonnant: il s'est avéré par la suite que plus de la moitié des particules n'étaient pas dues à la combustion, mais aux activités agricoles, puisque 51% étaient composées de nitrate d'ammonium et seulement 11% dérivaient de l'usage de combustibles fossiles. En conséquence de quoi, il y a dû y avoir relativement peu de particules de moins de 1µm, car la combustion de matières — dérivés du pétrole, bois — provoque essentiellement l'émission de ces particules. Si d'autres causes sont responsables d'un pic de pollution, la proportion de particules de moins de 1µm est moindre. En mars dernier, le diesel était le premier accusé; qu'il soit apparu après coup que le diesel n'ait joué qu'un rôle marginal dans le pic de pollution n'a pas suscité de retour dans la presse.

Avec les diagrammes publiés sur le blog {sciences²} de Libération, on s'aperçoit que les concentrations varient d'un facteur 30 sur l'année de mesures. En moyenne sur l'année, les concentrations sont plus proches du minimum que du maximum constaté lors d'un pic de pollution: les pics de pollution sont de courte durée et ils comptent relativement peu dans la moyenne. Si on regarde le cas des particules de moins de 10µm, on s'aperçoit que la moyenne est de l'ordre de 2 fois le minimum (cf graphe ci-dessous) PM10_201309_201408.jpg Si on applique la même règle aux particules de moins de 1µm, au lieu d'un studio où on a brûlé 8 clopes, on trouve qu'en moyenne sur l'année, il y a autant de particules que si on avait brûlé 0.5 cigarette. Comme bien sûr on ne peut jamais atteindre le zéro équivalent-clope, il faut bien constater qu'on ne peut pas vraiment dire que la pollution à Paris est équivalente au tabagisme passif.

On peut aussi constater qu'une fois de plus, ce qui a été relayé dans la presse portait sur l'aspect négatif: rapporter la concentration de particules de moins de 1µm en termes de nombre est assez révélateur. En effet, les organismes de mesure de la pollution parlent plutôt en termes de masse globale des particules. Bien évidemment, une grosse particule va peser bien plus lourd qu'une petite: si la masse est proportionnelle au volume, une particule de 2.5µm pèse 15 fois plus qu'une particule de 1µm. On voit que le nombre de petites particules peut rapidement devenir proprement astronomique. Est-ce cela signifie qu'elles sont dangereuses à proportion de leur nombre? Pas forcément! Dans ce cadre, l'affirmation qu'aucun seuil réglementaire d’émissions n’a été encore fixé pour les nanoparticules relève du mensonge pur et simple: comme les normes anti-pollution s'attaquent à la masse de toutes les particules émises lors du test, quelque qu'en soient leurs tailles, les particules de moins de 1µm sont bien évidemment incluses. De plus, la norme Euro 6 impose une limite en nombre, dans le but de s'attaquer directement aux émissions de particules de moins de 0.1µm!

Comme d'habitude, cet évènement a été rapidement récupéré par les opposants au diesel. Il n'est besoin que d'observer que le fioul domestique, qui n'est rien d'autre du diesel auquel on a ajouté un colorant rouge, ne fait l'objet d'aucune mention. Or, l'usage du fioul pour se chauffer en hiver est bien mieux corrélé aux pics de pollution que la consommation de gazole! Inutile donc de rappeler aussi que la combustion du bois est le premier émetteur de particules de moins de 1µm, qu'en moyenne les 2/3 des particules en Île de France viennent d'ailleurs, que les normes anti-pollution mettent les voitures neuves essence et diesel au même niveau ou presque. Le mal est forcément le trafic parisien fortement diésélisé et il faut bannir les voitures diesel. Même si je considère que le diesel bénéficie d'un avantage fiscal infondé et que je suis favorable à l'alignement de la fiscalité du diesel sur celle du super 95, je remarque que la campagne de diabolisation du diesel est mensongère et s'attaque surtout à des problèmes qui se posaient il y a 20 ans.

26 octobre 2014

Vers un doublement de la CSPE

Le 15 octobre dernier, Philippe de Ladoucette, le président de la CRE était entendu par la commission d'enquête sur les tarifs de l'électricité à l'Assemblée Nationale (retranscription, vidéo). À l'occasion, la CRE rendait public deux rapports, l'un sur les tarifs régulés d'EDF et un autre sur les perspectives de la CSPE. Ce billet est consacré au rapport sur la CSPE. La CSPE est une taxe un peu fourre-tout qui sert à la fois à financer les tarifs sociaux de l'électricité, la péréquation avec les îles sous administration française (Corse, DOMs, etc.) ainsi que les tarifs de rachats divers dont ceux des énergies renouvelables. L'élément le plus remarquable de ce rapport sur la CSPE est qu'il la voit passer de 16.5€/MWh cette année à 30.2€/MWh en 2025. CSPE_2003-2025.jpg

La situation présente

Ces dernières années, avec notamment la forte hausse du prix du pétrole et la bulle du photovoltaïque en 2010, les charges à couvrir ont fortement augmenté, ce qui a provoqué l'apparition d'un déficit de plus de 4G€ qu'il va falloir résorber. Cette année, avec 16.5€/MWh, la taxe couvre les charges courantes prévues à 6.2G€. L'année prochaine, le stock de dette devrait commencer à se résorber, la CSPE étant augmentée plus vite que les charges courantes. Elle atteindra 19.5€/MWh pour des charges courantes de 17.7€/MWh. Aujourd'hui, plus de 60% des charges relèvent des énergies renouvelables et un gros quart de la péréquation, les tarifs sociaux n'en représentent que 5% environ.

La hausse des prix du pétrole a eu un impact sur le coût de la péréquation: dans les îles, les centrales sont bien souvent des centrales au fioul. De ce fait, le coût de la péréquation atteint environ 1.9G€ en 2014, en incluant les EnR de ces régions. Le plus gros poste relève des tarifs de rachats de toute sortes et aux prix les plus divers, de la cogénération — à base de combustibles fossiles… — au solaire photovoltaïque qui représentent 3.5G€ cette année pour les installations métropolitaines. Le solaire photovoltaïque de métropole absorbe à lui seul 2.1G€ de subventions. Avec 14% de la production éligible aux tarifs de rachat, ce dernier capture à lui seul 62% des subventions! L'explication de cette situation est que les subventions sont accordées sur la base des coûts de chaque type d'énergie subventionnée, sans vraiment prendre en compte l'utilité de chacune. Cette situation paraît amenée à perdurer comme le montrent les prévisions de la CRE.

La situation future

La CRE prévoit une forte hausse de la CSPE, marquée dans un premier temps par une hausse rapide dans les 3 années qui viennent pour combler la dette accumulée, puis par la mise en service de nouvelles installations. Elle devrait atteindre 10.6G€ annuels en 2025, soit une taxe de 30.2€/MWh. La trajectoire prévue figure sur le graphe ci-dessous. evolution_unitaire_2013-2025.jpg

Comme la dette accumulée va être résorbée dans les quelques années qui viennent, la hausse de la taxe unitaire s'explique par la hausse des charges courantes. Comme les tarifs sociaux restent une petite partie du coût, les raisons sont à trouver dans les 2 gros contributeurs actuels: la péréquation et les tarifs de rachat. Le coût de la péréquation passe de 1.7G€ à 2.5G€ (Figure 81 p112) soit une augmentation de 50%. La plus grosse part de l'augmentation est donc causée par l'autre poste important, les tarifs de rachat qui passent de 3.5G€ en 2014 à environ 8G€ en 2025: ils font plus que doubler. evolution_EnR_2013-2025.jpg L'essentiel des subventions va à 2 technologies en 2025: le solaire PV et l'éolien en mer. À eux deux, ils capturent 5G€ sur 8G€ de subventions. Un constat s'impose: aux conséquences de la bulle du photovoltaïque vont se superposer les conséquences des appels d'offres sur l'éolien en mer qui se sont soldés par des tarifs extrêmement onéreux, puisqu'à l'horizon 2020, l'indexation amènera le prix à 220€/MWh environ. Avec 2.1G€ annuels de subventions dédiés aux contrats photovoltaïques signés avant 2013 et qui courent sur 20 ans de production, leur coût total s'élève à 42G€. Pour l'éolien en mer, la CRE prévoit sur la durée de vie des contrats actuellement passés 38G€ de subventions (p5). On voit que ce sont des sommes du même ordre. On peut conclure que la politique menée pour soutenir le secteur des énergies renouvelables électrique ne tient absolument pas compte du coût pour le consommateur.

60% des subventions en 2025 iront à des contrats mis en œuvre après 2013, ce qui montre que la bulle photovoltaïque de 2009-2010 ne sera certainement pas la seule responsable de la forte hausse de la taxe. Les estimations de la CRE conduisent peu ou prou à un chiffres d'affaires des secteurs sous obligation d'achat de 15G€/an pour une production d'environ 85TWh, soit environ 15% de la production d'électricité française. Si EDF obtient les 55€/MWh qu'il demande pour son parc nucléaire dans le futur, le chiffres d'affaires du parc nucléaire sera d'environ 25G€ pour plus de 400TWh de production. Une nouvelle fois, on voit que les coûts des EnR sont loin d'être maîtrisés!

Par ailleurs, durant son audition, le président de la CRE a précisé que ses prévisions étaient conservatrices. En effet, les calculs ont été effectués en prenant des hypothèses qui tendent à minimiser les subventions versées:

  1. La CRE prévoit une hausse du prix spot de l'électricité. Or, comme je l'avais constaté, plus il y a d'énergies subventionnées, plus les cours ont tendance à baisser. Cependant, cet effet est assez faible: une erreur de 10€/MWh (soit environ 20%) sur le prix de gros entraîne une variation de 700M€ des charges. Cela montre une fois de plus que l'essentiel des surcoûts ne vient pas des volumes produits mais des contrats signés en faveur de technologies très loin d'être compétitives
  2. Pas de renouvellement de contrat à terme quand ce n'est pas prévu par la réglementation actuelle. Cela vaut surtout pour l'éolien. Au vu de ce qui se passe aujourd'hui avec le petit hydraulique et la cogénération, la prudence est de mise, même si une nouvelle fois, l'impact devrait être faible, étant donné que l'éolien terrestre fait partie des EnR les moins chères.
  3. Elle prévoit aussi que les installation suivent la programmation effectuée suite au Grenelle de l'Environnement, en l'adaptant suivant ce qui s'est passé depuis et en abaissant les objectifs. C'est ainsi que l'essentiel des capacités nouvelles d'ici 2025 proviennent de l’éolien terrestre, que la progression du photovoltaïque est limitée et qu'il n'y a pas de nouvel appel d'offres pour l'éolien en mer. C'est pratiquement le cas le plus favorable au consommateur.
  4. Cette hypothèse est rendue encore plus optimiste par les projets du gouvernement actuel qui tient absolument à faire baisser la part du nucléaire dans la production d'électricité et à augmenter la part des renouvelables. En tenant compte de la production hydraulique actuelle, cela voudrait dire qu'en 2025, la part de la production électriques provenant des EnR subventionnées serait de 25 à 30%, soit à peu près de 2 fois plus que ce que prévoit la CRE. Même si on ne croit pas ce que raconte le gouvernement, cela va créer une pression à la hausse car pour paraître atteindre les nouveaux objectifs, il va sans doute falloir relever les tarifs de rachat et lancer d'autres appels d'offres particulièrement onéreux.

Quelques conclusions

Il est aussi intéressant qu'aucune des modalités de soutien ne trouve grâce aux yeux de la CRE (voir p3 et suivantes). On comprend qu'à chaque fois, les tarifs lui paraissent en tout ou partie trop élevés par rapport aux bénéfices attendus et aux coûts réels de chaque technologie.

Face à une telle augmentation, il n'est pas très étonnant que cette taxe bien visible par les consommateurs-électeurs devienne un sujet digne d'intérêt pour les parlementaires. Même si le sujet de l'augmentation de cette taxe est peu abordé dans les médias, les plaintes des électeurs au sujet de leur facture doivent remonter auprès des politiques. Quand de l'autre côté les prévisions annoncent une hausse importante de la taxe, la question de l'assiette de la taxe surgit à nouveau. Il faut dire que le but officiel est de réduire les émissions de gaz à effet de serre. Mais comme le gaz, par exemple, est exonéré, on voit que plus il y a d'énergies renouvelables dans la production électrique française, plus elle est taxée et plus il est en fait intéressant de se tourner vers le gaz et donc d'émettre du CO₂. Comme les coûts évalués par la CRE relèvent essentiellement de contrats déjà actés, si le gouvernement veut éviter la grogne des consommateurs d'électricité, il ne lui reste guère que l'option d'étaler les coûts sur d'autres consommateurs, comme les consommateurs de fioul et de gaz, qui à leur tour grogneront. Il n'y a donc pas vraiment d'issue favorable possible sur cette question!

Enfin, la question des bénéfices à retirer des énergies renouvelables n'est jamais ou presque abordée. Cela nécessiterait de comparer à des alternatives — par exemple, remplacer les quelques centrales à charbon françaises qui resteront après 2015 par des centrales au gaz coûterait certainement moins cher à la tonne CO₂ évitée. Les énergies renouvelables électriques sont devenues dans le débat public des buts en elles-même. Pas étonnant dans ces conditions que la distribution des subventions montre un grand laisser-aller.

5 octobre 2014

Faut-il prendre au sérieux les objectifs de la loi sur l'énergie de cette année?

Pour continuer cette série de billets sur la loi sur l'énergie actuellement en discussion au Parlement, je vais aborder dans ce billet les objectifs prévus par l'article 1 de la loi. Ces objectifs sont censés déterminer la politique énergétique suivie par la France ces prochaines années. Malheureusement, ils me semblent impropres à pouvoir engendrer une politique cohérente. D'une part parce qu'ils me paraissent irréalistes, mais aussi parce qu'ils semblent avoir été écrit à la va-vite, effet renforcé après la passage en commission parlementaire du texte.

Les modifications verbeuses et contradictoires des parlementaires

Il peut d'abord être utile de comparer la version originelle du projet de loi et celle qui est sortie de la commission ad hoc. On peut constater que la version du gouvernement contient 4 objectifs pour le futur article L. 100-1, 6 pour le L. 100-2 et 5 pour le L.100-4. Au sortir de la commission, il y a 7 objectifs pour le L. 100-1, 8 pour le L. 100-2 et 7 pour le L. 100-4. Plus on ajoute d'objectifs, moins il est difficile de justifier qu'une politique corresponds aux buts énoncés: à force d'en ajouter, il devient possible de justifier à peu près toutes les politiques possibles, à charge pour le gouvernement de choisir les objectifs qu'il veut atteindre parmi ceux qui se contredisent.

Par ailleurs, certains de ces ajouts n'apportent rien ou presque, voire se contredisent entre eux. Ainsi pour le futur L. 100-1, les parlementaires ont jugé bon de donner 3 objectifs quasiment équivalents:

(…)
« 3° Maintient un coût de l’énergie compétitif ;
« 4° (Supprimé)
« 5° Garantit la cohésion sociale et territoriale en assurant l’accès de tous à l’énergie sans coût excessif au regard des ressources des ménages ;
« 6° (nouveau) Lutte contre la précarité énergétique ; (…)

On ne peut pas dire qu'il y ait une grande différence entre un coût compétitif, la lutte contre la précarité énergétique et l'énergie sans coût excessif au regard des ressources des ménages: ces 3 objectifs ont les mêmes conséquences pratiques et il doit bien être possible d'en proposer une synthèse claire, en gardant le seul 3° — qui existe déjà dans la version actuelle — ou par exemple en écrivant: Maintient un coût de l’énergie compétitif et abordable pour tous sur l'ensemble du territoire de la République.

Mais ce n'est pas tout: pour le futur L. 100-2, ils ont fait ajouter la phrase Procéder à l’augmentation progressive de la contribution climat-énergie, qui (sic), dans la perspective d’une division par quatre des gaz à effet de serre qui semble contradictoire avec les dispositions qu'ils ont fait ajouter juste avant!

Les objectifs chiffrés ont-ils été bien énoncés

Le futur article L. 100-4 porte les objectifs chiffrés. Certains des chiffres proviennent d'engagements européens déjà pris ou en passe de l'être. C'est le cas des 23% d'énergie renouvelables dans la consommation finale en 2020 et de la baisse de 40% des émissions de gaz à effet de serre entre 1990 et 2030. D'autres comme la baisse de la consommation d'énergie finale de 50% d'ici à 2050 ou la baisse de la part du nucléaire à 50% dans la production d'électricité relèvent des choix du gouvernement actuel.

J'ai déjà parlé l'an dernier, en mal, de la division par 2 de la consommation d'énergie finale d'ici à 2050, lorsque François Hollande avait annoncé cet objectif. Pour revenir aux arguments chiffrés, il faut remarquer que l'objectif fixé en Allemagne est une baisse de seulement 40%, pour une population attendue en baisse de 10%, alors qu'en France, on attend une population en hausse de 10%. L'effort est donc extrêmement conséquent et inédit. Les chances sont fortes que l'activité économique soit fortement impactée. Il se trouve que la loi donne un objectif complémentaire: le rythme de baisse de l'intensité énergétique finale à atteindre en 2030, 2.5%/an. L'intensité énergétique est la quantité d'énergie consommée — corrigée des conditions météo — rapportée au PIB, c'est donc une mesure d'efficacité. Or, il se trouve que la division par 2 de la consommation finale d'énergie implique un rythme de baisse moyen de 1.8% par an. Ce qui veut dire que le gouvernement se fixe grosso modo comme objectif une croissance moyenne de 0.7% par an d'ici à 2050. Je ne suis pas convaincu que ce soit le message que veuille faire passer le gouvernement!

Mais il s'avère aussi que l'objectif de rythme annuel de baisse de l'intensité énergétique est pratiquement hors d'atteinte: en dehors des pays ayant traversé une grave dépression et les anciens pays du bloc communiste, je ne sais pas si on peut trouver des exemples. On peut même voir qu'en France, le rythme de baisse de l'intensité énergétique finale est à peu près constant depuis au moins 30 ans à environ -1.1% par an, comme on peut le voir ci-dessous: intensite_fr_1981-2013.jpg Les statisticiens du ministère de l'énergie indiquent dans le bilan énergétique annuel (p103) que le rythme depuis 2005 est de -1.3% par an. On voit donc qu'il faudrait qu'une modification rapide et fondamentale de la société française se produise et que les fondements de l'activité économique changent du tout au tout. Des gains de productivité inédits devraient se produire pendant une longue durée!

D'autre part, si le gouvernement entend réduire le chômage, une croissance de l'ordre de 1.5% par an est nécessaire. Cela rend aussi plus facile d'équilibrer les comptes de l'assurance maladie, des caisses de retraite, etc. Bref, s'il veut tenir ces autres engagements qui me semblent nécessaires à la paix civile dans notre pays et très conformes aux demandes des citoyens, c'est un rythme de gains d'efficacité énergétique de l'ordre de 3.5%/an pendant 30 ans qu'il faut viser. En attendant, si la tendance actuelle se poursuit, le gouvernement s'est donné pour objectif une récession moyenne de 0.5% du PIB par an pendant plus de 30 ans. Avis aux amateurs!

Une nouvelle fois, la source ultime de cet engagement est connue: diviser par 2 la consommation finale d'énergie est à peu près la seule façon d'espérer se passer de nucléaire sans augmenter les émission de CO₂. Tous les scénarios écologistes sont bâtis sur cette hypothèse, mais même ainsi, se passer de nucléaire relève de l'exploit. Mais au final, on voit bien qu'aucun gouvernement véritablement sain d'esprit ne s'engagera dans une telle politique. La tendance est claire: si on veut réellement diviser la consommation d'énergie par 2 d'ici à 2050, c'est une dépression de 30 ans qui est prévisible. Même avec un objectif très optimiste de gains d'efficacité, la croissance restera très faible. Il se passera donc avec ces objectifs ce qui s'est passé partout dans le monde face à ce type d'engagement intenable: il sera abandonné lorsqu'il deviendra trop voyant qu'on ne peut pas l'atteindre. Il reste toutefois qu'il devient difficile de prendre au sérieux aucun des objectifs mentionnés dans cette loi quand on voit que le gouvernement fixe un objectif de croissance de 0.7%/an à rebours de tout ce qu'il promet par ailleurs! Mais cela n'empêchera pas dans l'intervalle de prendre des décisions néfastes sur cette base…

1 octobre 2014

Quel contrôle des coûts pour les EnRs?

Ségolène Royal a répété à de multiples reprises à la radio dimanche dernier que les EnRs et les travaux d'isolation allaient rapporter de l'argent au lieu d'en coûter. Cela implique normalement que les coûts pour la collectivité soient contrôlés de façon à ce qu'on tire le maximum des énergies renouvelables les moins chères. En effet, utiliser les énergies renouvelables les moins chères permet d'en utiliser le maximum pour un montant donné: on maximise de cette façon le rendement des investissements.

Lors de son interview, Ségolène Royal a mentionné une famille habitant dans une habitation nouvelle dont la facture d'énergie était de 96 centimes d'euro par mois. La suite de l'entretien montrait quelle était la recette: une bonne isolation, certes, mais aussi l'installation de panneaux solaires qui permettent de toucher des subsides très intéressants qui s'élèvent dans le cas de cette nouvelle habitation à plus de 280€/MWh produit. On peut comparer cela au coût de la fourniture d'énergie dans le Tarif Bleu d'EDF, destiné aux particuliers: il était en 2012 d'environ 45€/MWh (rapport de la CRE, Figure 54, p78). La différence est évidemment payée par une taxe, la CSPE: autrement dit, si ce ménage ne paye que 96 centimes par mois, c'est que la collectivité paye le reste.

Les charges de la CSPE représentent, pour sa partie finançant les énergies renouvelables, plus de 3.5G€ cette année. Comme l'indique le site de la CRE, le montant de la taxe devrait être de 22.5€/MWh mais elle est limitée à 16.5€/MWh parce que la hausse de la taxe est limitée à 3€/MWh par an. Un déficit de plus en plus important est en train de se creuser, qu'il faudra bien combler un jour. Toujours est-il qu'on peut constater que les seules EnRs électriques réclament un financement de l'ordre de 12€/MWh dont l'essentiel va à 3 sources d'énergie: l'éolien, la biomasse et le solaire PV, ce dernier se taillant la part du lion. Ces 3 sources représentent environ 3% de la production totale d'électricité en France … pour un chiffre d'affaires global égal à 25% de l'ensemble!

En Allemagne, le montant de la taxe a explosé en quelques années à cause du rythme d'installation des panneaux solaires et l'absence de contrôle des coûts. Elle est aujourd'hui de 62.4€/MWh, soit plus que le coût des productions classiques ou encore près de 2 fois le prix spot de l'électricité en Allemagne. La taxe EnR allemande est une des raisons pour lesquelles le prix de l'électricité pour les particuliers atteint 300€/MWh. Comme on le voit, le contrôle des coût devrait constituer une partie essentielle de la politique menée si on veut préserver le pouvoir d'achat des Français — comme l'affirme Ségolène Royal. La Cour des Comptes a aussi publié un rapport très critique à ce sujet l'an dernier.

On pouvait donc s'attendre à ce que des mesures soient prises sur ce terrain. En lisant le projet de loi, on constate qu'il y en a … aucune! Il y a bien des dispositions tenant compte des demandes de la commission européenne — mais dont bien sûr l'essentiel des installations, éoliennes et solaire seront exonérées — et l'article 50 sur un comité de gestion de la CSPE qui sera chargé de faire ce que fait actuellement la CRE. C'est tout. À un député proposant une réforme, il est répondu qu'une mission d'information a été mise en place … alors que le problème est connu depuis plusieurs années: la commission sénatoriale de 2012 sur les coûts de l'électricité a déjà abordé le sujet! Que rien ne soit prévu dans ce projet de loi est donc un pur scandale. À côté de cela, Ségolène Royal continue de chanter les louanges de l'éolien en mer. L'appel d'offres de ce printemps s'est soldé par un prix d'environ 220€/MWh en 2022. Aucun compte ne semble avoir été tenu du rapport de la Cour des Comptes. Bref, le robinet est toujours grand ouvert.

Au-delà de la protection du pouvoir d'achat, un contrôle des coûts est aussi important car plus les sources d'énergies qui incluent des EnRs sont taxées, plus on favorise les autres sources. En effet, le ratio des prix devient plus favorable aux autres énergies et les effets d'éventuelles taxes carbones est neutralisé par l'inflation liée aux EnRs. Aujourd'hui, le gaz est soumis à une taxe carbone minime qui va atteindre 4.45€/MWh en 2016, soit moins de 10% du prix du gaz (hors taxes). La CSPE est de 16.5€/MWh cette année, elle atteindra donc 22.5€/MWh en 2016 soit probablement plus de 20% du prix hors taxes de l'électricité. Autrement dit, l'expansion des renouvelables décourage l'emploi d'une source peu carbonée comme l'électricité française (environ 50g de CO₂ par kWh) en faveur de l'emploi d'un combustible fossile comme le gaz naturel (environ 200g de CO₂ par kWh). L'absence de contrôle des coûts est un encouragement à émettre plus de CO₂, à rebours de tous les objectifs proclamés.

Pour conclure, le manque de dispositions visant à contrôler les coûts dus aux énergies renouvelables, notamment électriques, me semble un pur scandale. Alors que la ministre proclame urbi et orbi que son projet de loi va rapporter de l'argent, qu'elle veut faire baisser les émissions de CO₂, elle acte en approuvant des projets hors de prix et en ne prenant aucune autre mesure des incitations financières exactement inverses. Au fond, c'est significatif des buts de ce projet de loi: il ne s'agit pas tellement de développer au maximum les énergies renouvelables pour un prix raisonnable et de réduire les émissions de CO₂ par ce biais, mais d'en construire pour elles-mêmes, pour des qualités qu'on leur donne a priori, parce que cela va dans le sens de l'idéologie dominante au PS et surtout chez leur allié les Verts.

29 septembre 2014

Vers des rénovations obligatoires

Le projet de loi sur l'énergie de ce quinquennat va être étudié à l'assemblée dans l'hémicycle à partir de ce mercredi 1er octobre. Le projet original est passé en commission où plus de 2000 amendements ont été étudiés pour arriver à la version approuvée par la commission parlementaire sur le sujet. Pour l'occasion, Ségolène Royal a fait un passage à la radio ce dimanche pour défendre cette loi.

J'écrirai peut-être d'autres articles sur le sujet de ce projet de loi dans les prochains jours. Pour commencer, cet article porte sur l'article 5, qui modifie l'article de loi qui permet au gouvernement d’édicter la règlementation thermique. La nouvelle rédaction va donner pouvoir à l'état d'édicter l'obligation d'effectuer des travaux d'isolation lorsqu'on ravale une façade ou rénove une toiture.

Ce faisant, on s'engage de plus en plus vers un régime de rénovations obligatoires. C'est clairement une idée qui fait son chemin. C'est par exemple ce que soutient cette vidéo (The Shift Project): il est clairement proposé dans cette conférence d'obliger à faire des travaux d'isolation à la vente de certains logements. C'est aussi ce qui transparaît dans le paragraphe sur le bâtiment de ce billet d'Arnaud Gossement, avocat spécialisé dans ce types de questions énergétiques.

À mon sens, cette idée est à double tranchant. Dans le meilleur des cas, elle peut effectivement atteindre son but d'accélérer le rythme de rénovation des bâtiments. Dans le pire des cas, elle peut freiner d'autres travaux — ceux qu'on veut lier à des travaux d'isolation — ou renforcer les blocages sur le marché immobilier, en agrandissant la différence entre la somme reçue par le vendeur et celle payée par l'acheteur. Le blocage peut s'opérer de plusieurs façons:

  1. La plus immédiate est celle du coût: en liant des actes qui n'étaient pas a priori liés jusque là, on impose une dépense supplémentaire à des gens qui n'en ont pas forcément les moyens ou l'envie. Une réponse très simple est alors de ne pas faire de travaux ou de faire des travaux qui ne tombent pas sous le coup des obligations. Par exemple, dans le cas d'une rénovation de toiture, on peut décider de ne plus faire que remplacer les ardoises ou les tuiles en trop mauvais état pour éviter l'obligation d'isolation imposée en cas de rénovation complète.
  2. Une autre est qu'il n'est pas évident que le coût de ces travaux imposés puissent être répercutés sur les locataires: on renforce donc la faiblesse des rendements locatifs en France … ce qui a normalement pour contrecoup de moindres dépenses d'entretien ou d'amélioration.
  3. La plus insidieuse est qu'on va vers un système normatif où il va falloir se justifier. Une justification a toujours un coût. De plus la normalisation de ces travaux peut les complexifier notablement. Pour en revenir à mon billet précédent, entre la règlementation thermique de 2005 et celle de 2012, il y a eu une multiplication par 5 de la longueur de la norme.

Sur une note plus polémique, ce type d'article contredit aussi directement les propos de Ségolène Royal lors de son passage radio où elle a souvent affirmé que les économies d'énergie imposées par cette loi allaient rapporter de l'argent. Pourquoi imposer aux gens des rénovations par la loi, si elles sont véritablement rentables pour eux? Dans ce cas, édicter des normes peut se révéler totalement contreproductif en les obligeant à se justifier de ce qu'ils auraient fait naturellement. Au contraire, de tels articles de loi montrent que les prix de l'énergie ne sont pas suffisamment élevés pour justifier d'investir fortement pour réaliser des économies d'énergie. Les travaux visés sont toutefois ceux qui sont le plus proches de la rentabilité, voire déjà rentables aux prix actuels: une étude de l'UFE de 2012, le lobby des électriciens, montrait que l'isolation des combles et l'isolation par l'extérieur avaient au moins des taux de rentabilité positifs dans la plupart des cas.

Pour conclure, je suis partagé sur ce genre d'articles de loi: d'un côté ils sont relativement limités dans leurs conséquences immédiates et concernent des rénovations raisonnables, mais de l'autre la pente sur laquelle le gouvernement s'engage est très glissante. Ces obligations de rénovations peut d'abord se traduire par moins de rénovations. Mais la mesure peut rencontrer un succès certain et la tentation deviendra grande pour l'utiliser pour forcer toute sortes de travaux, nettement plus loin de la rentabilité. On aurait alors une réglementation qui aurait pour effet de freiner les rénovation à cause de l'obligation d'effectuer des travaux très loin du seuil de rentabilité et qui deviendrait sans doute aussi de plus en plus tatillonne pour parer à ceux qui tenteraient de la contourner. De plus, pour les locations, il faut accepter que les investissements se traduisent par une hausse des loyers, ce qui est tout sauf assuré!

8 septembre 2014

Quelques éléments sur les débats immobiliers

Hier, Verel signalait la publication par le Monde daté de vendredi 5 d'une page de tribunes consacrées aux débats sur l'immobilier et le changement de direction du gouvernement en la matière. N'étant pas abonné, je n'avais accès qu'à la tribune de Cécile Duflot, ancien ministre du logement, etc. Cela n'étonnera personne que je sois en désaccord avec elle et que je trouve la défense de son bilan absolument renversante.

Une des tribunes relevait que les investisseurs institutionnels avaient fui le marché locatif des logements et une autre, écrite par un PDG du secteur du BTP, relevait l'avalanche de normes nouvelles. Ces deux points sont importants: ils expliquent une partie des affres français du logement et pourquoi certaines mesures de la loi ALUR étaient néfastes.

Le faible rendement financier de l'investissement en logements

Contrairement à Cécile Duflot, je ne pense pas que l'obsession de la rente (soit) l'ennemie de la production de logement et soit à l'origine des problèmes français du logement — en fait des grandes villes françaises. En effet, les obsédés de la rente seraient sans doute très tentés d'investir dans des logement pour en tirer encore plus de rentes si le rendement était bon. Inversement, si le rendement est franchement mauvais, il n'y a guère d'alternative que les associations philanthropiques ou les subventions. Or, tout pointe vers une dégradation des rendements locatifs depuis le début des années 2000.

Sur le site du ministère du logement, on trouve des données rassemblées par Jacques Friggit qui étudie le secteur du logement depuis longtemps déjà. On peut donc trouver parmi ces données le graphe suivant qui montre que le prix d'achat d'un logement a nettement plus augmenté que les loyers. rdt_locatif_fr.jpg En conséquence, les investisseurs institutionnels ont fui, comme on en a eu des échos anecdotiques, sous la forme de l'émoi face aux ventes à la découpe qui engendré une loi en la matière pour que les occupants du logement bénéficient de tarifs préférentiels. Cela dit, il reste des logements possédés par des investisseurs institutionnels. Pour connaître le différentiel de rendement, on peut consulter des documents de foncières cotées en bourse. Comme elles sont tenues de valoriser leur patrimoine au prix du marché, on peut connaître le rendement. Il se trouve que la place de Paris compte un exemple de foncière, dotée d'une filiale spécialisée dans les logements, fort utile. La foncière mère a publié une présentation sur ses comptes semestriels 2014 où on trouve p23 le tableau ci-dessous. rdt_cptes_FDR_2014S1.jpg Pour la filiale dont le patrimoine français est principalement concentré à Paris, j'ai pris les comptes de 2013 (p11): rdt_cptes_FDL_2013.jpg

À la vue de ces chiffres, il n'est pas bien difficile de comprendre pourquoi les institutionnels ont fui: après tout s'ils peuvent obtenir de bons rendements, ils veulent bien supporter des tracas administratifs. Ce qui veut dire en passant que le coût de ces derniers sont reportés sur les locataires. Mais s'il y a un rendement bien supérieur dans une activité connexe où le marché est moins régulé, pourquoi se fatiguer?

Cela montre aussi l'inanité de la comparaison avec l'Allemagne sur le contrôle des loyers. En Allemagne, les prix du m² semblent proches de 1000€ dans de nombreuses villes. Pas étonnant dans ces conditions qu'on puisse à la fois avoir de forts rendements locatifs et des loyers bas. Il est aussi peu surprenant que le contrôle des loyers n'y soit pas vu comme une contrainte: avec des rendements au-delà de 6%/an brut, il n'y a pas de difficultés à trouver des preneurs. À l'inverse, en France, les rendements sont déjà bas, surtout à Paris, ce qui veut dire que plafonner les loyers mène à une baisse de l'activité de construction et surtout un moindre entretien des immeubles, d'où à terme un parc de logements à louer qui se dégrade.

Enfin, l'effondrement des rendements n'est pas sans poser de questions. La première approche est de considérer que c'est une situation passagère — c'est la position de Jacques Friggit si on lit ses 200+ planches — et qu'au fur et à mesure, les prix à l'achat reviendront sur leur moyenne de long terme. L'autre approche est de considérer que la situation va perdurer — ce que je pense. Les politiques menées ont combiné restriction du foncier et empêchements divers à rallier les centre-villes. Il faudrait le vérifier, mais on a dû assister à une éviction des locataires au profit des propriétaires-résidents dans le centre de villes comme Paris.

Les normes

Étant donné la situation actuelle de prix élevés, le gouvernement a tout intérêt à ne pas augmenter les prix de construction via une inflation normative. En effet, si les prix de la construction restent contenus, cela place une limite à l'inflation des prix immobiliers dans leur ensemble. Si les prix montent trop, on aboutit à un surcroît de construction. Or, la démarche suivie depuis quelques années va en sens inverse.

Un premier exemple est celui de la réglementation thermique qui vise à limiter les consommations d'énergie pour le chauffage. Pour la RT2005, l'arrêté technique comptait 28 pages, le manuel pour calculer les performances — plus difficile à trouver — comptait 192 pages. Pour la RT 2012, il y a maintenant 2 arrêtés techniques, celui qui concerne les logements compte 42 pages. Quant au manuel, c'est un beau bébé de 1379 pages. Certes, cette évaluation «au kilo de papier» n'est pas forcément proportionnelle à l'évolution de la complexité de la norme, mais on peut tout de même supposer que si on a besoin d'un manuel 5 fois plus long, c'est qu'il y a plus de choses à mesurer, plus de choses à prendre en compte, plus de justifications à donner, etc. Bref, non seulement les performances demandées ont augmenté, mais il y a un surcroît très notable de complexité et sans doute de justifications.

Un deuxième exemple est celui de la réglementation pour l'accessibilité aux handicapés. Tous les logements neufs doivent s'y conformer. Une nouvelle fois le ministère du logement met à notre disposition un site expliquant en quoi consistent les aménagements. Pour essayer d'évaluer l'impact sur le prix à confort équivalent, regardons l'effet sur un 2-pièces. Les 2-pièces neufs ont souvent une surface d'environ 42m². La circulaire nous dit qu'il faut laisser dans les WC, en plus de l'espace habituel, 1.30x0.80m² sur le côté de la cuvette — soit un agrandissement du cabinet d'un peu plus de 1m². Dans la salle de bains, il faut laisser libre un disque de 1.5mètre de diamètre: du fait de l'aménagement habituel, il s'agit d'un carré libre de 2.25m². Dans mon appartement — un 2-pièces — ce dégagement mesure environ 1m². On voit qu'il y a sans doute une perte de surface de l'ordre de 2m² sur l'appartement, soit environ 5% de la surface. En d'autres termes, l'immobilier est renchéri de 5% pour les habitants de 2-pièces. On peut aussi quantifier cela en termes financiers: avec du neuf à un peu plus de 4000€/m², on arrive à un surcoût de 8k€ …

Ce n'est pas que ces normes soient mauvaises en elles-mêmes: c'est même plutôt l'inverse, elles partent d'une bonne intention. Cependant, le résultat est un renchérissement du prix des logements. Pour les locations, ce surcoût doit se répercuter dans les loyers, faute de quoi le marché locatif ne voit pas de nouveau logements — hors subventions. On peut espérer des gains de productivité dans le secteur du BTP, mais c'est plutôt l'inverse qui s'est produit: le coût de la construction s'est élevé ces dernières années. Comme le notait Étienne Wasmer dans une interview après avoir remis son rapport sur l'immobilier locatif, il y a sans doute un problème de concurrence. Il n'est cependant pas dit que ce problème puisse se régler rapidement.

Le constat reste cependant qu'il y a sans doute un grand nombre de normes qui sont venues s'ajouter au cours des 15 dernières années et que la tendance est à la continuation de l'inflation normative: à titre d'exemple, le prochain projet de loi sur l'énergie risque d'être un grand pourvoyeur. Dans ce domaine il faut choisir: soit des normes tatillonnes et des prix élevés, soit des normes plus simples et un espoir de baisse (relative) des prix.

Pour conclure, dans le domaine de l'immobilier comme dans d'autres, il faut choisir et les bons sentiments ne font pas de bonne politique. Si les rendements locatifs sont bas, il y aura forcément une pression à la hausse sur les loyers et à la baisse sur les frais d'entretien. Une autre alternative est l'éviction progressive des locataires au profit de propriétaires-résidents. Mettre en œuvre un contrôle des loyers en France, alors que les rendements locatifs y sont bas aurait un impact à long terme néfaste. En Allemagne, où les rendements sont élevés, le contrôle des loyers ne sert à rien: il n'y a pas vraiment de pression sur les prix! Si on veut que les prix baissent ou au moins se stabilisent en France, il faudrait construire plus dans des zones déjà densément peuplées ou alors permettre de rallier le centre plus rapidement: aucune des 2 politiques n'a été suivie. Sur les normes, elles ne sont sans doute pas responsables à elles seules des problèmes du logement en France, mais à force d'empiler des normes qui renchérissent les logements neufs, personne ne peut plus en acheter.

1 septembre 2014

Le mirage de l'hydrogène

L'hydrogène est souvent présenté comme potentiel candidat pour des systèmes de stockage de l'énergie. L'idée est de produire de l'hydrogène par électrolyse à l'aide d'électricité «excédentaire» et de stocker ce gaz pour s'en servir pour le chauffage — par combustion directe —, pour servir de carburant dans des automobiles — en général, via des piles à combustible — ou encore pour produire de nouveau de l'électricité. Tous les projets sont toutefois restés à l'état de prototype jusqu'à présent.

J'avais abordé suite au rapport de l'OPECST de 2012 sur l'avenir de la filière nucléaire — et plus généralement sur l'avenir de la production d'électricité — les problèmes que posaient la transformation d'électricité en stock d'énergie utilisable plus tard. Au delà des problèmes techniques encore à résoudre, se pose un problème de rentabilité économique: pour que le stockage soit rentable, il faut l'installation ne soit pas trop chère à construire et à faire fonctionner et que la durée de fonctionnement soit élevée. Une note récente du Commissariat à la prospective vient de paraître et fournit quelques données qui vont dans le sens de l'extrême difficulté pour atteindre le seuil de rentabilité. À la lecture de la note, on se dit que l'utilisation de l'hydrogène comme vecteur énergétique relève du mirage: toujours visible à l'horizon, mais dont on ne se rapproche jamais malgré une longue marche dans sa direction.

Le dihydrogène est la molécule qui permet de récupérer le plus d'énergie par combustion rapporté à sa masse. C'est ce qui lui vaut une bonne image quand on parle de stockage de l'énergie. Mais il souffre en fait de graves tares:

  1. Pour un gaz, ce n'est pas tant l'énergie par unité de masse qui compte, mais la quantité d'énergie par unité de volume. En effet, c'est plutôt le volume du réservoir qui est limitant. Or la formule des gaz parfaits nous dit que le volume est proportionnel au nombre de molécules. Ce qui fait qu'au total, le contenu énergétique du dihydrogène est d'environ 3.5 kWh/Nm³ contre environ 11 kWh/Nm³ pour le méthane, principal constituant du gaz naturel. Le dihydrogène est donc un vecteur moins concentré en énergie que ce dont on a l'habitude aujourd'hui
  2. Il n'est pas envisageable de le liquéfier à grande échelle du fait de la température très basse de liquéfaction (-253°C) et aussi d'un gag dû à un phénomène de mécanique quantique
  3. Même s'il est plutôt moins détonnant que le méthane (contrairement à ce qui est dit dans la note), le dihydrogène fuit nettement plus facilement de son contenant. Cela le rend nettement plus dangereux que le méthane. Ce dernier est accompagné d'un gaz odorant dont les propriétés sont proches et qui fuit en même temps que le méthane. C'est impossible pour le dihydrogène qui peut fuir par des micro-fissures. Détecter toutes les fuites est donc nettement plus difficile.
  4. Bien sûr, le dihydrogène n'existe pas — ou quasiment — à l'état naturel, il faut donc le produire. Actuellement, il est principalement fabriqué par vaporeformage. Le but étant aussi d'éviter d'émettre du CO₂, il faut se reporter sur l'électrolyse, nettement plus gourmande en énergie. Cela nécessite donc de construire des usines et de payer l'énergie. Le coût va donc dépendre aussi du taux d'utilisation de l'usine et du rendement du procédé. Il se pose aussi des difficultés pour se procurer du platine en grande quantité pour servir de catalyseur.

La plupart de ces critiques peuvent trouver des réponses techniques, mais elles ont pour la plupart toutes un coût. Si on parle de plus en plus de remplacer le platine par des matériaux plus communs (exemple), les autres solutions sont de compresser l'hydrogène — on estime que compresser à 700 bars coûte 20% du contenu énergétique —, de construire des réservoirs en matériaux composites — donc des coûts de développement — etc. La critique la plus difficilement contournable est donc celle du coût de production. La note fournit des données chiffrées qui laissent peu d'espoir. couts_H2.jpg

Comme on peut le voir ci-dessus, dans tous les cas, l'hydrogène produit est très cher. Les 2 colonnes de gauche représentent à peut près les conditions actuelles de production, la colonne 6, le meilleur cas espéré à l'avenir: un électrolyseur qui coûte à l'achat 800€/kW installé qui tourne presqu'en permanence (7000h par an) et qui paie son électricité 60€/MWh. Dans ce cas, l'hydrogène coûte 94€/MWh thermiques, à comparer à un prix du gaz d'environ 20€/MWh en Europe.
La colonne 5 donne le coût pour un électrolyseur qui serait utilisé pour éponger d'éventuels excédents d'électricité, provenant de sources d'électricité intermittentes comme l'éolien ou le solaire. Dans ce cas, l'électricité serait gratuite, mais on ne peut pas imaginer que ce soit un phénomène courant durant l'année à cause du faible facteur de charge des éoliennes et des panneaux solaire et parce que les producteurs auraient du mal à vivre avec une large part de leur production payée 0€. Mais dans ce cas, on constate que le coût de production est de presque 270€/MWh: le coût est alors déterminé par les frais fixes de l'électrolyseur qu'il faut amortir sur une faible durée d'utilisation.
On voit aussi que la production d'électricité par ce biais est reservée aux cas d'urgence du fait d'un coût qui devient totalement prohibitif, un MWh électrique coûterait de l'ordre de 2 à 3 fois le MWh thermique.

Comme on le voit, pour que l'hydrogène devienne un vecteur énergétique crédible, il faut à la fois que les obstacles technologiques soient surmontés et que les prix baissent énormément. Si les électrolyseurs coûtent actuellement 2000€/kW, il faudrait qu'ils coûtent entre 100 et 200€/kW pour que les coûts deviennent à peu près raisonnables. Comme on voit qu'en plus l'hydrogène est loin d'être le vecteur énergétique le plus pratique, cela veut dire qu'il ne sera utilisé que si on ne peut faire autrement. On peut donc se dire que la situation qui a prévalu jusqu'ici se perpétuera: l'hydrogène continuera d'être évoqué comme prometteur pour quelques dizaines d'années encore.

24 août 2014

Du bilan de Cécile Duflot

Suite aux municipales et au remaniement qui a suivi, Cécile Duflot a choisi de ne pas rester au gouvernement. À l'époque, on comprenait déjà que c'était par désaccord sur la politique à mener par Manuel Valls, ainsi que dans une certaine mesure avec la politique qui avait été menée par le gouvernement Ayrault dont elle faisait partie. Depuis, elle a écrit un livre où il ressort du titre et des «bonnes feuilles» publiées dans la presse qu'elle est déçue de la politique menée et que son passage au gouvernement a été une désillusion. Cécile Duflot défend aussi régulièrement dans les médias son action de ministre en général, la loi qu'elle a fait voter en particulier (dite ALUR).

La parution de son livre et la rentrée qui s'annonce sont l'occasion pour elle de s'exprimer de nouveau, par exemple dans une interview au Monde. Dans la réponse à la deuxième question, elle y défend son bilan personnel et la politique qu'elle comptait mener. Il s'avère cependant que ses propos ne correspondent pas à la réalité.

  1. Elle commence par louer le contrôle des loyers au prétexte que c'est un engagement de campagne. Elle oppose aussi cette mesure aux solutions d'avant: elle prétend donc que le contrôle des loyers est une idée neuve. Bien sûr, il n'en est rien: la chose est suffisamment connue pour qu'il y ait consensus parmi les économistes sur sa nocivité. C'est ainsi que Paul Krugman en a fait le sujet d'une de ses premières tribunes. Le contrôle des loyers n'est pas non plus un inconnu en France, puisqu'il a été utilisé durant l'Entre-deux-guerres. Il semble qu'avant la 2e Guerre Mondiale, on estimait le manque de logements à 2 millions d'unités et que l'état général du parc de logements était désastreux. Les résultats à attendre du contrôle des loyers sont donc nocifs, surtout pour ceux qui cherchent à se loger. Que ce serait respecter un engagement de campagne ne signifie pas pour autant que les Français ne seraient pas déçus!
  2. Pour Cécile Duflot, il fallait arrêter de doper artificiellement l'immobilier à coups de défiscalisation. Il s'avère que Cécile Duflot a donné son nom à un dispositif de défiscalisation, créé par la loi de finances initiale pour 2013, la première du gouvernement Ayrault. Ce dispositif remplace le défunt Scellier. Il est donc utile des les comparer. Pour faire rentrer plus d'argent, à la fin de la mandature précédente, le Scellier ne permettait plus que de défalquer 13% de la valeur du logement sur 9 ans et 21% sur 15 ans. Le Duflot permet, lui, de défalquer 18% sur 9 ans! Certes, les plafonds de loyers ont été abaissés. Mais il est difficile d'y voir la fin du dopage par la défiscalisation! Si vraiment elle voulait la fin des défiscalisations, elle aurait pu au moins s'arranger pour que le dispositif ne porte pas son nom.
  3. Elle finit sa réponse en affirmant que le problème du logement cher est un problème spécifiquement français. Il s'avère en fait que la situation britannique est encore pire. Le magazine britannique The Economist — que, certes, Cécile Duflot ne lit sans doute pas — publie régulièrement des articles et des infographies sur ce sujet. La cause de ces prix élevés ne fait pas de doute pour The Economist: expansion démographique associée à trop de réglementations et à un zonage qui empêche de construire. Des causes qu'on entend souvent nommées pour expliquer la situation du marché immobilier français. Sous l'égide de Cécile Duflot, la loi ALUR a été votée, on dit qu'elle détient le record de longueur sous la Ve République. On conçoit donc qu'elle ne partage pas ces conclusions.

Depuis le départ de Cécile Duflot, les déclarations gouvernementales se sont succédé pour essayer d'amoindrir l'impact de la loi ALUR. C'est ainsi que Sylvia Pinel a annoncé peu ou prou que certains pans de la loi ne seraient pas appliqués et qu'on allait réduire le nombre de documents demandés lors de l'achat d'un appartement en copropriété. Ce changement d'attitude fait suite à la matérialisation d'une baisse d'activité dans le secteur de la construction. Ce revirement, moins de 6 mois après la promulgation de la loi, ne laisse pas d'étonner: les effets néfastes de la loi ALUR étaient prévisibles et dénoncés depuis l'annonce des lignes directrices. Il montre qu'en fait, de nombreuses personnes au PS pensaient que cette loi allait avoir des effets néfastes, c'est d'ailleurs l'impression qui se dégage à la lecture de certains articles: François Hollande ne paraissait pas bien convaincu par le contrôle des loyers, par exemple. Certaines mesures prévues à l'origine, comme la garantie universelle des loyers, ont vu leur portée être amoindrie de peur des conséquences financières. Il est dommage que les éventuels opposants internes n'aient pas été plus entendus…

Ces péripéties me font penser que la campagne présidentielle n'a fait que renforcer certains illusions au sein de la gauche. Que l'idée qu'un surcroît de règlementations dans le domaine de l'immobilier, comme l'instauration d'un contrôle des loyers, puisse permettre de résoudre les problèmes de manque d'offre n'ait pas été contestée, alors que l'histoire montre le contraire, m'étonne toujours. Plus généralement, cela montre bien que bon nombre de choses promises par le candidat Hollande ne pouvaient se réaliser, parce qu'elles étaient trop irréalistes, et que si jamais certaines promesses étaient honorées, des effets néfastes apparaîtraient rapidement. Je dois aussi admettre ma surprise devant l'aplomb de la défense de Cécile Duflot: elle affirme des choses dont il est facile de vérifier qu'elle sont fausses. Sa défense de son bilan est renversante: soit elle a fait le contraire de ce qu'elle voulait — sur la défiscalisation par exemple —, soit ça n'avait aucune chance de marcher — comme le contrôle des loyers.

1 août 2014

Lobby

Greenpeace et des organisations aux idéologies similaires ont publié dernièrement une lettre ouverte appelant le futur président de la Commission Européenne, Jean-Claude Juncker, à ne pas nommer un nouveau conseiller principal sur les questions scientifiques, création de son prédécesseur, José-Manuel Barroso. Une organisation «rationaliste», Sense About Science, a publié peu après une lettre ouverte en sens opposé, demandant le maintien du poste. Suite à la publication de la lettre, Greenpeace a été accusée d'être une organisation anti-science et s'est alors fendu d'une réponse. Pour ma part, je pense cet épisode ne montre aucunement que Greenpeace soit anti-science, mais qu'elle considère la science comme un outil comme un autre pour parvenir à ses fins: imposer son idéologie dans les décisions politiques.

Pour commencer, le motif de la lettre de Greenpeace est clair: Anne Glover a déplu par ses déclarations sur les OGMs. Même si elle n'a fait que reprendre les conclusions de rapports publiés par l'UE ou des académies des sciences européennes, voire américaines , etc., cela ne peut aller qu'à l'encontre des positions des associations environnementales qui font campagne depuis bientôt 20 ans contre les plantes génétiquement modifiées. Les autres arguments sont creux: aucun conseiller de Barroso ne doit publier l'ensemble des demandes d'avis qu'il a reçues ou les notes qu'il a envoyé en retour. La seule obligation en la matière pour les conseillers est de rendre des comptes sur la compétence et l'honnêteté a priori. L'existence de la déclaration d'intérêts d'Anne Glover n'a d'ailleurs pas empêché les accusations diffamatoires à son encontre.

Cependant, que Greenpeace et les autres signataires veulent remplacer quelqu'un qui leur a déplu malgré avoir rempli fidèlement sa mission de dire où se situait le consensus scientifique ne veut pas dire qu'ils sont «anti-science». En fait, pour de telles organisations, l'important est de faire triompher leur idéologie: elles ne sont pas basées sur le désir de répandre le savoir et les découvertes scientifiques mais sur la volonté des membres d'infléchir le cours des choses sur les thèmes qui leur sont chers. Dans ce cadre, la science est un outil comme un autre, qui peut se révéler fort utile comme il peut nuire. Quand la science apporte des éléments favorables à la position d'une telle association, elle s'en prévaut; si au contraire, la science tend à la contredire, il faut l'ignorer, éviter que ça ne s'ébruite, voire continuer à susciter des résultats inverses pour faire croire à la continuation d'un controverse. Cela apparaît dans les justifications de Greenpeace: ainsi se prévalent-ils de preuves accablantes sur le sujet du réchauffement climatique, mais seulement de préoccupations sur les OGMs et pour cause: on l'a vu le consensus scientifique sur la question est l'exact contraire.

Ce qui peut étonner, c'est la place centrale que semble donner Greenpeace dans son action à la science: Greenpeace cherche souvent à se prévaloir de résultats scientifiques. C'est sans doute lié à l'histoire du mouvement écologiste, fondé par des gens éduqués et déterminés, mais peu nombreux. Leur stratégie a toujours été la même: se prévaloir d'une supériorité morale permettant de recourir à des actions directes et un discours émotionnel mais, en parallèle, recourir à des arguments d'apparence scientifique pour tenir aussi un discours apparemment raisonnable. L'idéologie de Greenpeace n'est pas de promouvoir un gouvernement basé sur des conclusions scientifiques, mais plus prosaïquement, c'est l'opposition au nucléaire, à l'agriculture industrielle et plus généralement, la conviction que l'industrie en général est nuisible. Les tenants de ces techniques et de l'industrie ont souvent un discours technique ou basé sur des prémisses scientifiques, le discours de Greenpeace est donc aussi une réponse à ce fait et dénote une volonté de ne laisser aucun argument sans réponse.

Le succès de cette organisation est aussi une grande illustration des réalités de la politique. Car voilà une organisation qui ne fait que prêcher des valeurs positives comme la paix, l'humanité mais qui n'hésite pas à faire le contraire. Voilà une organisation officiellement non violente qui n'hésite à approuver des destructions de cultures ou l'abordage de navires. Une organisation qui prône l'amélioration des conditions de vie des pauvres s'oppose au riz doré, une potentielle solution à la déficience en vitamine A dans les régions pauvres de l'Asie. On pourrait multiplier les exemples à l'infini, mais Greenpeace est remarquable par sa capacité à ne rien dire qui ne respire la bienveillance, l'intégrité et l'humanisme tout en pouvant démontrer les qualités exactement contraires sans que trop de plaintes ne s'élèvent. En fait, c'est là le lobby rêvé: bénéficiant d'une présomption d'honnêteté irréfragable, maîtrisant un langage respirant la bonté — cette lettre ne fait pas exception — mais capable de déployer les qualités exactement inverses pour parvenir à ses fins sans que cela lui nuise. Ce sont des qualités indispensables en politique, mais on est là très éloigné de la science qui, au fond, n'est qu'un outil comme un autre pour imposer une idéologie.

5 juillet 2014

Échéances

Ce dimanche, les Échos ont publié un article sur les perspectives financières sinistres du régime de retraites complémentaires des cadres, l'AGIRC. On y apprenait que les réserves de ce régime seront réduites à néant d'ici fin 2018, malgré les modifications intervenues l'année dernière. En regardant ce qui était publié à l'époque, on constate que la fin des réserves avant la réforme était attendue … à la même date ou à peu près. Ce qui a changé? Sans doute les scénarios pris en compte. Le COR avait pris en début d'année dernière des hypothèses très optimistes: le chômage revenait à 7% de la population active d'ici à 2020, une situation qui apparaît hors d'atteinte aujourd'hui. L'article des Échos nous informe que dans le nouveau scénario, le chômage reviendrait à 7% de la population active en … 2030, voire 2035, ce qui paraît nettement plus réaliste.

Le déficit de l'AGIRC s'élevait à 1.2G€ l'an dernier et l'AGIRC annonce disposer de 9G€ de réserves. Ce dernier montant est étonnant, puisque fin 2012, il ne disait disposer que de 6.9G€ de réserves à moyen et long termes. Il est possible que l'AGIRC ne puisse pas épuiser toutes ses réserves: ne pouvant emprunter, il doit constamment disposer d'une trésorerie pour honorer ses versements. Il est aussi possible que le déficit augmente dans le futur si rien n'est fait: la baisse suggérée dans l'article de plus de 10% des pensions servies laisse entendre que le déficit serait de plus de 2G€ en 2019: l'AGIRC verse en effet aujourd'hui 21.7G€ de pensions chaque année.

Cette annonce d'une possibilité d'une baisse de plus de 10% des pensions servies montre aussi que les prévisions utilisées jusque là étaient bien trop optimistes. Le 11ᵉ rapport du COR donnait un déficit à politique inchangée de l'ordre de 6 à 7% des pensions versées (tableau p115). Mais comme on l'a remarqué plus haut, cela supposait une croissance du PIB bien plus forte et un retour à taux de chômage de 7% en 2020. Autrement dit, les mesures prises l'an dernier étaient basées sur un scénario déjà caduc. Cela est l'habitude en la matière, mais cette fois-ci les échéances sont proches: 5 ans. Comme les données démographiques sont connues, il ne reste plus de leviers disponibles: comme le remarque un syndicaliste FO à la fin de l'article, il va être très difficile d'éviter l'obstacle.

Ainsi, même si le problème était connu depuis longtemps — le premier rapport faisant autorité sur le problème des retraites ayant été remis à Michel Rocard en 1991 —, il s'avère qu'à cause de prévisions toujours trop optimistes, la mesure que tout le monde voulait éviter, la baisse des retraites faute de fonds pour les payer, se profile cette fois pour de bon. Évidemment, on peut immédiatement penser l'éviter par des hausses d'impôts, mais il faudrait alors diminuer le salaire des actifs, ce qui n'est pas plus souhaitable. Ce n'est pas une surprise que ce soit l'AGIRC, le régime complémentaire le plus fragile de par sa démographie très défavorable, qui soit le premier concerné. Mais cela annonce que le début d'une période nettement plus difficile pour les régimes de retraites, où toute erreur se traduira par un impact visible immédiatement sur le niveau de vie soit des retraités — via des baisses de pensions — soit des actifs — via des hausses d'impôts. Même si les prestations de l'AGIRC ne représentent certes qu'une partie de la retraite des cadres, qu'une baisse de 10% pensions servies soit envisagée montre aussi le grave échec du volontarisme économique qui se révèle être ce qu'il est vraiment en la matière: une manière de renvoyer les problèmes à plus tard. Malheureusement, pour la retraite des cadres, «plus tard» c'est désormais «bientôt».

30 juin 2014

Redite

Une commission d'enquête a été organisée sur les coûts du nucléaire, avec pour rapporteur Denis Baupin, bien connu pour son opposition à cette technologie. Une commission au thème extraordinairement similaire avait été organisée au Sénat, il y a deux ans. Le résultat relevait de la la pure idéologie écologiste, s'appuyant sur des tactiques d'enfumage et n'hésitant pas à pousser le scénario où il y avait le plus d'énergies fossiles. Vue l'identité du rapporteur, on pouvait craindre une redite et on n'a pas été déçu.

Quelques mots d'abord sur le style: le rapport semble constitué principalement de citations extraites des auditions de la commission, entrecoupés par le texte du rapporteur. Il compte relativement peu de tableaux et de données comparé au rapport de la commission sénatoriale d'il y a 2 ans. On en est donc réduit à devoir faire confiance — ou pas — aux choix de Denis Baupin pour ses citations et le sens qu'il veut bien leur donner. En effet, dans la masse de propos tenus, il est certainement possible de choisir les citations pour écrire soit un rapport chantant les louanges du nucléaire, soit un rapport vouant cette technique aux gémonies. Pour savoir quelle option a été choisie, on peut se référer au passage sur le scénario énergétique qui a la préférence de Denis Baupin et regarder si l'objectivité est au rendez-vous.

Avant d'aborder le scénario qui a sa préférence, Denis Baupin a expédié le scénario prôné par EDF, certes peu crédible mais qui a le mérite pour ses dirigeants de ne pas aller frontalement à l'encontre de l'opinion proclamée de la tutelle politique. Pour le dire autrement, Denis Baupin écrit que ce scénario n'est pas probable. Et c'est donc tout naturellement qu'il titre:

B. APPROCHE 2 : UNE BAISSE DE LA DEMANDE ÉNERGÉTIQUE EST POSSIBLE, CE QUI REND INUTILE LA PROLONGATION DE L’ENSEMBLE DU PARC NUCLÉAIRE

Comme on va le voir, ce scénario n'est pas plus probable à l'heure actuelle que celui d'EDF. Autrement dit, n'ont droit à des développements que des scénarios possibles mais aucun de ceux qui apparaissent comme les plus probables. Après avoir cité un intervenant se prévalant de pouvoir déterminer le service attendu et les besoins ainsi que les consommations superfétatoires ou le gaspillage, comme au bon vieux temps du Gosplan, et un autre intervenant déplorant le faible nombre de rapports sur les économies d'énergie comparé aux rapports sur le nucléaire — tout en cherchant à démontrer sur son site l'inutilité des réacteurs nucléaires, on passe aux choses sérieuses et on aborde le fameux exemple allemand.

L’exemple allemand montre qu’une forte diminution de la consommation est possible si l’on met en place les instruments adéquats. Une étude comparative des systèmes énergétiques français et allemand publiée en 2011 par l’IDDRI et l’association Global Chance a montré que la consommation d’électricité « spécifique » – incluant les appareils électriques et l’éclairage, mais excluant le chauffage et le chauffe-eau – par habitant était au même niveau dans les deux pays en 1998. À cette date est instaurée une taxe écologique sur l’électricité dont les recettes sont affectées à l’abaissement des charges sociales sur le travail. L’Allemagne a ensuite connu une augmentation régulière des tarifs de l’électricité, liée à plusieurs effets, aboutissant à un prix du kilowattheure de 27 centimes. « À partir de 2000, l’Allemagne commence à stabiliser sa consommation d’électricité spécifique par habitant dans le logement, tandis que la courbe de la consommation française continue d’évoluer de façon quasi linéaire. En 2010, la différence de la consommation par habitant est de 15 % et de 27 % par ménage Fixer un objectif raisonnable d’économie de l’ordre de 15 % n’a donc rien de scandaleux » (Bernard Laponche).

Pour voir si tout ceci est à la hauteur des enjeux, regardons l'étude en question (p69-70) où on trouve le graphe suivant: elec_specifique_de_fr.jpg

Comme le signalent les auteurs eux-mêmes, ces chiffres n'ont pas le même degré de fiabilité que les autres indicateurs utilisés dans cet article. D’autre part, on constate en Allemagne des variations parfois importantes d’une année sur l’autre alors que la consommation d’électricité spécifique est peu soumise à des variations climatiques. Il est difficile d’expliquer les renversements de tendance observés dans le cas de l’Allemagne et il faut prendre les statistiques concernant les consommations d’électricité spécifique avec prudence.

Regardons toutefois l'impact d'une diminution de 15% de la consommation d'électricité spécifique française telle qu'elle nous est présentée. En France, il y environ 65M d'habitants, une consommation de 1200kWh par an et par habitant représente donc une consommation totale annuelle de 78TWh. En 2008, selon Eurostat, la consommation totale d'électricité en France a été d'un peu moins de 433TWh. La consommation d'électricité spécifique par les ménages représente donc un peu moins de 20% de la consommation totale d'électricité. Une réduction de 15% de cette consommation représenterait donc une baisse de 3% de la consommation totale d'électricité. Même si c'était jusqu'alors un des postes de consommation les plus dynamiques en France, cela semble très insuffisant pour obtenir une forte baisse de la consommation d'électricité.

On peut aussi se demander si les données sur lesquelles se fonde Global Chance reflètent bien la réalité. Sur le site de l'association AG Energibilanzen, on peut trouver un document détaillant les consommations énergétiques des ménages. On y trouve ce tableau (p20) qui résume l'ensemble, où la consommation d'électricité spécifique est donnée par la somme des 5 dernières colonnes. elec_specifique_de_realiste_2011.jpg On voit que la consommation d'électricité spécifique est de 389.2 PJ annuels; avec une population allemande d'environ 82M d'habitants, cela donne environ 1300kWh par an et par habitant. On peut constater que c'est tout à fait comparable à la consommation française. Ce n'est pas très étonnant: dans ce domaine la consommation est déterminée par les standards appliqués aux appareils électriques, comme le montre l'exemple des États-Unis. Or, ces standards sont déterminés au niveau européen et sont de ce fait les mêmes pour la France et l'Allemagne.

Cette conclusion est d'ailleurs assez logique: en Allemagne, la quasi absence du chauffage électrique fait que l'essentiel de l'électricité consommée par les ménages est de l'électricité spécifique. Les données de l'AGEB montrent que la consommation des ménages par personne en 2011 était d'environ 1670kWh (ce qui est cohérent avec les données d'Eurostat). Autrement dit, les ordres de grandeur ne collent pas avec le graphe de Global Chance.

Denis Baupin enchaîne:

À l’arrivée, le ménage allemand paie son kWh électrique plus cher que le ménage français, mais en consomme moins, ce qui conduit à des factures du même niveau de part et d’autre du Rhin. À l’occasion du débat sur la transition énergétique (DNTE) le rapport adopté par le groupe de travail « compétitivité » avait d’ailleurs montré que la part des revenus consacrés par les ménages français et allemands à leur éclairage et à leur chauffage était exactement la même : 4,8 %.

La première affirmation est totalement fausse. Tellement que, devant la commission sénatoriale, Global Chance avait reconnu que les Allemands payaient plus par habitant que les Français. Certes, les ménages français comptent en moyenne plus de membres, mais cela ne suffit pas à combler la différence. On peut même se référer aux organismes statistiques habituels pour récupérer les données et obtenir le graphe suivant: depense_elec_fr_de.jpg On constate que l'état des choses s'est inversé entre le début des années 2000 et aujourd'hui. À cause de la forte hausse des prix de l'électricité en Allemagne, les ménages allemands ont vu leur facture pratiquement doubler. Cela a fait plus qu'effacer la différence de dépense qui existait jusque là à leur avantage du fait de la plus forte consommation française. En 2012, année froide et donc de forte consommation d'électricité par les ménages, un ménage français a consommé en moyenne presque 5600kWh alors qu'un ménage allemand n'a consommé que 3370kWh. Un tel développement montre surtout que l'électricité est un bien dont l'élasticité prix à court et moyen terme est très faible: même une forte hausse du prix ne suscite qu'une faible baisse de la consommation. Dans ces conditions, la hausse du prix se traduit directement par une hausse presque équivalente de la dépense.

Quant à la deuxième affirmation, elle n'a que peu à voir avec l'électricité. D'une part, en Allemagne, l'électricité est très peu utilisée pour le chauffage et comme on peut le constater sur la décomposition des consommations d'énergie, ce sont le gaz et le pétrole qui représentent l'essentiel des quantités consommées pour l'éclairage et le chauffage. De même, en France, l'inclusion du chauffage donne une place importante à d'autres vecteurs d'énergie que l'électricité. Une telle donnée relève donc de l'enfumage.

Après quelques considérations sur les travaux qui permettent de faire des économies d'énergie mais sans aucune considération pour les coûts de ces travaux qui les rendent non rentables aux prix actuels de l'énergie, Denis Baupin passe à l'accusé habituel des écologistes: le chauffage électrique.

3. Limiter l’utilisation de l’électricité à ses usages « nobles » ?

Les progrès de l’efficacité énergétique permettent de diminuer la consommation électrique et ouvrent ainsi une voie vers la réduction de la dimension du parc nucléaire français. Ils permettent également de corriger les défauts du système électrique français actuel, marqué par gaspillages significatifs.

D’une part, le rendement thermique des centrales nucléaire, d’environ un tiers, est très bas en comparaison des autres moyens de production. « Dans la production nucléaire actuelle, le volume d’énergie lié au rendement des centrales, sous forme de chaleur, est perdu. Il représente 830 milliards de kilowattheures, soit plus que le chauffage de tous les logements et les bâtiments tertiaires de France » (Thierry Salomon).

Cet argument est habituel chez les écologistes. Il consiste à constater que la transformation de la chaleur en travail a forcément une efficacité inférieure à 100%, sévèrement limitée par le second principe de la thermodynamique. Cependant, ceci n'a pas forcément d'importance pour les consommateurs: cette efficacité n'est qu'un des composants du coût de l'électricité et ne dit rien de la pollution engendrée. Faisons une expérience de pensée: une source d'énergie permet de produire de l’électricité très peu chère et très peu polluante mais via un procédé qui n'utilise qu'une faible part de l'énergie disponible. Faut-il s'en priver pour cette dernière raison? La réponse est clairement non.

L'électricité nucléaire a pour caractéristique d'être peu sensible au prix de l'uranium et donc à l'efficacité de conversion de la chaleur en électricité, contrairement à ses concurrents le gaz et, dans une mesure un peu moindre, le charbon. Ceux-ci sont aussi tenus par des normes anti-pollution qui rendent attractives une moindre consommation de combustible. C'est ainsi que ses sont développées les centrales à gaz à cycle combiné — qui atteignent 60% d'efficacité — et les centrales super-critiques au charbon — qui dépassent les 40%. Ces efforts sont cependant insuffisants lorsqu'on considère les problèmes climatique et d'effet de serre, par exemple.

On peut aussi constater que d'autres procédés sont comptés comme ayant une efficacité de 100%, mais uniquement parce qu'ils utilisent une source qui n'est pas directement payante. Ainsi, l'énergie éolienne a une limite physique de 60% pour la récupération du flux d'air, dont la technique permet de récupérer les trois quarts pour une efficacité de l'ordre de 45%. Les cellules photovoltaïques commercialisées ont un rendement de conversion compris entre 5% et 20%. Cela n'en fait pas pour autant un mauvais mode de production d'électricité.

D’autre part, l’utilisation massive des chauffages électriques explique que la pointe électrique française soit sans commune mesure avec celle des autres pays européens, la Norvège exceptée. « Notre scénario prévoit, par ailleurs, un glissement vers beaucoup moins de chauffage à effet Joule, qui est le problème du réseau actuel. RTE, qui vient de refaire ses calculs, a évalué la sensibilité électrotechnique à 2 400 MW par degré : autrement dit, à chaque fois qu’en hiver la température baisse d’un degré en France, il nous faut mettre en marche deux réacteurs et demi de 900 MW. Vous savez que cette sensibilité électrotechnique est une malheureuse caractéristique française : nous avons la moitié de la sensibilité électrotechnique de l’Europe. Si on baisse cette valeur-là par une politique d’efficacité énergétique, de transfert vers des usages beaucoup nobles de l’électricité et vers d’autres énergies, on retrouvera une marge de manœuvre. Dans notre scénario, nous redescendons cette consommation maximale sur l’ensemble du réseau aux alentours de 60/70 GW, donc bien en dessous des records que vous connaissez, qui sont à 110 GW » (Thierry Salomon).

Les caractéristiques françaises du mix électrique ne sont donc pas si favorables qu’annoncées, dans la mesure où l’importance de la pointe électrique requiert la mise en marche de moyens de production thermiques fortement émetteurs de gaz à effet de serre.

Mezzo voce, Denis Baupin tente d'accréditer l'idée que le chauffage électrique est plus polluant que les autres options. Comme je l'avais remarqué, il n'en est rien, au contraire, le chauffage électrique provoque relativement peu d'émission de CO₂. J'avais estimé qu'il était responsable de 15% des émissions de CO₂ dus au chauffage des logements, alors que la part de marché du chauffage électrique est autour de 33%. Denis Baupin fait ici usage d'une technique bien connue qui consiste à insister sur des évènements relativement rares — les pointes de demande — pour ignorer la situation moyenne. Cette situation moyenne est forcément bonne, puisque les émissions globales du système électrique français sont parmi les plus basses au monde rapportées à la production.

On peut certes souhaiter que les pompes à chaleur se développent: elles permettent déjà que le chauffage électrique soit pratiquement imbattable en termes d'émissions rapporté au service rendu. Cependant, cela ne dit rien quant à la proportion d'énergie nucléaire souhaitable. Après tout, les écologistes disent que c'est le chauffage électrique qui force à conserver nombre de centrales à combustible fossile. Son déclin devrait donc plutôt entraîner la diminution de la part des énergies fossiles que celle du nucléaire.

La mise au point de business models pour l’efficacité énergétique, en s’inspirant par exemple des dispositifs existant chez nos voisins, constitue néanmoins aujourd’hui une priorité pour la réalisation d’objectifs volontaristes. La réflexion devra aboutir rapidement afin d’accélérer la maîtrise de la consommation énergétique et notamment un rythme de rénovations thermiques encore loin d’être suffisant. À défaut, il pourrait être tentant de présenter la prolongation de tout le parc nucléaire comme une option qui s’imposerait. Ce serait toutefois une solution de facilité qui priverait la France d’une véritable transition énergétique. Le jeu en vaut pourtant la chandelle tant les scénarios produisent des effets très positifs sur l’emploi.

Malheureusement pour Denis Baupin, il y a peu de rénovations par rapport à ses espérances parce que les prix de l'énergie ne sont pas assez élevés. Pour en avoir plus, il faudrait augmenter fortement le prix de l'énergie en France — et pas seulement de l'électricité! — ce qui fait qu'au total, les Français dépenseraient plus. Non seulement, ils paieraient plus cher pour leur électricité — et le reste — comme le montre l'exemple allemand, mais ils devraient aussi payer ces fameuses rénovations.

On ne peut aussi que se demander ce que Denis Baupin compte faire des 33% de logements chauffés à l'électricité. Ces logements n'ont souvent aucune arrivée de gaz, l'électricité est donc la seule façon de les chauffer, à moins d'engager des dépenses pharaoniques. De plus, comme on l'a vu, ils provoquent relativement peu de pollution, notamment d'émissions de CO₂. Proposer un état final qui lui paraît favorable est une chose, encore faudrait-il proposer une façon réaliste d'aller de la situation actuelle à cet état final. C'est pourquoi il n'est pas sérieux de présenter comme probables des scénarios où le chauffage électrique n'existerait plus; au contraire, la consommation d'électricité par habitant en France restera durablement plus élevée qu'ailleurs.

Bref, Denis Baupin fait reposer son plaidoyer pour le scénario qui a sa préférence sur des faux-semblants voire des mensonges, ignore totalement la situation actuelle et les difficultés pour parvenir à la situation qui a sa préférence. Le reste de son rapport est peut-être excellent, mais sa justification du scénario qui a sa préférence laisse plutôt penser que c'est une redite de la commission d'enquête sénatoriale d'il y a 2 ans, en pire!

18 mai 2014

De l'opposition au tribunal arbitral en matière de libre-échange

En ce moment, se déroulent des négociations sur un éventuel traité de libre-échange entre les États-Unis d'Amérique et l'Union Européenne. Selon les opposants, tout se déroule dans le plus grand secret, tellement bien gardé que la Commission Européenne publie ses objectifs et que la Maison Blanche fait de même. Une disposition qui suscite particulièrement l'ire des opposants est l'idée d'un tribunal arbitral chargé de faire respecter les dispositions du traité.

Pourquoi un tribunal?

À notre époque, le but d'un traité est de faire régir par le droit certains des rapports entre états ou entre un état et des entités privées dépendant d'un autre état. Ce qui veut dire que l'usage de la force est censé être exclu. Dans le passé, ou même parfois de nos jours, les disputes sur l'interprétation concrète des termes du traité se réglaient quand même ultimement par l'usage de la force. Ce fut la cause de certaines guerres et a laissé l'expression «diplomatie de la canonnière» dans le langage courant. Suite à la 1ère guerre mondiale, la Société des Nations fut fondée ainsi qu'une cour de justice pour régler les différends dans un cadre pacifique. La Société des Nations s'est révélée impuissante à empêcher la marche à la 2e guerre mondiale, mais les principes sont restés: il existe désormais de nombreux traités prévoyant des mécanismes de règlements des différends qui s'apparentent à des tribunaux. Certains traités ont même créé des cours criminelles pour réprimer les crimes les plus graves.

Les traités de libre-échange s'étendant sur de nombreuses pages, comptant de très nombreuses dispositions donnant les cas généraux et toutes sortes d'exceptions, ils font sans nul doute partie des traités les plus difficiles à interpréter. Les problèmes d'argent étant aussi une source intarissable de litiges variés, c'est sans doute le domaine du droit international où ce type d'organe est le plus répandu. Une littérature abondante s'est développée et les traités commerciaux prévoient souvent de régler les différends soit via un forum ad hoc soit via un des tribunaux arbitraux permanents.

On peut se demander si on ne pourrait pas faire régler ces questions par les juridictions nationales classiques. Outre la question du choix du pays devant régler la question, un problème d'apparences se pose: pour éviter des soupçons de partialité ou de convenance politique, il vaut mieux que les juges soient envoyés par chacune des 2 parties ou désignés parmi un collège constitué de juges provenant de multiples pays.

Une menace pour la démocratie?

Un exemple de tribunal international créé par un traité de libre-échange est la Cour de Justice de l'Union Européenne. Elle fut originellement créée par le traité fondant la CECA, ses compétences ont été étendues progressivement par les traités européens suivants. Elle peut être saisie par les personnes physiques ou morales — dont les multinationales — via des actions judiciaires dans les tribunaux nationaux depuis au moins le traité de Rome de 1957. Un des buts premiers de la CJUE est d'offrir une voie de contestation des décisions des états ou de l'organe exécutif européen, la Commission, et donc de contester des décisions prises par des gouvernements démocratiquement élus.

Vue l'ancienneté de l'Union Européenne, comme Alexandre Delaigue, il me paraît bien excessif de crier à la fin de la démocratie. On peut quand même commencer à distinguer plusieurs types d'oppositions. La première, c'est celle des souverainistes, tels qu'on les trouve au Front de Gauche ou au Front National: comme ils s'opposent à toute perte de souveraineté, ils sont contre tout traité de libre-échange, y compris celui fondant l'Union Européenne. De fait, si on refuse toute perte de souveraineté, il ne peut pas vraiment y avoir d'accord commercial international, ou alors sur des broutilles, les pays avec lesquels on voudrait trouver un accord craignant qu'on revienne dessus à la première occasion. C'est pourquoi il est particulièrement risible pour ces formations de clamer ne pas être anti-européennes.

La seconde, c'est celle des Verts, dont le spécialiste du sujet, Yannick Jadot, nous dit que ce traité fait peser des menaces gigantesques sur nos modes de vie comme sur notre démocratie toute entière. Or, les Verts ne sont pas opposés par principe aux transferts de souveraineté: ils sont par exemple favorables à la Cour Pénale Internationale et cultivent une image pro-européenne. Cette opposition paraît donc plus liée à des cas d'espèces de produits ou de pratiques qui pourraient devenir autorisés. On peut en fait subodorer que cette opposition est en premier lieu liée aux produits alimentaires, aux produits chimiques et à l'industrie minière. La Commission déclare que les produits chimiques seront de fait exclus du périmètre de l'accord. Quant aux mines — sujet dans lequel il faut ranger le gaz de schiste — les permis d'exploiter sont résolument restés une prérogative nationale: il est peu probable que le traité impose aux états d'accorder des permis. Il reste donc principalement les produits alimentaires (OGMs…).

Et de fait, la peur d'une condamnation européenne a déjà amené la France à autoriser la commercialisation d'au moins un produit, en l'occurrence, le Red-Bull ®. Une autre organisation a un fort impact en la matière: l'OMC qui dispose elle aussi de son propre tribunal, l'organe de règlement des différends qui ne peut être saisi que par les états. L'Union Européenne a déjà été condamnée 2 fois sur des affaires alimentaires:

  1. Sur le bœuf aux hormones, décision dont il a été question sur ce blog. Pour résumer, l'UE a été incapable de montrer qu'il existait un risque même infime pour la santé de consommer du bœuf aux hormones; seul un expert, nommé par les USA, a donné un maximum de 1 cancer par million de personnes consommant 500g par jour de viande aux hormones. À la suite de quoi, le tribunal a analysé la situation à la lumière du principe de précaution et condamné l'UE. Une partie des mesures de rétorsion autorisées à cette occasion sont toujours en vigueur.
  2. Sur l'importation d'OGMs, l'UE a été condamnée suite à l'adoption d'un moratoire sur les autorisations. Elle a été condamnée pour avoir trop traîné les pieds pour autoriser l'importation de ces denrées — en général destinées à la consommation animale — ainsi que pour les mesures de sauvegardes prises par les états membres (pour les mêmes raisons que dans l'affaire du bœuf aux hormones). Cette condamnation explique sans doute en grande partie pourquoi l'importation d'OGMs est autorisée dans l'UE.

Ces condamnations sont basées sur l'accord sur les mesures sanitaires et phytosanitaires (SPS), dont il ressort en gros que, pour interdire l'importation d'aliments, il faut au moins avancer une raison scientifiquement fondée et pas uniquement se baser sur des hypothèses. L'innovation principale du tribunal du TTIP étant la possibilité de saisine par des personnes morales et physiques, il est très probable que les associations d'agriculteurs US vont essayer, dès l'entrée en vigueur du nouveau traité, de faire valoir l'autorisation de mise sur le marché de la FDA comme autorisant l'exportation en Europe. Étant donné le consensus scientifique sur la question, il y a des chances qu'ils l'obtiennent.

L'opposition des écologistes au tribunal s'explique donc sans doute par leur opposition à des traités déjà signés, mais dont l'application dépend de fait du bon vouloir des états à porter l'affaire devant l'OMC. Avec la possibilité de porter plainte directement, les firmes ou les associations d'intérêts pourraient faire reconnaître leurs droits plus facilement. Le tribunal ne permet pas grand chose par lui-même: ses décisions dépendront avant tout du texte des autres dispositions du traité ainsi que des traités qui l'ont précédé.

Quels enjeux?

Comme Alexandre Delaigue, je pense que l'enjeu principal de ce traité est de s'entendre sur des normes communes entre les USA et l'UE pour contrer les futures normes chinoises. Ce travail en commun entre occidentaux est courant sur de nombreux sujets — par exemple, le codage des vidéos — avec des spécialités par zones — par exemple, les normes européennes sur les émissions des voitures servent souvent de base ailleurs.

Cette uniformisation des normes requiert en contrepartie que les normes soient dans le futur élaborées en commun et aussi qu'aucune des 2 parties ne puisse arbitrairement décider de refuser certains produits, dès l'instant que les normes communes sont respectées. De fait, cela veut dire que la possibilité d'opposition politique à certaines nouveautés sera réduite. L'étendue de cette réduction dépendra du nombre de domaines couverts par l'accord. On peut cependant supposer que les produits déjà couverts par des accords précédents ne pourront plus subir d'opposition — ce qui inclut notamment les OGMs. Pour s'assurer qu'aucune des 2 parties ne pourra exercer de refus arbitraire, la mise en place d'un tribunal sera requise par les 2 parties.

Pour simplifier, les opposants au tribunal sont soit des opposants de toujours au libre-échange soit veulent surtout conserver la liberté de s'asseoir sur une partie des traités déjà signés, faute de pouvoir les rejeter en bloc de façon réaliste. Malheureusement pour ces derniers, l'expansion du droit international rend l'inclusion d'un tribunal que pourront saisir directement des firmes ou des lobbies (voire dans des cas exceptionnels, des personnes physiques) pratiquement obligatoire dans un futur traité avec les USA.

13 avril 2014

Subsidies for wind and solar are here to stay

Note: this post is an english summary of two posts in french (here and here).

It is often said that subsidies granted to wind and solar power are temporary and are here to help them become competitive with respect to other sources of electricity. Here, based on what happens currently on the electricity market in Germany and France, I will show that the removal of subsidies for new wind or solar capacity is unlikely and that it is probable that these subsidies will become a very long lasting feature of the electricity market in Europe.

A common characteristic of both wind and solar power is that their marginal cost is zero. Producing one more kWh does not cost anything to the owner. He has paid for his machine and pays for the maintenance, regardless of how much the machine produces. Their production is also essentially random — especially that of wind — and subject to the vagaries of the weather. Producer are also dispersed because the cost of building a single machine is not extraordinarily high. These 3 elements will transform producers of wind and solar power into price takers: they will accept any positive price, or even negative prices if they can't disconnect from the grid. Nowadays, they are shielded from the variations of the spot price by the feed-in tariffs which guarantee a fixed price for their production. A system of market premiums do not change that much the situation, as this would only encourage disconnections when the price drops too far in negative territory.

As a consequence, one can expect that wind would fetch a price lower than the baseload price — the non weighted average of all hourly prices in a given year. for solar power, the situation is slightly different because solar power is available during the day, where consumption is also higher than during the night. The price of electricity is thus generally higher during the day than during the night. But if the solar capacity is large enough — larger than night-day swing in demand — they will also fetch a lower price than the baseload.

To check these hypotheses, I gathered prices on Epexspot with a perl script. For France, one can get detailed production data from éco₂mix. For Germany, there's nothing so detailed … and free at the same time. Wind and solar productions are known thanks to an european directive. The data has been gathered by P.-F. Bach, a danish retired engineer.

In Germany

The german market is in a situation of over supply because of the economic situation in Europe, of new coal plants — coal is now relatively cheap because of exports from the US and the shale gas boom there — and of the construction of more than 30GW of wind and 30GW of solar. As a consequence the baseload price is low. In 2012, it was about €43/MWh; in 2013 it was about €38/MWh. Wind power fetched an average of €37.5/MWh in 2012 and €32/MWh in 2013. Solar power got €44/MWh in 2012 but €37/MWh in 2013: the advantage for solar power of producing only during the day has been completely eroded by the large size of the capacity in Germany.

de_market_prices_2012_en.jpg prix_sources_allemagne_2013_en.jpg

Trying to correlate wind production and the price leads to an estimate of the reduction of the spot price of €1.3/MWh per GW of wind production. However, the correlation is weak, because the price of electricity reflects many other constraints, such as total consumption. prix_eolien_allemagne_2013_en.jpg

In France

France is in a market economic crisis now, which puts it also in a situation of average over supply. There are however worries regarding peak capacity as european directives such as LCP and IED are forcing old coal- and oil-fired plants to close. The baseload price is higher than in Germany. In 2012, it was about €47/MWh; in 2013 it was about €43.5/MWh. The wind price was €45/MWh in 2012 and €42/MWh in 2013. Up to 2013, there was no specific data for solar power. In 2013, solar fetched a price of €43/MWh.

fr_market_prices_2012_en.jpg prix_sources_france_en.jpg

If we look at the correlation between the price and the wind production, we see same slope, yet the correlation is very weak, because there is much less wind capacity in France than in Germany. As a consequence, other factors tend to dwarf the effect of wind power most of the time. If we look at wind production as a share of consumption, the correlation becomes much clearer, yet other factors continue to play a major role. prix_eolien_france_2013_en.jpg prix_eolien_vs_conso_france_2013_en.jpg

What consequences?

With these two years of data, we can conclude that intermittent sources of electricity would fetch a price lower than the baseload price in an open market. The magnitude of the rebate depends on the installed capacity. The european wind power lobby tells us that there were 33.7GW of wind in Germany and 8.2GW in France at the end of 2013. Similarly, there was something like 36GW of solar in Germany and 4.3GW in France at end 2013. In Germany, wind represented 8.1% of the electricity production in 2012 and 8.4% in 2013; solar was at 4.2% (2012) and 4.7% (2013). In France, wind represented 2.8% of the production in 2012 and 2.9% in 2013; solar was at 0.7% and 0.8% respectively.

Despite such low figures, the rebate is already 15% in Germany for wind power. Thus, it is hard to imagine that wind and solar would come to dominate the electricity production in Germany without a long lasting system of subsidies. The more wind power increases its share, the more the price it fetches on the open market is far from the baseload price. In the case where wind power would represent 30% of the production in Germany, it could mean that wind power would only get around 50% of the baseload price. The system of subsidies is also feeding on itself: today, new capacity is built thanks to subsidies, but the more wind capacity there is, the more the subsidies are needed to allow the construction of new wind turbines to proceed. Reaching price parity with other technologies will not be the end of road for wind and solar: they need to become much cheaper than alternatives to survive on their own in an open market. Therefore, I think that the chances that the subsidies will end any time soon are very slim. On the contrary, it looks like these subsidies will become a permanent feature of the electricity market throughout Europe.

That does not mean in itself that such subsidies should not be granted. After all, if we are to phase out the use of fossil fuels in electricity generation, wind and solar are among the few technologies where capacity can be expanded without hitting a hard geographical limit right away. Yet, a fixed feed-in tariff does nothing to lower the price of a technology, on the contrary one may just choose to use this tariff as a given and not try to lower prices. Indeed, wind power tariffs have been steady in France for some years and the amount of new wind capacity connected to the grid each year is decreasing since 2009. The European Commission wants these fixed tariffs to be phased out by 2017, but it is unclear if this will result in price decreases: in France there has been competitive tenders for some technologies and it turned out that, in the end, prices were often higher than the fixed tariffs. This state of affairs was widely denounced in a public report last year.

Another issue is the intermittency of wind and solar means that other means of production have to be used to plug the gap between their production and the demand. For the foreseeable future, this is going to mean relying on dispatchable plants, such as hydro dams, nuclear plants and, of course, fossil fueled plants. These plants generally see their profitability eroded by the operation of wind and solar power as they run less hours and receive a lower price because of the zero marginal cost of wind and solar production. As it is unthinkable that black outs be allowed, it is likely that we will see the implementation of capacity markets throughout Europe. It turns out that the technology that allows the lowest investment for a given guaranteed dispatchable capacity is the open cycle gas turbine, a fossil fueled technology. In other words, it may well be that governments may command subsidies for wind and solar power in the name of fighting climate change, while at the same time the very same governments will enforce rules guaranteeing the cash flows of fossil fueled plants to ensure security of supply.

Finally, it does seem that the foundations of the electricity internal market are rotten: the low carbon means of production — be it nuclear or renewables — have their price essentially determined by their capital expenditures, whereas the majority of the costs for fossil fuel plant are fuel costs. Having costs determined primarily by the cost of fuel is useful when the market of reference is the spot market: it reduces the investment risk you take. If you have to invest huge sums of money in a machine that will last decades, you will want to have a guarantee on your cash flows to avoid losing your shirt in case events do not back your assumptions. That means low carbon means of production like long term contracts which are discouraged under current EU rules. For wind and solar, their intermittency makes them also less appealing for such long term contracts, as they can't guarantee at which time they are producing. That is why I think that subsidies for wind and solar will stay for a very long time, perhaps permanently, in one form or another.

16 mars 2014

L'activisme gouvernemental sur la pollution perdu dans le smog

Le smog qui flotte qui en ce moment sur la France pour cause de manque de vent en ce début de mars est l'occasion de la publication d'articles dénonçant l'inertie du gouvernement sur la question de la pollution atmosphérique. C'est l'occasion d'interroger d'anciens ministres de l'environnement, qui déclarent tous, sauf pour celui actuellement au gouvernement, avoir eu du mal à faire passer des mesures contre la pollution atmosphérique. On note aussi le retour des accusations envers le diesel, qui serait responsable de ces pics de pollution.

Rappelons quand même que la combustion du gazole routier ne représente qu'environ 10% des émissions de PM10 en France.

La forte baisse de la pollution, cet autre Boeing 777 qui a disparu des radars

Comme il s'agit de regarder ce qui a été fait depuis 20 ans, commençons par nous tourner du côté des émissions. Le CITEPA recense les émissions de polluants en France et compare aux engagements pris. On peut voir que la plupart des engagements pris ont été tenus. La consultations du site permet de construire le tableau suivant qui montre que les émissions ont fortement baissé en 20 ans, pour toutes sortes de polluants.

Polluant Évolution
2012/1995
Évolution
2012/2000
Évolution
2012/2005
SO₂ -74% -60% -45%
NOx -42% -38% -30%
PM10 -48% -38% -24%

Une critique souvent faite est qu'on ne constate pas de baisse pour les stations de mesures de polluants, notamment pour les particules. En effet, si on regarde la concentration moyenne, on voit que la concentration ne baisse que très lentement. Malgré la forte baisse des émissions, la baisse n'est que de quelques pourcents seulement. Airparif-PM10.jpg

Cependant, la faiblesse de cette baisse s'explique par le fait qu'une grande partie des PM10 présentes à un moment donné sur l'agglomération parisienne proviennent en fait d'ailleurs. Airparif estime cette proportion à 68%. Avec une telle proportion, on voit que faire baisser, même fortement, les émissions de particules en région parisienne n'aura qu'un faible effet sur la concentration moyenne. Airparif s'est essayé, dans un exercice prospectif, à modéliser la baisse de la concentration moyenne à attendre d'ici 2020 en fonction de la baisse des émissions. Dans le scénario tendanciel, les émissions dues au trafic routier, principal accusé dans les média, diminuent par rapport à 2008 de 50% pour les PM10 et 80% pour les PM2.5. baisse_emissions_trafic.jpg

Et voici les résultats qu'on peut en attendre sur la concentration moyenne, sachant que la modélisation a tendance à sous-estimer les concentrations. On constate des diminutions formidables, de l'ordre de … 5%! En fait, ce qui diminue fortement, c'est la hauteur des pics, qui, comme leur nom l'indique, ne durent pas longtemps et contribuent peu à la valeur moyenne. Mais ce sont sur ces pics qu'est basée la réalisation d'un certain nombre d'engagements. Comme leur durée et leur hauteur dépend aussi de conditions météo qui peuvent être extraordinaires et sur lesquelles nous n'avons aucune prise, on comprend qu'il en aura certainement de moins en moins de pics de pollution, mais probablement jamais zéro! baisse_concentration_fond.jpg

Un fort activisme réglementaire totalement ignoré

On peut aussi se retourner vers l'Union Européenne qui édicte depuis un certain temps déjà les normes à suivre en matière d'émission de polluants. Le mérite des décisions prises par l'Union et son organe exécutif, la Commission, doit en partie être attribué au gouvernement français puisqu'il en a approuvé la plupart. Et de ce côté on est gâté: les normes d'émissions des moteurs automobiles ont été durcies à 6 reprises depuis le début des années 90. La directive GIC (Grandes Installations de Combustion) est en train de forcer la fermeture de plus de la moitié du parc de centrales électriques au charbon en France d'ici à fin 2015. La directive IED (Émissions Industrielles) contraint les industriels à moins émettre de polluants et force par exemple la fermeture des 2/3 des centrales au fioul françaises, d'ici fin 2015 aussi.

Dans ces conditions, affirmer que le gouvernement ou les politiques ne font rien contre la pollution, c'est se moquer du monde.

Dénoncer tout le monde, sauf les coupables

Ces articles de dénonciation comme celui du Monde sur l'inertie du gouvernement sont aussi l'occasion de relayer un certain nombre de poncifs:

  1. Ainsi en est-il de l'accusation envers les agriculteurs pour l'utilisation d'engrais qui provoque l'émission de NOx. Or, l'usage d'engrais n'est responsable que de l'émission de 68kt annuelles de NOx, soit 10% de ce qu'on peut attribuer aux carburants, qui sont pour le coup les responsables archi-dominants des émissions.
  2. Si bien sûr au ras du pot d'échappement, le long des axes les plus fréquentés, le trafic routier est responsable de la plupart de la présence de particules, lorsqu'on regarde au niveau de l'agglomération parisienne dans son ensemble, le trafic routier est responsable d'autant d'émissions de particules que le chauffage au bois. On peut aussi remarquer qu'en moyenne seules 1/3 des particules dans l'air parisien sont produites localement.

Les pics de pollution aux particules se produisent tous en hiver, lorsqu'il fait beau et qu'il n'y a pas de vent. Ce fait montre que le gazole ne peut être le seul responsable: il existe aussi des jours de beau temps sans vent aux mois de mai, juin ou septembre, où il y a autant de trafic que les mois d'hiver. Ce qui provoque le dépassement des seuils d'alerte, c'est qu'en hiver, en plus du trafic routier, les chauffages sont allumés. Or, le fioul domestique — qui est à un colorant près le même combustible que le diesel — représente au niveau national entre la moitié et le tiers des émissions dues au diesel routier, alors que seuls 15% des logements sont encore chauffés au fioul. On voit là que les chaudières au fioul n'ont pas vu les normes les concernant être révisées à 6 reprises ces 20 dernières années. Le bois, quant à lui, représente entre 3 et 4 fois les émissions du diesel. C'est en vain qu'on cherchera une incrimination du chauffage dans l'article du Monde.

On voit là que ces dénonciations permettent d'éviter de s'attaquer à ce qui pose véritablement problème. Contrairement à ce qu'affirme Delphine Batho, s'attaquer aux vieux véhicules n'est pas que s'attaquer aux pauvres, c'est aussi s'en prendre aux véhicules les plus polluants, car relevant de normes dépassées et trop souvent déréglés. La faveur que rencontre ces vieux véhicules n'est d'ailleurs pas limitée aux pauvres: le premier ministre est propriétaire d'un Combi VW hors d'âge; on peut aujourd'hui se dire écologiste, être ministre et être propriétaire d'une 4L, forcément dépourvue de pot catalytique. S'attaquer au chauffage au bois signifie s'en prendre à de nombreux particuliers mais aussi freiner l'adoption du bois en remplacement d'autres modes de chauffage — quoiqu'il remplace souvent le fioul — pour lui préférer le gaz ou l'électricité. En ces temps où les énergies renouvelables sont portées au pinacle, ce serait inattendu. Les technologies qui permettent de ne pas émettre des particules existent bien, comme on le voit, cependant les personnes qui réclament le plus de mesures en ce moment ne sont pas spécialement favorables à l'augmentation de la production d'électricité en France — qui viendrait en ces moments de calme plat du nucléaire — ou de gaz — si on veut le produire localement, il ne reste guère que le gaz de schiste.

Au final, la diminution de la pollution est bien réelle en France et due en bonne part à un durcissement conséquent de la réglementation. Le bas niveau actuel de pollution est aussi dû à un certain nombre de choix politiques, comme le nucléaire et le choix du gaz pour le chauffage, qui ont accompagné le durcissement progressif des réglementations. Chercher des boucs émissaires comme dans ces articles de dénonciation ne fera qu'empirer les choses en menant sur des voies sans issue: le niveau de pollution est suffisamment bas pour que de mauvaises décisions se traduisent par une gêne pour les habitants sans réel gain voire une hausse de ce niveau.

- page 1 de 8