27 juillet 2016

Solar Impulse, ou pourquoi brûler du pétrole

L'avion Solar Impulse s'est posé à Dubai avant le lever du jour le 26 juillet, bouclant ainsi un tour du monde commencé il y a 15 mois. Il est clair qu'il s'agit d'une prouesse technologique, puisque l'avion rassemblait des cellules photovoltaïques à la fois minces et efficaces — avec un rendement de 23% — et des moteurs très performants — avec un rendement de 93%. C'est aussi un exploit d'endurance pour les pilotes qui devaient être capables de rester éveillés pendant une bonne partie des trajets au dessus des océans.

Cependant, Solar Impulse apparaît plus aujourd'hui comme une démonstration de la supériorité du pétrole que du potentiel de l'énergie solaire. En effet, on peut déjà remarquer qu'à la voile, on a déjà réussi à faire le tour du monde en 45 jours en équipage, et 78 jours en solitaire. Il est vrai que Solar Impulse n'est resté en l'air qu'un peu plus de 23 jours, mais le fait qu'il doive s'arrêter est dû aux contraintes de l'avion qui ne peut emporter suffisamment de nourriture et doit être piloté en permanence ou presque. Face au pétrole, on voit que Solar Impulse est en fait inférieur à l'avion de Lindbergh Spirit of St. Louis qui a rallié Paris depuis New York en 33h, contre 71h pour Solar Impulse pour rallier Séville. La raison en est simple: Solar Impulse ne dispose que de 70ch (environ 50kW) contre 223 pour Lindbergh.

Les comparaisons sont encore plus cruelles avec les avions actuels destinés au transport de passagers, qui volent à une vitesse de l'ordre de 800km/h, permettent de voyager dans une cabine pressurisée et climatisée ainsi que d'emmener des bagages. Pour cela, ils sont équipés de réacteurs ayant une poussée de 150 à 400kN: cela signifie que pour faire décoller un A320, il faut au minimum développer 12MW de puissance mécanique; pour un A380, c'est 70MW. Cela est tout à fait possible quand on utilise du kérosène: la densité de puissance d'énergie est de l'ordre de 12kWh/kg, contre 0.26kWh/kg pour les batteries de Solar Impulse. Même en comptant sur l'amélioration des technologies, il existe un gouffre entre Solar Impulse et les avions modernes qu'il sera difficile de combler. À surface couverte de cellules photovoltaïques constante, on ne peut espérer au maximum qu'une multiplication par 4 de la puissance disponible; inversement pour disposer de 70MW avec des cellules efficaces à 100%, l'ordre de grandeur de la surface à couvrir est 70 000 m², sachant qu'un A380 tient dans un rectangle de 6000m² … et ce ne sont que 2 exemples!

On comprend que pour le transport de matériels et de passagers, les énergies renouvelables comme le solaire ne sont pas assez denses. Les bio-carburants constituent la seule alternative viables et ils sont en fait une manière de rassembler en un petit volume l'énergie reçue sur une grande surface. Mais l'énergie solaire permet d'envisager de faire voler des drones pendant très longtemps. Cependant, qu'ils se déplacent n'est sans doute pas la priorité, ce qui leur sera demandé est sans doute des missions d'observation ou de relais télécoms. Pour cela, le dirigeable est nettement meilleur, puisqu'il ne dépense que très peu d'énergie pour rester en l'air. En fait, Piccard a surtout offert un beau joujou aux militaires et aux autres météorologues, pas vraiment une solution pour des transports sans pétrole…

28 novembre 2015

Qu'attendre de la conférence de Paris sur le climat?

La conférence de Paris sur le climat va bientôt s'ouvrir, et on peut se demander ce qui pourra bien en sortir. Dans le précédent billet, j'ai expliqué pourquoi l'objectif officiel des 2°C est intenable: pour le dire simplement, les émissions de CO₂ sont aujourd'hui trop élevées pour que le «reste à émettre» ne soit pas dépassé. Mais cela ne veut pas dire que rien ne peut être fait pour amoindrir les effets du réchauffement climatique. Je suis tout de même très circonspect sur les possibilités d'un changement rapide de tendance: il me semble que les combustibles fossiles seront encore longtemps la principale source d'énergie.

Les engagements d'émissions resteront volontaires

Le paramètre majeur de la lutte du changement climatique est la quantité de gaz à effet de serre qui seront émis au cours des décennies qui viennent. Plus les quantités émises, cumulées sur les décennies, seront importantes, plus l'élévation de température sera grande et plus la probabilité d'évènements catastrophiques augmentera. Dans le meilleur des mondes, les émissions mondiales maximales de gaz à effet de serre seraient l'objet des négociations: le lien étant direct avec l'élévation de température, on pourrait savoir où le curseur de la solution s'est arrêté. Dans le monde réel, la voie praticable est basée sur des engagements seulement volontaires de la part de l'ensemble des pays du monde, limités à l'horizon 2025 ou 2030. C'est un constat qui s'impose après un aperçu rapide de l'histoire des négociations climatiques.

Les USA n'ont jamais ratifié le protocole de Kyoto. D'une part, cela s'inscrit dans une attitude rétive du Congrès américain envers tous les traités contraignants au niveau mondial. Par exemple, les USA n'ont pas ratifié la Convention des Nations Unies sur le Droit de la Mer. Ça ne les empêche d'appliquer la dite convention et d'en être de fait les principaux garants, grâce à leur marine, la plus puissante au monde et qui est la seule à être présente partout dans le monde. D'autre part, les Républicains tiennent un langage climatosceptique ou ne comptent pas le réchauffement climatique parmi leurs priorités. En conséquence, ils s'opposent à tout traité contraignant sur les émissions et bloquent de ce fait toute ratification.

Les pays qui ont connu — ou connaissent — une forte croissance économique sont aussi opposés à des limitations imposées de l'extérieur, les voyant comme une entrave à leur développement économique. L'augmentation de leurs émissions n'est pas pour rien dans la difficulté à trouver un accord: en 1997, année de la signature du protocole de Kyoto, la Chine émettait 3Gt de CO₂ via la combustion des combustibles fossiles soit 14% du total mondial, en 2013, c'est passé à 9Gt soit 28% du total mondial (source AIE CO₂ Highlights 2015). Pendant ce temps-là les émissions mondiales sont passées de 22Gt à 32Gt; la totalité de la hausse des émissions sur la période est imputable aux pays hors OCDE.

De toute façon, les pays qui ne respectent pas leurs engagements ne font face à aucune sanction: le Canada s'est ainsi retiré du protocole de Kyoto juste avant que la période contraignante ne commence. Il faut dire que la cible était une baisse de 7% par rapport à 1990, on constate aujourd'hui une hausse de 28%… Beaucoup de pays n'ayant aucun espoir d'atteindre leur cible ont aussi refusé de prolonger pour la période supplémentaire jusqu'en 2020, comme le Japon. On peut donc considérer que l'aspect «contraignant» d'un traité est finalement faible, ce qui rend le désaccord entre Fabius et Kerry d'importance très relative.

La logique d'accord sur une cible mondiale contraignante a naturellement échoué à Copenhague par le rassemblement de toute ces causes. Les engagements ressemblent à des paris publics, les pays qui veulent réellement les tenir peuvent se retrouver les dindons de la farce. Les pays pauvres, qui émettaient déjà plus que les pays riches, ne voulaient pas de contraintes, de même que les États-Unis. Rien qu'avec la Chine et les États-Unis, on trouve là 44% des émissions mondiales: un accord sans ces 2 pays n'a pas grand sens. Les négociations se sont donc rabattues sur ce qui était encore praticable: les engagements volontaires des différents pays.

Les engagements proclamés par les différents pays sont en fait déjà connus, il est inutile d'espérer qu'aucun pays les révise pendant la conférence … et d'ailleurs des révisions importantes ne seraient pas très sérieuses. Une bonne partie des pays inscrits à l'ONU a déposé une contribution, à la suite de l'accord entre les USA et la Chine l'an dernier. Contrairement à la publicité positive du moment, il était déjà clair à l'époque que les pays s'engageaient à faire ce qu'ils avaient déjà décidé de faire, chacun de leur côté, c'est-à-dire pas grand chose d'autre que la prolongation des politiques actuelles. Un bilan de l'ensemble des engagements a été fait par l'UNFCCC, il en ressort principalement les 2 graphes suivants. indcs_2015_consequences.jpg indc_2015_emissions.jpg C'est le défaut de ces engagement non-contraignants: comme il n'y a personne vue comme un arbitre honnête ni ayant le pouvoir de faire respecter les engagements, la logique de la tragédie des communs joue à plein. Il n'y a pas vraiment de dynamique pour préserver le climat, ni de confiance réciproque, et ce d'autant qu'il n'y a pas de confiance, ni dans la tenue des engagements, ni dans la qualité de la vérification.

Les paramètres techniques

Un des problèmes qui se pose pour qu'un accord soit crédible est la capacité à vérifier son application. En effet, un moyen de respecter les engagements est de ne pas tout compter. Des erreurs dans le décompte des émissions masque aussi la réalité de la situation et donc trompe sur ce qui est possible et les conséquences des éventuels engagements pris. Or il s'avère que dans les pays en développement, la comptabilité des émissions n'est pas fiable: la Chine a ainsi annoncé réévaluer à la hausse sa consommation de charbon de 17% pour les années précédentes. Comme la Chine est le premier émetteur mondial et que la combustion du charbon représente plus de 80% de ses émissions, on voit que ce n'est pas une question mineure. Le problème est évidemment que mieux contrôler demande des moyens et risque de faire paraître certains pays sous un jour peu favorable. Les pays en développement, qui sont a priori les plus concernés par une sous-évaluation des émissions, y sont a priori peu favorables. Cependant, il me semble qu'il y a des chances d'amélioration sur ces points très techniques.

Ce qui a peu de chances de se réaliser sur ce point est plutôt un comptage plus sain des émissions dues à la «biomasse», essentiellement sur le bois. Les politiques favorisant la production d'énergie renouvelable sont des politiques qui encouragent l'utilisation du bois. À petite échelle, l'utilisation du bois est sans doute neutre sur le plan des émissions de CO₂. À grande échelle, c'est nettement plus douteux: cela implique de couper des arbres et donc un fort risque de contribuer à la déforestation. Cette dernière n'est pas incluse dans les statistiques énergétiques et donc pas incluse dans les classements généralement publiés. De plus, le pays qui brûle le bois n'ajoute rien à ses propres émissions: elles sont en fait ajoutées à celui d'où provient le bois. On voit qu'il y a une différence significative avec les combustibles fossiles où c'est toujours le consommateur qui se voit imputer les émissions. Le minimum serait d'exiger que les pays qui brûlent du bois importé justifient des plantations effectuées, via leurs propres actions, dans les pays exportateurs.

L'argent

Une des promesses faites aux pays pauvres est de les aider à hauteur de 100 milliards de dollars US par an. Un fonds a été créé pour recevoir les dons, principalement des états. Actuellement, les contributions atteignent royalement 10 milliards de dollars. Évidemment, cela ne veut pas dire que l'objectif ne sera pas atteint. En effet, il faut comprendre qu'il ne s'agit pas là uniquement de dons: l'aide au développement française inscrite en lois de finances est de l'ordre de 3G€, faire un don de 1G€ par est donc une réorientation importante de la politique d'aide aux pays pauvres. Le comptage effectué par l'OCDE pointe vers aussi vers les prêts bilatéraux, les prêts des banques de développement ainsi que vers les aides à l'export. En comptant tout ça, on arrive déjà à environ 60G$. Les banques de développement ayant promis de faire plus dernièrement, on devrait arriver au chiffre symbolique.

Pour conclure, inutile d'attendre ce qui serait un accord de long terme sur la question climatique à Paris. Cela supposerait de s'accorder sur une masse d'émissions pour le reste du 21ᵉ siècle ou alors sur un prix du carbone mondial, une méthode pour s'assurer de l'application des dispositions du traité. Cet objectif est totalement hors d'atteinte puisque les états sont logiquement jaloux de leur souveraineté. Il n'y aura donc pas de contrainte, ni réelle, ni écrite sur le papier en ce qui concerne les émissions de gaz à effet de serre. Par contre, il y a maintenant un grand nombre d'engagements nationaux et sans doute, au moins sur le papier, un mécanisme ne permettant que des objectifs plus ambitieux par pays pour les négociations qui suivront celles de Paris. Le freinage progressif des émissions peut potentiellement s'engager à partir de là. De l'autre côté, on peut espérer qu'il y aura sans doute quelques ajustements bienvenus sur la comptabilité, ce qui permet de dégager la voie pour des accords réellement plus contraignants. Les problèmes financiers sont plus ou moins résolus, ce qui devrait permettre aux pays les plus pauvres de signer.

12 novembre 2015

L'intenable objectif des 2°C

L'objectif officiel des négociations en cours sur le climat est de limiter le réchauffement climatique à moins de 2°C par rapport à l'époque pré-industrielle (cf par exemple les conclusions de la Conférence de Cancun en 2010). J'ai déjà exprimé ma conviction par deux fois que cet objectif était intenable. Cette année, on va y revenir, diverses voix de connaisseurs du domaine se sont clairement exprimées sur le sujet en disant en substance que les scénarios du GIEC qui annonçait réussir la quadrature du cercle ne faisaient que servir la soupe aux politiques pour leur permettre d'afficher une réussite de façade.

Mais d'abord, commençons par voir ce qui est nécessaire pour limiter le réchauffement à 2°C. Le GIEC se base pour cela sur divers modèles économétriques où les émissions de CO₂ sont une donnée de sortie qu'on met dans un modèle du climat. Un certain nombre de ces modélisations ont eu lieu, et le GIEC a établi des sortes de scénarios moyens qui donnent une idée générale de ce qu'il faut faire pour les respecter. Ils sont désignés sous le titre de Representative Concentration Pathways suivi du forçage radiatif (une mesure de l'effet de serre additionnel). 4 scénarios moyens sont donc pris par le GIEC: les RCP2.6, RCP4.5, RCP6 et RCP8.5. Le scénario RCP2.6 est celui correspond à l'objectif officiel de la limitation du réchauffement à moins de 2°C. AR5_syr_scenarios_synthese.jpg AR5_CO2_budgets.jpg

Comme expliqué dans le tableau ci-dessus, le scénario qui permet de limiter le réchauffement à 2°C implique que les émissions de CO₂ soient limitée à 1000Gt. Comme proposé dans cet éditorial originellement publié dans Nature Geoscience, on peut alors se livrer à un petit calcul:

  1. La déforestation représente 4 ou 5 Gt/an. Si on considère qu'elle va s'arrêter en 2050 avec une baisse linéaire, on obtient entre 80 et 100Gt
  2. La production de ciment et plus précisément la calcination du calcaire est le principal procédé émetteur de CO₂ non compté dans les statistiques énergétiques. En comptant qu'aujourd'hui, elles représentent entre 1.5 et 2Gt/an, on peut compter que d'ici 2100 environ 100Gt seront émises (l'éditorial parle de 150Gt).
  3. Depuis 2010, 5 ans ou presque se sont écoulés, et on peut penser que la situation en 2020 sera surtout la poursuite des tendances actuelles. Actuellement, la combustion des combustibles fossiles pour la production d'énergie émet grosso modo 32Gt/an. En 10 ans, on atteint 320Gt.
  4. Si on suppose qu'après 2020, il y a une baisse linéaire des émissions, pour ne pas dépasser les 480Gt qui restent, il faut que les émissions venant de la production d'énergie s'arrêtent en 30 ans, soit en 2050.

Comme l'hypothèse d'une baisse franche dès 2020 et l'élimination en 30 ans des industries des combustibles fossiles sont des hypothèses héroïques, on peut déjà se dire qu'atteindre l'objectif officiel va être très compliqué.

Mais ce n'est pas tout: le scénario RCP2.6 ne compte pas vraiment atteindre le zéro émission des combustibles fossiles en 2050. Par contre, des émissions négatives sont prévues à partir de 2070, que ce soit dans la production d'énergie ou dans l'extension des forêts. RCP_ff_AR5.jpg emissions_450ppm_AR5.jpg Pour cela, la plupart des modèles font appel au BECCS pour BioEnergy, Carbon Capture & Storage, en clair, on brûlerait du bois, activité supposée neutre en carbone et on capturerait le CO₂ produit grâce aux technologies de capture et séquestration du carbone. Sachant qu'il est douteux qu'à grande échelle, brûler du bois soit vraiment neutre en carbone et qu'il n'existe qu'une poignée d'usines pratiquant la capture et la séquestration du CO₂ de par le monde, cela paraît tout de même sacrément optimiste! Un autre petit détail: utiliser autant de biomasse nécessiterait d'y consacrer de l'ordre de 5 millions de km² de terres arables, soit un peu plus de la moitié de la superficie des USA… C'est pourquoi on peut affirmer que 2°C, c'est faisable … mais uniquement dans les modèles!

Ces modèles qui permettent d'atteindre l'objectif officiel ont tout de même un défaut: ils permettent de créer un écran de fumée devant la situation réelle des choses. En effet, écrire un scénario où on peut se permettre d'extraire massivement du CO₂ de l'atmosphère permet d'émettre plus au total, avant que la capture ne commence à faire son effet. Cela permet de conserver le discours politique sur les négociations: il faut toujours agir maintenant si on veut «sauver la planète», ce "maintenant" se déplaçant au gré des sommets sur le climat et des rapports du GIEC. Il est en quelque sorte toujours 5 minutes avant minuit. Pour illustrer le problème, en 2010, le programme des Nations Unies pour l'environnement a publié un document sur les efforts à faire pour combler entre les politiques menées ou annoncées et ce qu'il faudrait faire pour atteindre l'objectif des 2°C: l'objectif des émissions à l'horizon 2020 était de 44Gt d'équivalent CO₂ pour l'ensemble des gaz à effet de serre. En 2015, le résumé pour les décideurs de la nouvelle édition mentionne 42Gt pour … 2030! En 5 ans, on a gagné 10 ans d'émissions «gratuites»: c'est fort!

C'est pourquoi des voix se sont élevées pour dire qu'il fallait que les scientifiques cessent de tenir ces scénarios pour crédibles et de les maintenir en avant. Il faut remarquer que c'est déjà le cas pour l'objectif de limiter le réchauffement à 1.5°C: les scénarios n'étaient déjà pas très nombreux en 2010, ils ont disparu aujourd'hui. On pourrait certes penser qu'abandonner l'objectif plus ou moins présent depuis les années 90 dans les négociations risquerait d'en couper l'élan: si tout est perdu, à quoi bon? Mais en fait, les conséquences du réchauffement climatiques empirent progressivement avec son amplitude et signaler que l'objectif originel ne peut plus être atteint serait surtout un signe que la situation est hors de contrôle et que la détérioration est déjà bien engagée. Si on continue à apporter des bonnes nouvelles aux responsables politiques, ils sont en quelque sorte protégés des conséquences de la procrastination puisqu'ils peuvent toujours prétendre que l'objectif sera atteint pendant que les négociations piétinent.

Des échos clairs de la situation sont parus en langue anglaise, et dernièrement dans la presse en français. Mais à la fin de la COP21, il ne faudra pas se laisser abuser: si les engagements ne permettent pas de tenir l'objectif des 2°C ce n'est pas par manque de volonté politique aujourd'hui, mais parce que l'objectif est devenu inatteignable.

11 novembre 2015

Le réchauffement climatique

À l'occasion de la prochaine conférence sur le climat qui va se tenir à Paris, la COP21 selon son acronyme anglais, je vais écrire quelques billets pour en couvrir quelques aspects. Ce premier billet est consacré à la base scientifique du phénomène et des prévisions que font les modèles sur le futur du climat. Rien de novateur a priori, il s'agit surtout de fixer les idées en partant du dernier rapport du 1er groupe de travail du GIEC.

On peut définir le réchauffement climatique de façon générale par l'accumulation de chaleur par la Terre sur une longue durée. Cela se traduit par une hausse des températures moyennes à la surface du globe, de façon non uniforme: la répartition du stock de chaleur peut changer entre la surface des océans et les continents, par exemple. Mais cette accumulation peut se mesurer depuis l'espace: en effet, le seul moyen pour la Terre d'évacuer de la chaleur est de la rayonner et le principal apport — et de très loin — est la lumière du Soleil. Comme depuis les années 70, des satellites mesurent ces 2 données en permanence, il est désormais établi avec certitude que la Terre accumule de la chaleur. Cet apport est évalué à environ 0.45W/m² — en répartissant uniformément à la surface de la Terre — en moyenne entre 1971 et 2010 (p7 du résumé technique). En conséquence de quoi, les températures moyennes ont augmenté avec une tendance d'environ +0.12°C par décennie depuis les années 50 (p5) et sur les 10 années les plus chaudes jamais mesurées, 9 sont au 21ᵉ siècle et la manquante est 1998, année la plus chaude du 20ᵉ siècle.

Une fois les observations acquises, il reste à les expliquer. Comme la luminance du Soleil n'a pas beaucoup varié ces dernières décennies, il faut se tourner vers d'autres explications, et il s'avère que c'est bien l'accumulation de gaz à effet de serre qui expliquent le mieux les observations. RFs_AR5.jpg Il faut dire que l'effet de serre a une longue histoire tant théorique que pratique. Dès la fin du 19ᵉ siècle, on s'est aperçu que la température moyenne à la surface de la Terre était trop élevée par rapport à un bête calcul d'équilibre thermique. Il fallait donc expliquer la différence: rapidement, on s'est aperçu que divers gaz absorbaient dans l'infrarouge, comme la vapeur d'eau ou le gaz carbonique. D'où des tentatives de déterminer la variation de température moyenne si on augmentait la concentration de l'atmosphère en CO₂. Au fond, le modèle de l'effet de serre est assez simple à comprendre: en absorbant une partie du rayonnement émis par la surface de la Terre, l'atmosphère agit comme une couverture qui fait monter la température. Une partie de la chaleur est piégée et ce d'autant plus qu'une partie de l'énergie absorbée revient aussi à la surface de la Terre par des phénomènes de conduction thermique. Comme les bandes d'absorption du CO₂ ne sont pas confondues avec celles de l'eau, augmenter sa concentration provoque plus d'absorption et donc une hausse de la température.

Quant à l'origine de l'augmentation de CO₂, il n'y a aucun doute sur sa réalité et sur son origine. Cela vient de l'utilisation de combustibles fossiles, de la déforestation ainsi que de quelques procédés industriels. Le GIEC parle d'émissions depuis 1750, mais en fait, avant la Seconde Guerre Mondiale, les émissions étaient bien moins élevées. Ce n'est qu'avec l'exploitation massive du pétrole que les émissions ont véritablement décollé. fossil_fuels_AR5WG1.jpg Au total en 2010, les émissions de CO₂ dues aux activité industrielles (combustion de combustibles fossiles plus divers procédés) dépassent les 30 milliards de tonnes (Gt) par an, auxquelles il faut ajouter 5Gt/an pour la déforestation et l'équivalent d'un peu moins de 15Gt/an pour les autres gaz à effet de serre comme le méthane et le N₂O, pour un total d'à peu près 50Gt/an d'équivalent CO₂.

Ensuite, le GIEC détermine des scénarios moyens et lie des masses d'émissions à une probabilité de rester sous une certaine élévation de température. Il est important de noter que ces quantités sont données à partir de 2011: nous sommes en 2015 et ces budgets sont déjà entamés. AR5_CO2_budgets.jpg Pour accomplir l'objectif proclamé d'avoir plus de 2 chances sur 3 de limiter le réchauffement à moins de 2°C, il restait donc à peu près 1000 Gt de CO₂ possibles à émettre (les autres gaz à effet de serre ne sont pas comptés dans ce budget, mais modélisés à part).

Le premier effet du réchauffement climatique est la hausse du niveau des mers par 2 voies: la dilatation thermique et la fonte des glaciers terrestres. Ces 2 termes expliquent environ 80% de la hausse observée du niveau des mers; le reste est dû à la différence entre le pompage des nappes phréatiques et du stockage dans des barrages. La précision des observations de la hausse du niveau des mers s'est grandement améliorée à partir des années 90 quand le premier des satellites d'altimétrie radar a été lancé. Avec ses successeurs, on observe depuis plus de 20 ans une hausse d'environ 3mm/an du niveau moyen des mers. Au 21ᵉ siècle, la différence entre les situations où il y aurait un fort réchauffement et celui où il serait plus limité est relativement faible: si on limite le réchauffement à 2°C, on peut s'attendre à une hausse du niveau des mers de 40cm contre 75cm dans le cas de la prolongation tendancielle (grosso modo +4 ou +5°C). Mais une vraie différence apparaît à plus long terme: la fonte de la calotte du Groenland se produit vers un réchauffement de +1.5°C et une hausse du niveau des mers de 6m à l'échelle de plusieurs millénaires, et à l'échelle de plusieurs siècles, le cas du fort réchauffement conduit à une élévation de l'ordre de 4 à 5m en moyenne, contre moins d'un mètre s'il est contenu. Combiné aux autres changements annoncés dans la répartition des précipitations, de la hausse de la fréquence des épisodes de fortes précipitations, on comprend qu'il y a là motif à agir, ne serait-ce que pour limiter la vitesse des changements les plus néfastes.

28 octobre 2015

Tract ou journal?

Mardi après-midi, est paru sur le site du Monde un article intitulé Le nucléaire, une solution pour le climat ?, signé par Pierre Le Hir. A priori, on s'attendrait à une comparaison des émissions de CO₂ entre diverses technologies, mais en fait, il semble bien qu'il s'agit en fait de relayer la parution d'un argumentaire anti-nucléaire par diverses associations opposée à cette technologie. En effet, la structure de l'article est composée d'une introduction où on parle de la position d'EDF, puis un corps où l'argumentaire des opposants est développé, pour terminer pour citer le GIEC, mais surtout dans ses remarques les plus négatives.

Évidemment, le nucléaire ne règlera pas à lui tout seul le problème des émissions de CO₂ et du réchauffement climatique, mais comme personne ne prétend qu'une technologie peut y parvenir seule, la question est plutôt de savoir s'il peut apporter quelque chose. On peut alors se retourner vers quelques faits simples. Tous les ans, l'AIE publie un inventaire mondial des émissions de CO₂ venant de la production d'énergie, ainsi que son résumé, gratuit et accompagné d'un tableur. La dernière édition disponible aujourd'hui, celle de 2014, recense les émissions de 2012. On y constate une différence d'émissions de 4 tonnes de CO₂ par habitant entre la France et l'Allemagne, dont 3.3 pour le seul poste «production de chaleur & d'électricité». La source de cette différence est bien connue: en Allemagne, presque 50% de la production d'électricité est assurée par du charbon et les 2/3 à partir de combustibles fossiles, alors qu'en France, les moyens décarbonnés assurent plus de 90% de la production et le nucléaire entre 75 et 80%. Comme on peut le constater, cette expérience montre que le nucléaire a bien le potentiel de réduire substantiellement les émissions dans certains pays, et non des moindres! CO2_FRvsDE.jpg

Un autre argument avancé est que le nucléaire émet lui aussi du CO₂. Ce n'est pas faux: lors de la construction, on a besoin de ciment et d'acier, qui nécessitent d'émettre du CO₂ pour les produire. Afin de comparer tous les effets, le concept d'émissions sur le cycle de vie a été développé. Il s'agit de comptabiliser toutes les émissions qui ont servi à produire de l'énergie, du début de la construction à la démolition. Le GIEC fournit dans le résumé technique de la partie sur les solutions possibles au problème du réchauffement climatique le graphe suivant p41 (coupé pour ne tenir compte que des technologies actuellement disponibles). LCA_technos.jpg On constate que le nucléaire est parmi les moins émetteurs: la médiane des études le met à égalité ou presque avec l'éolien. On est donc bien en peine de trouver le moyen de production d'électricité qui produirait vraiment moins de CO₂ par unité d'énergie, ce qui est quand même l'essentiel pour lutter contre le réchauffement climatique. Le solaire phovoltaïque, par exemple, émet plus que le nucléaire, ce qui ne l'empêche pas d'être apprécié par les opposants au nucléaire. C'est à peine si l'auteur de l'article mentionne cela, tout au plus il mentionne que le GIEC classe le nucléaire parmi les sources à faibles émissions de carbone.

Les autres problèmes du nucléaire existent bien, mais aucun des problèmes des alternatives ne sont exposés. Par exemple, nulle mention du problème de l'intermittence de l'éolien ou du solaire. Le scénario de l'ADEME qui prévoit un mix électrique 100% renouvelable est mentionné, sans dire que certaines technologies nécessaires n'existent pas à l'heure actuelle. Enfin, quand on mentionne les problèmes d'acceptation par la population, c'est évident que tout dépend de la perception qu'en ont les gens … qui serait peut-être améliorée par une information impartiale qui éviterait de n'instruire qu'à charge.

Cet article semble donc être avant tout une reprise de la communication des associations anti-nucléaires. Même pour un «compte-rendu», on serait tout de même en droit d'attendre que les inexactitudes dans leurs positions ne soient pas relayées complaisamment. Et qu'à la question posée dans le titre, on apporte la véritable réponse que les faits appellent: Oui, le nucléaire est une solution pour le climat, mais seulement partielle et s'il devient mieux accepté et moins cher!

2 mai 2015

Le scénario d'électricité 100% renouvelable de l'ADEME

Médiapart a publié sur son site un pré-rapport d'une étude commandée par l'ADEME sur la faisabilité d'une production d'électricité totalement renouvelable en France. Par la suite, devant cette fuite, l'ADEME n'a guère eu d'autre choix que de publier elle-même ce document provisoire sur son site web. Ce post concerne le contenu de ce document, et il fait suite à celui concernant d'autres scénarios de production électrique 100% renouvelable (ou quasiment).

Comme explique dans le post précédent, le scénario de l'ADEME peut s'appuyer sur des précédents et ne sort pas de nulle part. En fait, pour faire le scénario le plus crédible possible, on peut déduire de ces précédents les choses suivantes:

  1. L'éolien terrestre va constituer la première source d'électricité. La production est répartie tout au long de l'année avec en moyenne un surplus en hiver, ce qui ressemble à la consommation. De plus, c'est aujourd'hui la source renouvelable d'électricité la moins chère aujourd'hui; les baisses de prix à prévoir pour en faire l'acteur dominant peuvent se révéler faibles. La France bénéficie aussi d'une situation relativement favorable du point de vue de l'intermittence avec une forte différenciation entre les régimes de vent au sud (Mistral et Tramontane) et au nord (vents d'Ouest venant de l'Atlantique). En supposant une amélioration de la technologie, le facteur de charge — la quantité produite rapporté au maximum possible — augmente à conditions météorologiques constantes, ce qui limite les besoins de stockage ou de lignes THT.
  2. Comme l'éolien ne suffit pas à lui tout seul, il faut lui adjoindre une autre source: en général, le photovoltaïque est indiqué car on peut en installer un peu partout, sur les toits dans le pire des cas. Comme une baisse des prix importante s'est produite ces dernières années, il suffit de prolonger la tendance pour obtenir des prix bas. Cependant, le photovoltaïque et l'énergie solaire en général présentent 2 gros défauts: la production est concentrée l'été et en milieu de journée ce qui provoque des pics de production.
  3. En conséquence, il va falloir mobiliser de la demande mobile au cours de la journée ou de la semaine. En invoquant un mix de smart grid, de chauffage électrique et de voitures électriques, comme dans le scénario du Fraunhofer Institut, c'est réalisable. Il faut cependant rester à des puissances déplaçables raisonnables sous peine de paraître peu crédible.
  4. Pour compléter la gestion dynamique de la demande, il faudra du stockage. En effet, il est impossible de s'affranchir totalement de l'intermittence rien qu'avec le solaire et l'éolien: pour passer les périodes sans vent ni soleil, il faudrait construire énormément plus de capacités de production que l'énergie totale consommée ne le nécessite. Il faut aussi limiter cette composante, car cela coûte cher, tant en production qu'en argent. De ce côté, la France présente un atout avec ses lacs de barrage qui permettent de limiter cet appel au stockage.
  5. Construire des lignes THT et se reposer sur le commerce international est aussi utile: c'est une façon relativement économique d'éponger les surplus et de remplir les creux. Une nouvelle fois, une minimisation des besoins est importante, non pas tant à cause des coûts que de l'opposition générale que la construction de ces lignes suscite
  6. Enfin, évidemment, il faut que les coûts des technologies favorisées soient présentés comme plutôt faibles, sinon le scénario ne semblerait pas très intéressant.

Le scénario de référence

Pour sélectionner la répartition entre technologies ainsi que la répartition spatiale des installations, un logiciel d'optimisation est utilisé pour minimiser les coûts totaux avec en entrée les coûts de chaque technologie par région ainsi que les coûts des lignes THT à installer. Les puissances à installer sont calculées région par région, les réseau THT est optimisé en minimisant les liens entre régions. Les conditions aux bornes sont que la situation commerciale de la France est neutre — autant d'imports que d'exports sur l'année — avec une capacité d'import-export fixée à l'avance au niveau actuel, que le stockage est équilibré sur l'année — autant d'entrées que de sorties — et que la consommation totale annuelle est de 422TWh.

Pour couvrir cela dans le scénario de référence, environ 106GW d'éolien et 63GW de solaire PV sont installés pour compléter les installations hydro-électriques déjà présentes aujourd'hui, 3 GW de bois ainsi que diverses technologies plus ou moins obligatoires à présenter (solaire à concentration, géothermie, ordures ménagères …) mais qui n'ont aucun impact substantiel sur le résultat de la simulation. Le réseau THT modélisé a une capacité de 68GW, une augmentation a priori raisonnable de 30% par rapport à ce qui serait nécessaire aujourd'hui selon le même modèle. Le stockage est représenté par les 7GW de stations de pompage — plus ou moins ce qui existe déjà en France —, 12GW nouveaux de stockage court terme ainsi que 17GW de stockage long terme sous forme de méthane pour servir l'hiver. On peut voir la répartition complète pour les moyens de production «primaires» ci-dessous, ainsi que la répartition de la production qui en découle. mix_install_reference.jpg mix_prod_reference.jpg

Comme on peut le voir, l'éolien sous ses diverses formes représente l'essentiel de la production primaire avec environ les 2/3 du total, l'éolien terrestre en assurant plus de la moitié à lui seul. Le solaire PV et l'hydraulique se partagent quasiment le reste à part presque égales avec une petite place pour les autres technologies. L'importance de l'hydraulique permet à ce scénario de partir sur des bases plus sympathiques que ceux étudiant l'Allemagne: avec les autres technologies renouvelables plus ou moins pilotables ou fonctionnant de façon continue, presque 25% de la demande est couverte. L'importance du stockage n'apparaît pas sur ces graphes — dommage! Mais la façon de le gérer est la principale innovation, me semble-t-il, de cette étude et ce qui permet de la rendre réaliste. En effet, les études passées en revue dans le post précédent achoppent sur deux points: s'il n'y a qu'un seul moyen de stockage adaptable, la puissance installée augmente fortement pour aller chercher l'ensemble du surplus dans les heures de forte production intermittente. En conséquence, le facteur de charge finit par baisser de façon dramatique ce qui fait exploser les coûts: une bonne partie des installations est de fait à l'arrêt toute l'année ou presque. Si on ne met pas de stockage, on doit alors utiliser du réseau à foison, ce qui finit par devenir irréaliste à cause de l'impopularité des lignes THT.

Le stockage est réparti en 3 classes: le court terme, le moyen terme (pompage) et le long terme (méthane). Un des points les plus importants est que le stockage de long terme coûte plus cher que les autres et il faut absolument en minimiser la puissance installée. De même pour les autres, même s'ils sont modélisés avec un coût nettement plus faible, les faire tourner le plus possible minimise les coûts totaux. Pour minimiser la puissance installée de l'entrée et de la sortie en stockage de long terme, l'étude autorise largement le recours aux transvasements entre stockages ainsi que le recours aux importations, même pour le remplissage (cf par exemple les figures 53 et 54 p44). On peut dire que c'est un succès: le facteur de charge de la transformation électricité vers gaz est d'environ 40% avec des mois où elle tourne en permanence comme le mois de juin (cf figure 72 p67) et pour le mois de février, c'est la sortie qui fonctionne à plein régime tout le mois. La flexibilité du stockage associé à son coût raisonnable est à mon avis ce qui explique, avec la proximité des coûts des technologies utilisées, le tir groupé sur les coûts qu'on constate dans l'étude. Cette façon de gérer le stockage permet aussi de limiter la gestion de la demande à une dizaine de GW. Associé aux 30GW de stockage, ça permet d'absorber l'ensemble des à-coups tout en restant dans une zone qui semble à peu près réaliste: c'est la première étude 100% renouvelable que je lis qui entre dans cette catégorie.

Le scénario de référence est complété par des variantes ou des concurrents:

  1. Un scénario où la demande est plus forte: 510 TWh contre 422TWh. C'est le 3e pire cas au niveau des coûts à cause de l'usage de certaines des technologies les plus chères qui sont écartées de ce fait du scénario de référence. Mais on reste à 5% du coût au MWh du scénario de référence, contrairement à ce que disent les titres (cf plus bas).
  2. Un scénario où il y a moins d'hydroélectricté disponible. En conséquence, c'est plus cher car il faut à la fois installer des moyens de production supplémentaires, accompagnés d'un peu de stockage et de réseau. Le MWh est 3% plus cher que dans le scénario de référence.
  3. Un scénario où les énergies marines sont nettement moins chères. Surprise: le coût au MWh est moins élevé en conséquence (-5%). Ça permet de constater que quand les prix baissent, on paie moins cher. C'est un scénario qui pourra laisser un peu d'espoir aux partisans de ces énergies, dont les perspectives sont pratiquement inexistantes si elles restent aussi chères et que le stockage baisse ses prix comme prévu par le scénario de référence.
  4. Un scénario où le coût des lignes THT est doublé. C'est le pire cas au niveau des coûts au MWh (+8%)! Ça s'explique par le fait que la simulation se met à installer des moyens de production chers et à renforcer le stockage. Combiné au dernier scénario, ça montre que le NIMBY est potentiellement très toxique pour les énergies renouvelables électriques (cf plus bas).
  5. Un scénario où on accepte 5% d'électricité non-EnR fabriquée en France et un autre où on en accepte 20%. Ces scénarios permettent de s'apercevoir que le stockage, même avec les hypothèses les plus optimistes ne fait pas vraiment le poids face aux combustibles fossiles, même frappés par un prix du carbone de 100€/tonne. Le scénario avec 80% d'EnR est le moins cher à coût du capital constant (-6%). Le stockage de long terme disparaît totalement au profit des turbines à gaz: c'est peut-être la meilleure preuve qu'il est très difficile de se débarrasser des combustibles fossiles. Les combustibles fossiles remplissent actuellement la fonction qui est dévolue au stockage de long terme, puisque le stockage d'énergie est juste une sorte de tas avec des choses à brûler quand on besoin d'énergie
  6. Un scénario avec 40% d'EnR où le nucléaire apparaît en force. Arrive à rester moins cher malgré le prix du nucléaire dans la fourchette haute des énergies: le stockage est quasi-totalement éliminé à part le pompage, le réseau est fortement diminué, ce qui compense le coût du nucléaire.
  7. Un scénario sans solaire PV. C'est un des plus chers (presqu'autant que le scénario haute consommation), car il faut recourir aux énergies marines — les plus chères de l'étude — et augmenter les capacités de stockage. Cette variante montre le côté relativement complémentaire du PV avec l'éolien.
  8. Un scénario sans éolien avec de grands rotors. Un peu plus cher (+2%), il suffit juste de jouer à la marge sur le PV, le réseau et le stockage. Cette variante montre à mon sens — même s'il est difficile d'en être sûr vue qu'elle n'est pas très détaillée — que la flexibilité du stockage permet d'amortir le profil plus intermittent.
  9. Un scénario avec un taux d'actualisation de 2%, extraordinairement faible. Sans surprise, c'est le moins dispendieux des scénarios: quand des moyens de production à coûts fixes sont financés presque gratuitement, c'est forcément moins cher!
  10. Un scénario où l'éolien terrestre est plafonné à 47GW environ, soit 2 fois moins que l'optimum de la simulation, et le PV de grandes dimensions à 24GW, une baisse d'un tiers. C'est le 2e scénario le plus cher (+7%) car ce sont les moyens de production les moins chers de l'étude. Il faut recourir aux énergies marines pour combler le manque. Dans ce scénario, le NIMBY est un gros problème pour tout le monde, y compris pour bâtir le réseau (cf variante 4.) d'où sa forte toxicité potentielle.

Les problèmes du document

Le premier problème de ce document, c'est qu'il n'est pas fini. Outre qu'il n'y a pas de résumé et qu'on peut facilement noter la présence de coquilles et de phrases bizarres, cela donne sans doute lieu à un contre-sens. Une des conclusions du rapport est que la maîtrise de la demande est un élément clé pour limiter le coût (titre p84) mais que les contraintes d'acceptabilité liées au réseau ne sont pas un obstacle (titre p86) ou encore que de fortes contraintes d’acceptabilité sociale sont compatibles avec un mix 100% renouvelable (titre p81). Ces phrases sont assez attendues dans un rapport de ce type, qui est après tout souvent commandé pour montrer la faisabilité du scénario étudié et relayer ce que pense le commanditaire. Mais en fait, la figure 77 (p71, oui, il faut suivre) qui sert de base à la publicité pour la maîtrise de la demande est fausse: le MWh ne coûte pas 151€ dans le cas de la haute consommation mais 125€ comme indiqué p112 dans le dernier tableau ainsi que dans la discussion p85. La différence est due au fait que sur la figure 71, le coût total est divisé par une consommation fixe de 422TWh et non par la consommation de la variante… D'ailleurs si on lit le dernier tableau pour les coûts totaux — qui paraît coller avec les hypothèses, lui — on voit que toutes les variantes, sauf une, se tiennent dans ±8% du scénario de référence. L'exception est le cas où le coût du capital est de 2%. On peut trouver la répartition des coûts pour certains scénarios sur le graphe ci-dessous: cout_MWh3_annote.jpg

Que l'augmentation de la consommation ne soit pas un gros problème découle en fait des hypothèses prises. Régulièrement des études sur le potentiel des énergies renouvelables trouvent qu'il y a potentiellement assez d'énergie à capter pour couvrir les besoins de consommation de n'importe quel pays développé. Donc tant que les gisements d'énergie peu chères ne sont pas épuisés, l'augmentation du volume d'énergie produite n'est pas un problème de coûts. C'est donc naturellement que dans le scénario à forte consommation, où les énergies chères sont peu utilisées, que le coût de production de l'électricité «primaire» augmente dans des proportions raisonnables (+6%). D'ailleurs, il est important de remarquer que la contradiction dans le discours plaidant à la fois pour de fortes économies d'énergie et assurant que les énergies renouvelables vont devenir peu chères très bientôt: les économies d'énergies ne sont nécessaires que si toutes les sources d'énergies sont chères dans le cas contraire, elles ne servent que comme une sorte d'assurance contre une forte hausse des prix. gisements_utilises.png Par contre, ce qui pourrait se produire, c'est une forte hausse des besoins de stockage et de renforcement du réseau. On note effectivement une augmentation du coût du stockage dans le scénario à haute consommation … mais la modélisation du réseau, qui inclut des frais fixes, a pour conséquence que le scénario à haute consommation a les coûts de réseau par MWh consommé les plus bas! Les deux se compensent à peu près et on touche là à une des limites de la simulation.

En effet, le modèle suppose que le coût du réseau de distribution jusqu'aux lignes haute tension de 63 et 90kV est supposé fixe (p69). Or, plus il y a de moyens de production décentralisés, comme l'éolien ou le solaire PV, plus il faut renforcer le réseau, de la basse tension aux lignes haute tension, et non seulement les lignes THT pour le transport à grande distance. En effet, le solaire PV sur toiture est branché sur le réseau de distribution mais la puissance produite dépasse facilement la puissance couramment consommée pour une habitation, les grandes centrales solaires et l'éolien sont souvent connectés au réseau haute tension. L'étude ignore donc ce poste de coûts, pour être réellement représentatif, il aurait sans doute ajouter un petit quelque chose. C'est en tout cas ce que laisse penser un document de la Dena allemande dont on peut simplement extraire un graphe, en se rappelant que le réseau basse tension est tout de même moins cher au km que les lignes THT: expansion_reseau_allemand.jpg

Quant aux prix, il est important de se rappeler que ce sont les hypothèses de départ et non les conclusions de l'étude: en d'autres termes, le mix final et les coûts donnés à la fin dépendent directement de ces paramètres. Or, il s'avère que les projections à long terme sont dans le domaine de l'énergie le plus souvent fausses; il n'est qu'à voir la qualité des prévisions en ce qui concerne le prix du pétrole. Les hypothèses prises sont résumées par les figures suivantes: prix_sources_enr.jpg prix_stockage.jpg Il est aussi important de connaître le taux d'actualisation pris pour estimer ces coûts: 5.25%. Malheureusement, pour des installations de production, le taux le plus souvent choisi est 8%, en sus de l'inflation. C'est par exemple le taux pris par la Cour des Comptes et EDF pour évaluer les coûts du nucléaire actuel. Avec un taux aussi bas, et en prenant pour base une note du Syndicat des Énergies Renouvelables, on trouve qu'actuellement avec un taux de 5.25%, l'éolien devrait coûter aux alentours de 60€/MWh… La note du Syndicat des Énergies Renouvelables, venant en réponse à un rapport de la CRE trouvant en substance que les rentabilités étaient trop élevées, malgré un rythme d'installation atone, montre que peu sont prêts à investir avec une rentabilité aussi faible. D'un autre côté on voit des technologies fort chères ou quasiment inexistantes baisser radicalement leurs prix. C'est ainsi le cas de sources comme la biomasse ou l'éolien en mer. L'éolien en mer a fait l'objet d'appel d'offres et le prix est ressorti à environ 200€/MWh (sans compter l'indexation) par deux fois. De même les technologies de stockage sont actuellement quasi inexistantes, une seule existe vraiment: les stations de pompage. Dans ce cadre, la technologie de conversion par électrolyse semble se voir attribuer une baisse de prix d'un facteur 4 par rapport à ce qui attendu pour une construction aujourd'hui. Quant au stockage de court terme, il s'agit selon les propres termes du rapport d'une méta-technologie. Pour le dire simplement, il s'agit donc bien là d'hypothèses, qui servent de point de départ à la simulation: en déduire qu'un système 100% renouvelable serait bon marché est une erreur de logique, le système est à un prix raisonnable si ces hypothèses se vérifient.

Le nucléaire se voit attribuer un prix de 80€/MWh pour un facteur de charge de 80%. Avec l'utilisation réelle, le prix ressort d'ailleurs plutôt à 85€/MWh soit environ 30% de plus que l'éolien terrestre dans le modèle. Ce prix correspond grosso modo au prix de Flammanville 3 avant les derniers retards annoncés, soit 9.5G€, avec le taux d'actualisation annoncé (5.25%). La simulation avec peu d'énergie renouvelables est aussi désavantagée par divers facteurs: par exemple, il y a une limite basse pour l'installation de solaire PV sur toiture, une technologie chère dans le modèle, qu'on peut remplacer par l'alternative similaire des grandes centrales PV. Ça coûte environ 400M€ annuels avec les hypothèses du modèle, soit 1€/MWh. Ça peut sembler dérisoire, mais dans une simulation où tous les scénarios se tiennent dans quelques pourcents, ça a son importance. Mais un scénario avec 55% de nucléaire reste alors compétitif malgré le surcoût et les hypothèses de prix enthousiastes pour le stockage. Enfin, il est remarquable que le scénario le moins cher soit celui où les combustibles fossiles produisent quasiment autant qu'en 2012 … les émissions ne baissent que grâce à la fin du charbon et du fioul dans la production d'électricité. C'est la preuve s'il en fallait une qu'il sera difficile de se débarrasser des combustibles fossiles.

Quelques conclusions

Cette étude est la plus réaliste des diverses études modélisant une production d'électricité 100% renouvelable que j'aie lue. Grâce aux installations hydrauliques déjà présentes aujourd'hui et la gestion du stockage — innovante me semble-t-il — la puissance d'entrée des moyens de stockage reste limitée, de même que l'utilisation de la gestion active de la demande. La somme des deux ne dépasse pas 40GW, ordre de grandeur de la puissance moyenne consommée. On reste dans un domaine raisonnable, contrairement par exemple à l'étude du Fraunhofer Institut, où la somme des deux atteignait parfois 100GW, à peu près 2 fois la puissance moyenne consommée. Même si tout n'est pas parfait, cette étude permet de déterminer quels sont les éléments de succès ou de d'échec d'une production nationale d'électricité basée entièrement sur les énergies renouvelables. Il faut donc de l'éolien et du solaire PV abordable, une capacité d'importation intacte, du stockage peu cher et découpé en catégories d'utilisation (court terme, semaine, long terme), de la demande gérable à distance, typiquement basée sur le chauffage électrique. Les facteurs d'échec sont, à part la non-réalisation des facteurs de succès, le développement d'une réaction de NIMBY qui empêcherait la construction de nombreuses éoliennes et de lignes THT.

Comme les capacités à prévoir les inventions et les prix dans le futur sont très limitées, la question à laquelle répond cette étude est en fait: «que faut-il changer pour que la production d'électricité en France se fasse totalement à partir d'énergies renouvelables?». La réponse est donc que l'éolien terrestre doit baisser ses prix de 25%, l'éolien en mer d'un facteur 3 environ, le solaire PV d'un facteur 2, et surtout des technologies de stockage doivent apparaître et devenir compétitives. On doit aussi interdire quasiment les combustibles fossiles, faute de quoi leur utilisation ne serait pas très différente d'aujourd'hui. En outre, une gestion dynamique de la demande doit être mise en place, en grande partie basée sur le chauffage électrique — qu'on ne doit donc pas décourager — et pour le reste sur les voitures électriques — qui doivent encore se tailler une part de marché significative. Enfin, aucun mouvement de NIMBY ne doit apparaître.

Il n'est pas certain que tous ces points puissent se réaliser aisément tous en même temps: pour prendre un exemple, parmi les supporters des éoliennes, on ne trouve pas spécialement de supporters du chauffage électrique ou des lignes à haute tension. Dans un autre genre, la Cour des Comptes avait constaté que 40% des permis de construire d'éoliennes étaient retoqués par l'administration et sur ceux qui passaient ce filtre, un tiers était attaqué par des personnes privées. Au Royaume-Uni, les éoliennes sont suffisamment impopulaires pour que le parti conservateur compte en son sein de nombreux opposants à leur déploiement dans ses rangs, et cette opposition sert de justification au développement de l'éolien en mer pour lequel, d'ailleurs, l'opposition populaire aux éoliennes terrestre est en ce moment à peu près la seule justification.

Pour finir, il reste à répondre la question «Que faire à la vue de cette étude?». La réponse est en fait «pas grand-chose!». Si chercher à faire que les prix des énergies renouvelables baisse ne veut pas dire en installer massivement. En effet, elles sont aujourd'hui nettement plus chères que les alternatives. Par exemple, la position de départ de d'EDF avant négociation est de demander 55€/MWh pour l'électricité nucléaire venant d'un parc rénové, bien moins cher que ce qui est présenté dans l'étude. En conséquence, d'ici 2035, il n'y a pas besoin de changer grand-chose. De plus, certains tarifs de rachat pour les énergie renouvelables restent très élevés et produiront des effets jusque dans les années 2040, comme par exemple ceux de l'éolien en mer. Dans ce cadre, procéder à un déploiement massif dès aujourd’hui serait se faire mal tout de suite pour espérer que ça aille à peu près bien dans une trentaine d'années!

1 mai 2015

Scénarios d'électricité 100% renouvelable: quelques exemples internationaux

L'ADEME fait réaliser actuellement une étude de modélisation sur la faisabilité d'un système électrique français où la totalité de la production proviendrait d'énergies renouvelables. Une version du document résumant les conclusions de la modélisation a été publiée par Médiapart; c'est clairement une version de travail, puisqu'il n'y a pas de résumé au début du document. Cette publication du document non fini par la presse a amené l'ADEME à le publier à son tour sur son propre site. Avant de se tourner vers les résultats du scénario de l'ADEME, il peut être utile de regarder ce qu'ont donné d'autres modélisations ailleurs dans le monde car ce scénario de l'ADEME ne sort pas de nulle part.

PJM et l'Université du Delaware

PJM Interconnection est le nom d'une entreprise américaine gérant le réseau d'une partie des USA, sa zone de gestion originelle comprenait la Pennsylvanie, le New Jersey et le Maryland, d'où son nom. Au début des années 2000, elle a absorbé des réseaux électriques voisins pour s'agrandir considérablement: le réseau géré aujourd'hui comprend en sus des zones de départ la ville de Chicago, l'Ohio, les 2 Virginies, ainsi que des parties du Kentucky, de l'Illinois, du Michigan et de la Caroline du Nord. Dans son rapport annuel 2013, l’entreprise dit avoir transporté un peu moins de 794TWh annuels, avoir un pic de demande à 165GW et desservir 61M de personnes. Pour résumer, une population légèrement inférieure à celle de la France est desservie avec une consommation annuelle et un pic de puissance supérieurs de 60%.

Un papier de chercheurs de l'Université du Delaware, dont il a été question fin 2012, prétend montrer que les énergies renouvelables peuvent couvrir l'essentiel de la consommation à un coût comparable ou inférieur à celui des technologies classiques, un but finalement très proche de l'étude de l'ADEME. Les 100% d'énergie renouvelable ne sont pas atteints, mais c'est tout comme, puisqu'un scénario avec 99.9% de la consommation d'électricité couverte par les énergies renouvelables. Ce papier souffre cependant de tares certaines.

La première est celle du périmètre. La consommation prise en compte est celle de PJM entre 1999 et 2002: 31.5 GW moyens sur l'année soit à peu près 275TWh. Comme expliqué plus haut, PJM a sur son aire actuelle une consommation de l'ordre de 800TWh: la consommation prévue est 3 fois inférieure à la consommation réelle. Ce ne serait pas grave si l'aire prévue pour installer les moyens de production renouvelables était aussi réduite à l'aire ancienne de PJM mais la Figure 2 montre que les données météo utilisées couvrent toute l'aire actuelle. De fait, une division par 3 de la consommation est prévue par ce papier, sans le dire, bien sûr.

La deuxième est la surévaluation de la production à puissance installée donnée. Les puissances installées et les productions sont donnés dans le tableau n°3. On constate que dans le scénario 99.9% renouvelables, il y a 124GW d'éolien terrestre et une production moyenne de 50.3GW, soit un facteur de charge de 40%. Si on croise les données d'installations en service en Pennsylvanie avec la production constatée, on trouve qu'il est plutôt de l'ordre de 30%. De fait, à peu près toutes les études «100% renouvelables» supposent une augmentation importante du facteur de charge de l'éolien, en faisant l'hypothèse que les éoliennes de grande taille s'imposeront (et auront bien les performances attendues).

La troisième, c'est l'importance de la production jetée. La production moyenne annuelle est de 91.5GW (soit environ 800TWh) pour une consommation de 31.5GW: les 2/3 de ce qui est produit est jeté. La raison est que dans leur modèle, le stockage est cher et il vaut alors mieux construire en de multiples exemplaires que d'installer des capacités de stockage — qui sont tout de même présentes avec des véhicules électriques qui servent de réserve. En conséquence, il est assez difficile de croire que le mix choisi est moins cher que la situation actuelle comme le clament les auteurs. Ils arrivent à cette conclusion en faisant plus que tripler le prix réel payé aux producteurs avec les externalités qui ne sont pas incluses dans le prix actuel, comme les émissions de CO₂. Mais même ainsi, ça semble très difficile et reposer sur des hypothèses très optimistes de réduction des coûts. Actuellement, les coûts des énergies renouvelables font l'hypothèse que la totalité de la production est consommée et rémunérée. Si seuls 1/3 étaient véritablement utilisés et payés, les producteurs d'énergie éolienne réclameraient 3 fois plus pour couvrir leurs frais. Ainsi, la baisse des prix attendue devrait couvrir aussi les coûts de cette énergie jetée: la baisse des prix attendue est donc très forte et les consommateurs paieraient aussi nettement plus.

Energieziel 2050 d'une équipe du Fraunhofer Institut

En 2010, une équipe du Fraunhofer Institut (IWES) a publié une étude, commandée par le gouvernement allemand, sur un scénario 100% renouvelables (résumé en anglais). La totalité de l'énergie consommée en Allemagne, et non seulement l'électricité, devait provenir de sources renouvelables. Une partie du scénario était déjà écrite, puisque les besoins en énergie étaient déterminée à partir d'une étude du WWF. La caractéristique de ce modèle est que l'utilisation de combustibles en dehors des transports — provenant exclusivement de biomasse — est restreinte à moins de 400TWh, contre plus de 1300TWh actuellement, soit une réduction par un facteur supérieur à 3 (p23-24). L'électricité remplit certains besoins pratiquement exclusivement remplis par des combustibles en Allemagne, comme le chauffage des habitations. C'est accompagné de réductions de consommation extraordinaires dans ces domaines: ainsi, pour le chauffage et l'eau chaude, un gain d'un facteur supérieur à 15 est prévu, ce qui est, disons, très ambitieux. Au final, la consommation d'électricité n'est réduite que de 7% en passant d'un peu plus de 500TWh à un peu moins de 470TWh.

La stratégie adoptée dans ce scénario est de se reposer sur un petit socle d'hydraulique et de géothermie, puis d'utiliser massivement de l'éolien et du solaire photovoltaïque. Comme ce sont des sources intermittentes, les «trous» sont bouchés, dans l'ordre d'appel, par la biomasse en cogénération, les importations puis par le déstockage et enfin des centrales à (bio)gaz sans cogénération. Les surplus de solaire et d'éolien sont stockés sous forme de chaleur, dans des batteries — via la gestion de la demande — ou d'hydrogène — via des électrolyseurs avec une alternative où du méthane est stocké. Une utilisation massive de la gestion de la demande est faite, en la déplaçant dans le temps, à relativement court terme pour la plupart, même si une partie de la charge des véhicules électriques est retardée de 5 jours au maximum.

La modèle repose donc notamment sur l'installation de 60GW d'éolien terrestre, 45 GW en mer et de 120 GW de photovoltaïque. 44GW d'électrolyseurs sont utilisés pour éponger les surplus, pour être brûlés dans 28GW de centrales au gaz à cycle combiné. Quant à la demande pilotée, elle peut passer de 0 à plus de 50GW en environ 12h, ce qui n'est pas rien quand on sait que la consommation totale de 470TWh équivaut à une puissance moyenne d'environ 54GW. Les auteurs obtiennent la production globale décrite dans la figure ci-dessous (p98), dans le cas du stockage de l'hydrogène (le cas du méthane est identique à ceci près que 7TWh de pertes de conversion supplémentaires sont contrebalancés par autant d'imports): IWES_H2_prod.jpg

On constate que, comme pour le papier de l'Université du Delaware, le facteur de charge de l'éolien terrestre a été boosté par rapport à l'existant: il atteint 32% pour un facteur de charge constaté qui a rarement dépassé les 20% jusqu'à présent.

Pour ce qui est de la modulation de la demande et de la vitesse de démarrage des électrolyseurs, on peut se rendre compte de ce que ça donne en été en regardant le graphe ci-dessous (p86): il ne faut pas se rater! La courbe de demande totale, le trait plein rouge décolle de la demande incompressible (pointillés) de 50GW en moins de 12h. Les électrolyseurs sont parfois sollicités pour leurs 44GW dans un laps de temps encore plus réduit. On constate aussi qu'il n'y a pas de charge pour les véhicules électriques la nuit: tout se passe de jour. Pour donner deux éléments de comparaison, la différence entre la consommation à 6h du matin et 9h du matin en juin en France est de 12GW, le pic record de consommation de 102GW de 2012 avait une hauteur d'environ 10GW comparé aux heures avoisinantes: les auteurs demandent là au réseau de supporter une pente de consommation à peu près double d'aujourd'hui pendant une durée nettement plus longue. IWES_profil_ete.jpg

Côté stockage, les électrolyseurs nécessaires n'existent pas aujourd'hui. D'abord parce que la production d'hydrogène se fait essentiellement à partir de combustibles fossiles aujourd'hui, mais aussi parce que les électrolyseurs actuels sont plutôt faits pour fonctionner en permanence. Or, on leur demande dans ce scénario d'être disponibles toute l'année mais de ne tourner que l'équivalent de 25% du temps. C'est sans doute possible, mais le fait que les électrolyseurs soient aussi peu répandus aujourd'hui pointent vers un coût certain, voire de réelles difficultés techniques. Ce scénario souffre aussi de la présence de sources «magiques», comme la géothermie ou les imports d'énergie renouvelable. La géothermie est aujourd'hui réservée à des situations géologiques spéciales comme celles de l'Islande ou de la Californie dont il ne semble pas que l'Allemagne se rapproche. Ailleurs les coûts semblent très élevés et le potentiel finalement faible. Mais pourtant c'est une source qui produit dans ce scénario 10% du nécessaire à puissance constante. De même, le profil des importations fait plutôt penser à des centrales thermiques classiques (à combustibles fossiles) qu'à des productions renouvelables.

le SRU et les chemins vers l'électrique 100% renouvelable

Le SRU — littéralement le Conseil des Experts sur les Questions Environnementales — est une émanation du gouvernement allemand, établi comme son nom l'indique pour le conseiller sur les politiques environnementales. En 2011, il a publié un document dont le but est de montrer comment bâtir un système électrique 100% renouvelable (version en allemand). Plusieurs scénarios sont évoqués: l'un qui repose sur une autosuffisance totale de l'Allemagne, sans échanges avec les voisins; un deuxième fait l'hypothèse que 15% des besoins allemands peuvent provenir de Norvège, un dernier repose sur un réseau incluant l'Europe et l'Afrique du Nord, similaire au défunt Desertec.

Ce scénario prévoit des installations étudiées selon des considérations de coûts. Seulement, dans des projections à long terme, les prix sont toujours sujet à caution. Ils le sont particulièrement dans ces scénarios où l'éolien en mer devient moins cher que le terrestre en 2050. Comme on peut le constater sur le graphe de la p77, quelqu'un a peut-être un peu abusé de la fonction exponentielle. En effet, pour l'éolien terrestre devienne plus cher que le marin, il faut que le surplus de production marine compense les surcoûts importants de construction en mer, de déplacement pour entretien, etc. Franchement, ça ne paraît absolument pas crédible. SRU_prices.jpg

Avec un éolien en mer à 42€/MWh, celui-ci figure en bonne place dans tous les scénarios, avec 73GW installés qui produisent 317TWh. À partir de là, il est possible de construire des scénarios où les renouvelables produisent 700TWh annuels à un prix de 115€/MWh quand il n'y a pas d'échange (cf Table 3-5 p98). Mais il existe un moyen de réduire encore les coûts: accepter qu'il y ait des échanges internationaux. Le rapport va même jusqu'à affirmer que à propos d'échanges entre l'Allemagne (p95-96):

A simple model for such cooperation is an energy supply network comprising Germany, Denmark, and Norway (or Sweden), whose interchange and reciprocal dependency even the most hardened skeptics would have to admit will entail little or no risk in terms of ensuring a reliable electricity supply.

Des esprits forts pourraient se dire que tout dépend des quantités à échanger voir à importer. Avec 500TWh, les 15% représentent 75TWh; quand la consommation est de 700TWh, ça représente 105TWh. À titre de comparaison, les exportations (nettes) françaises en 2014 — une excellente année de ce point de vue — représentent 65TWh: avec de tels volumes, l'Allemagne deviendrait le premier importateur mondial d'électricité. Accessoirement, la production électrique norvégienne de 2012 était d'un peu moins de 150TWh: ces importations représenteraient entre la moitié et les 2/3 de la production actuelle de la Norvège, source de ces importations! Il est possible que les Norvégiens ne voient pas forcément d'un très bon œil la construction massive de barrages que cela suppose. Mais dans ce cas, c'est miraculeux (p107): le prix moyen dans le cas d'une consommation de 700TWh est de 72€/MWh, certes deux fois plus élevé que le prix spot actuel … mais moins cher que ce que paie un ménage allemand entre la production «standard» et la taxe EnR. En passant, les capacités d'interconnexion nécessaires entre l'Allemagne sont quelque part entre 40 et 70GW (c'est à dire entre 75 et 90% de la demande moyenne). SRU_interconnect_2050_DKNO.jpg

Cela dit, le scénario pan-européen et incluant les pays d'Afrique du Nord est encore plus extraordinaire, puisque le réseau européen ressemblerait à ça: Path_EUNA_2050.png Pour mémoire, en 2010, les interconnexions de l'Europe de l'Ouest ressemblaient plutôt à ça (avec des valeurs en MW donc 1000 fois plus élevées que sur le graphe ci-dessus): interconnect_EU_2010.png Les choses n'ont pas fondamentalement changé depuis, même si une ligne entre la France et l'Espagne a été inaugurée récemment … 20 ans après que sa construction ait été décidée.

Alors, comment faire un scénario 100% renouvelables?

La lecture des ces scénarios nous renseigne sur la façon de construire un scénario de réseau électrique entièrement alimenté par des énergies renouvelables, autres que l'hydraulique. Les ingrédients semblent être les suivants:

  1. De l'éolien, de préférence en supposant que le facteur de charge va augmenter fortement, notamment en supposant que les pylônes et les rotors seront plus grands dans le futur. L'éolien a l'avantage d'être présent un peu toute l'année et d'avoir un surplus l'hiver, lorsque la consommation est plus élevée — que ce soit à cause du chauffage, de l'éclairage … ou des vacances! Son défaut principal actuel est son intermittence, l'augmentation du facteur de charge amoindrit ce problème
  2. De quoi déplacer de la demande de façon importante. En effet, pour compléter l'éolien, la technologie favorite est le solaire photovoltaïque. Il n'a échappé à personne que, comme le soleil ne brille pas la nuit, l'intermittence est très forte dès lors qu'on installe des puissances importantes. Pour éviter de gaspiller de l'énergie et profiter au maximum de la production solaire, il faut déplacer la demande de façon forte.
  3. Des interconnexions: évidemment, aujourd'hui, le stockage n'existant quasiment pas, la solution toute trouvée est d'exporter les surplus et d'importer pour combler les trous. Pour le futur, supposer que construire des lignes THT est moins cher que le stockage n'est pas une hypothèse forte. Ça permet de diminuer la puissance des installations de stockage et aussi d'exporter une partie des problèmes dus à l'intermittence. Minimiser les constructions de lignes THT est cependant une bonne idée: il n'a échappé à personne que ce sont des projets fondamentalement impopulaires et en prévoir trop serait prêter le flanc aux critiques … et plomber les coûts.
  4. Un peu de stockage de l'électricité: quoi qu'il arrive, à cause de l'intermittence du photovoltaïque et de l'éolien, il faut stocker une partie de l'énergie produite. Il faut le faire à tous les horizons de durée de façon à bien amortir les fluctuations de la production. Dans une simulation économique, il faut aussi supposer que ces moyens qui n'existent pas encore ne sont pas trop chers

Avec cela, on peut construire un système basé totalement sur les énergies renouvelables. Ce n'est donc pas une surprise de constater que le scénario de l'ADEME suit exactement ces principes.

26 octobre 2014

Vers un doublement de la CSPE

Le 15 octobre dernier, Philippe de Ladoucette, le président de la CRE était entendu par la commission d'enquête sur les tarifs de l'électricité à l'Assemblée Nationale (retranscription, vidéo). À l'occasion, la CRE rendait public deux rapports, l'un sur les tarifs régulés d'EDF et un autre sur les perspectives de la CSPE. Ce billet est consacré au rapport sur la CSPE. La CSPE est une taxe un peu fourre-tout qui sert à la fois à financer les tarifs sociaux de l'électricité, la péréquation avec les îles sous administration française (Corse, DOMs, etc.) ainsi que les tarifs de rachats divers dont ceux des énergies renouvelables. L'élément le plus remarquable de ce rapport sur la CSPE est qu'il la voit passer de 16.5€/MWh cette année à 30.2€/MWh en 2025. CSPE_2003-2025.jpg

La situation présente

Ces dernières années, avec notamment la forte hausse du prix du pétrole et la bulle du photovoltaïque en 2010, les charges à couvrir ont fortement augmenté, ce qui a provoqué l'apparition d'un déficit de plus de 4G€ qu'il va falloir résorber. Cette année, avec 16.5€/MWh, la taxe couvre les charges courantes prévues à 6.2G€. L'année prochaine, le stock de dette devrait commencer à se résorber, la CSPE étant augmentée plus vite que les charges courantes. Elle atteindra 19.5€/MWh pour des charges courantes de 17.7€/MWh. Aujourd'hui, plus de 60% des charges relèvent des énergies renouvelables et un gros quart de la péréquation, les tarifs sociaux n'en représentent que 5% environ.

La hausse des prix du pétrole a eu un impact sur le coût de la péréquation: dans les îles, les centrales sont bien souvent des centrales au fioul. De ce fait, le coût de la péréquation atteint environ 1.9G€ en 2014, en incluant les EnR de ces régions. Le plus gros poste relève des tarifs de rachats de toute sortes et aux prix les plus divers, de la cogénération — à base de combustibles fossiles… — au solaire photovoltaïque qui représentent 3.5G€ cette année pour les installations métropolitaines. Le solaire photovoltaïque de métropole absorbe à lui seul 2.1G€ de subventions. Avec 14% de la production éligible aux tarifs de rachat, ce dernier capture à lui seul 62% des subventions! L'explication de cette situation est que les subventions sont accordées sur la base des coûts de chaque type d'énergie subventionnée, sans vraiment prendre en compte l'utilité de chacune. Cette situation paraît amenée à perdurer comme le montrent les prévisions de la CRE.

La situation future

La CRE prévoit une forte hausse de la CSPE, marquée dans un premier temps par une hausse rapide dans les 3 années qui viennent pour combler la dette accumulée, puis par la mise en service de nouvelles installations. Elle devrait atteindre 10.6G€ annuels en 2025, soit une taxe de 30.2€/MWh. La trajectoire prévue figure sur le graphe ci-dessous. evolution_unitaire_2013-2025.jpg

Comme la dette accumulée va être résorbée dans les quelques années qui viennent, la hausse de la taxe unitaire s'explique par la hausse des charges courantes. Comme les tarifs sociaux restent une petite partie du coût, les raisons sont à trouver dans les 2 gros contributeurs actuels: la péréquation et les tarifs de rachat. Le coût de la péréquation passe de 1.7G€ à 2.5G€ (Figure 81 p112) soit une augmentation de 50%. La plus grosse part de l'augmentation est donc causée par l'autre poste important, les tarifs de rachat qui passent de 3.5G€ en 2014 à environ 8G€ en 2025: ils font plus que doubler. evolution_EnR_2013-2025.jpg L'essentiel des subventions va à 2 technologies en 2025: le solaire PV et l'éolien en mer. À eux deux, ils capturent 5G€ sur 8G€ de subventions. Un constat s'impose: aux conséquences de la bulle du photovoltaïque vont se superposer les conséquences des appels d'offres sur l'éolien en mer qui se sont soldés par des tarifs extrêmement onéreux, puisqu'à l'horizon 2020, l'indexation amènera le prix à 220€/MWh environ. Avec 2.1G€ annuels de subventions dédiés aux contrats photovoltaïques signés avant 2013 et qui courent sur 20 ans de production, leur coût total s'élève à 42G€. Pour l'éolien en mer, la CRE prévoit sur la durée de vie des contrats actuellement passés 38G€ de subventions (p5). On voit que ce sont des sommes du même ordre. On peut conclure que la politique menée pour soutenir le secteur des énergies renouvelables électrique ne tient absolument pas compte du coût pour le consommateur.

60% des subventions en 2025 iront à des contrats mis en œuvre après 2013, ce qui montre que la bulle photovoltaïque de 2009-2010 ne sera certainement pas la seule responsable de la forte hausse de la taxe. Les estimations de la CRE conduisent peu ou prou à un chiffres d'affaires des secteurs sous obligation d'achat de 15G€/an pour une production d'environ 85TWh, soit environ 15% de la production d'électricité française. Si EDF obtient les 55€/MWh qu'il demande pour son parc nucléaire dans le futur, le chiffres d'affaires du parc nucléaire sera d'environ 25G€ pour plus de 400TWh de production. Une nouvelle fois, on voit que les coûts des EnR sont loin d'être maîtrisés!

Par ailleurs, durant son audition, le président de la CRE a précisé que ses prévisions étaient conservatrices. En effet, les calculs ont été effectués en prenant des hypothèses qui tendent à minimiser les subventions versées:

  1. La CRE prévoit une hausse du prix spot de l'électricité. Or, comme je l'avais constaté, plus il y a d'énergies subventionnées, plus les cours ont tendance à baisser. Cependant, cet effet est assez faible: une erreur de 10€/MWh (soit environ 20%) sur le prix de gros entraîne une variation de 700M€ des charges. Cela montre une fois de plus que l'essentiel des surcoûts ne vient pas des volumes produits mais des contrats signés en faveur de technologies très loin d'être compétitives
  2. Pas de renouvellement de contrat à terme quand ce n'est pas prévu par la réglementation actuelle. Cela vaut surtout pour l'éolien. Au vu de ce qui se passe aujourd'hui avec le petit hydraulique et la cogénération, la prudence est de mise, même si une nouvelle fois, l'impact devrait être faible, étant donné que l'éolien terrestre fait partie des EnR les moins chères.
  3. Elle prévoit aussi que les installation suivent la programmation effectuée suite au Grenelle de l'Environnement, en l'adaptant suivant ce qui s'est passé depuis et en abaissant les objectifs. C'est ainsi que l'essentiel des capacités nouvelles d'ici 2025 proviennent de l’éolien terrestre, que la progression du photovoltaïque est limitée et qu'il n'y a pas de nouvel appel d'offres pour l'éolien en mer. C'est pratiquement le cas le plus favorable au consommateur.
  4. Cette hypothèse est rendue encore plus optimiste par les projets du gouvernement actuel qui tient absolument à faire baisser la part du nucléaire dans la production d'électricité et à augmenter la part des renouvelables. En tenant compte de la production hydraulique actuelle, cela voudrait dire qu'en 2025, la part de la production électriques provenant des EnR subventionnées serait de 25 à 30%, soit à peu près de 2 fois plus que ce que prévoit la CRE. Même si on ne croit pas ce que raconte le gouvernement, cela va créer une pression à la hausse car pour paraître atteindre les nouveaux objectifs, il va sans doute falloir relever les tarifs de rachat et lancer d'autres appels d'offres particulièrement onéreux.

Quelques conclusions

Il est aussi intéressant qu'aucune des modalités de soutien ne trouve grâce aux yeux de la CRE (voir p3 et suivantes). On comprend qu'à chaque fois, les tarifs lui paraissent en tout ou partie trop élevés par rapport aux bénéfices attendus et aux coûts réels de chaque technologie.

Face à une telle augmentation, il n'est pas très étonnant que cette taxe bien visible par les consommateurs-électeurs devienne un sujet digne d'intérêt pour les parlementaires. Même si le sujet de l'augmentation de cette taxe est peu abordé dans les médias, les plaintes des électeurs au sujet de leur facture doivent remonter auprès des politiques. Quand de l'autre côté les prévisions annoncent une hausse importante de la taxe, la question de l'assiette de la taxe surgit à nouveau. Il faut dire que le but officiel est de réduire les émissions de gaz à effet de serre. Mais comme le gaz, par exemple, est exonéré, on voit que plus il y a d'énergies renouvelables dans la production électrique française, plus elle est taxée et plus il est en fait intéressant de se tourner vers le gaz et donc d'émettre du CO₂. Comme les coûts évalués par la CRE relèvent essentiellement de contrats déjà actés, si le gouvernement veut éviter la grogne des consommateurs d'électricité, il ne lui reste guère que l'option d'étaler les coûts sur d'autres consommateurs, comme les consommateurs de fioul et de gaz, qui à leur tour grogneront. Il n'y a donc pas vraiment d'issue favorable possible sur cette question!

Enfin, la question des bénéfices à retirer des énergies renouvelables n'est jamais ou presque abordée. Cela nécessiterait de comparer à des alternatives — par exemple, remplacer les quelques centrales à charbon françaises qui resteront après 2015 par des centrales au gaz coûterait certainement moins cher à la tonne CO₂ évitée. Les énergies renouvelables électriques sont devenues dans le débat public des buts en elles-même. Pas étonnant dans ces conditions que la distribution des subventions montre un grand laisser-aller.

5 octobre 2014

Faut-il prendre au sérieux les objectifs de la loi sur l'énergie de cette année?

Pour continuer cette série de billets sur la loi sur l'énergie actuellement en discussion au Parlement, je vais aborder dans ce billet les objectifs prévus par l'article 1 de la loi. Ces objectifs sont censés déterminer la politique énergétique suivie par la France ces prochaines années. Malheureusement, ils me semblent impropres à pouvoir engendrer une politique cohérente. D'une part parce qu'ils me paraissent irréalistes, mais aussi parce qu'ils semblent avoir été écrit à la va-vite, effet renforcé après la passage en commission parlementaire du texte.

Les modifications verbeuses et contradictoires des parlementaires

Il peut d'abord être utile de comparer la version originelle du projet de loi et celle qui est sortie de la commission ad hoc. On peut constater que la version du gouvernement contient 4 objectifs pour le futur article L. 100-1, 6 pour le L. 100-2 et 5 pour le L.100-4. Au sortir de la commission, il y a 7 objectifs pour le L. 100-1, 8 pour le L. 100-2 et 7 pour le L. 100-4. Plus on ajoute d'objectifs, moins il est difficile de justifier qu'une politique corresponds aux buts énoncés: à force d'en ajouter, il devient possible de justifier à peu près toutes les politiques possibles, à charge pour le gouvernement de choisir les objectifs qu'il veut atteindre parmi ceux qui se contredisent.

Par ailleurs, certains de ces ajouts n'apportent rien ou presque, voire se contredisent entre eux. Ainsi pour le futur L. 100-1, les parlementaires ont jugé bon de donner 3 objectifs quasiment équivalents:

(…)
« 3° Maintient un coût de l’énergie compétitif ;
« 4° (Supprimé)
« 5° Garantit la cohésion sociale et territoriale en assurant l’accès de tous à l’énergie sans coût excessif au regard des ressources des ménages ;
« 6° (nouveau) Lutte contre la précarité énergétique ; (…)

On ne peut pas dire qu'il y ait une grande différence entre un coût compétitif, la lutte contre la précarité énergétique et l'énergie sans coût excessif au regard des ressources des ménages: ces 3 objectifs ont les mêmes conséquences pratiques et il doit bien être possible d'en proposer une synthèse claire, en gardant le seul 3° — qui existe déjà dans la version actuelle — ou par exemple en écrivant: Maintient un coût de l’énergie compétitif et abordable pour tous sur l'ensemble du territoire de la République.

Mais ce n'est pas tout: pour le futur L. 100-2, ils ont fait ajouter la phrase Procéder à l’augmentation progressive de la contribution climat-énergie, qui (sic), dans la perspective d’une division par quatre des gaz à effet de serre qui semble contradictoire avec les dispositions qu'ils ont fait ajouter juste avant!

Les objectifs chiffrés ont-ils été bien énoncés

Le futur article L. 100-4 porte les objectifs chiffrés. Certains des chiffres proviennent d'engagements européens déjà pris ou en passe de l'être. C'est le cas des 23% d'énergie renouvelables dans la consommation finale en 2020 et de la baisse de 40% des émissions de gaz à effet de serre entre 1990 et 2030. D'autres comme la baisse de la consommation d'énergie finale de 50% d'ici à 2050 ou la baisse de la part du nucléaire à 50% dans la production d'électricité relèvent des choix du gouvernement actuel.

J'ai déjà parlé l'an dernier, en mal, de la division par 2 de la consommation d'énergie finale d'ici à 2050, lorsque François Hollande avait annoncé cet objectif. Pour revenir aux arguments chiffrés, il faut remarquer que l'objectif fixé en Allemagne est une baisse de seulement 40%, pour une population attendue en baisse de 10%, alors qu'en France, on attend une population en hausse de 10%. L'effort est donc extrêmement conséquent et inédit. Les chances sont fortes que l'activité économique soit fortement impactée. Il se trouve que la loi donne un objectif complémentaire: le rythme de baisse de l'intensité énergétique finale à atteindre en 2030, 2.5%/an. L'intensité énergétique est la quantité d'énergie consommée — corrigée des conditions météo — rapportée au PIB, c'est donc une mesure d'efficacité. Or, il se trouve que la division par 2 de la consommation finale d'énergie implique un rythme de baisse moyen de 1.8% par an. Ce qui veut dire que le gouvernement se fixe grosso modo comme objectif une croissance moyenne de 0.7% par an d'ici à 2050. Je ne suis pas convaincu que ce soit le message que veuille faire passer le gouvernement!

Mais il s'avère aussi que l'objectif de rythme annuel de baisse de l'intensité énergétique est pratiquement hors d'atteinte: en dehors des pays ayant traversé une grave dépression et les anciens pays du bloc communiste, je ne sais pas si on peut trouver des exemples. On peut même voir qu'en France, le rythme de baisse de l'intensité énergétique finale est à peu près constant depuis au moins 30 ans à environ -1.1% par an, comme on peut le voir ci-dessous: intensite_fr_1981-2013.jpg Les statisticiens du ministère de l'énergie indiquent dans le bilan énergétique annuel (p103) que le rythme depuis 2005 est de -1.3% par an. On voit donc qu'il faudrait qu'une modification rapide et fondamentale de la société française se produise et que les fondements de l'activité économique changent du tout au tout. Des gains de productivité inédits devraient se produire pendant une longue durée!

D'autre part, si le gouvernement entend réduire le chômage, une croissance de l'ordre de 1.5% par an est nécessaire. Cela rend aussi plus facile d'équilibrer les comptes de l'assurance maladie, des caisses de retraite, etc. Bref, s'il veut tenir ces autres engagements qui me semblent nécessaires à la paix civile dans notre pays et très conformes aux demandes des citoyens, c'est un rythme de gains d'efficacité énergétique de l'ordre de 3.5%/an pendant 30 ans qu'il faut viser. En attendant, si la tendance actuelle se poursuit, le gouvernement s'est donné pour objectif une récession moyenne de 0.5% du PIB par an pendant plus de 30 ans. Avis aux amateurs!

Une nouvelle fois, la source ultime de cet engagement est connue: diviser par 2 la consommation finale d'énergie est à peu près la seule façon d'espérer se passer de nucléaire sans augmenter les émission de CO₂. Tous les scénarios écologistes sont bâtis sur cette hypothèse, mais même ainsi, se passer de nucléaire relève de l'exploit. Mais au final, on voit bien qu'aucun gouvernement véritablement sain d'esprit ne s'engagera dans une telle politique. La tendance est claire: si on veut réellement diviser la consommation d'énergie par 2 d'ici à 2050, c'est une dépression de 30 ans qui est prévisible. Même avec un objectif très optimiste de gains d'efficacité, la croissance restera très faible. Il se passera donc avec ces objectifs ce qui s'est passé partout dans le monde face à ce type d'engagement intenable: il sera abandonné lorsqu'il deviendra trop voyant qu'on ne peut pas l'atteindre. Il reste toutefois qu'il devient difficile de prendre au sérieux aucun des objectifs mentionnés dans cette loi quand on voit que le gouvernement fixe un objectif de croissance de 0.7%/an à rebours de tout ce qu'il promet par ailleurs! Mais cela n'empêchera pas dans l'intervalle de prendre des décisions néfastes sur cette base…

1 octobre 2014

Quel contrôle des coûts pour les EnRs?

Ségolène Royal a répété à de multiples reprises à la radio dimanche dernier que les EnRs et les travaux d'isolation allaient rapporter de l'argent au lieu d'en coûter. Cela implique normalement que les coûts pour la collectivité soient contrôlés de façon à ce qu'on tire le maximum des énergies renouvelables les moins chères. En effet, utiliser les énergies renouvelables les moins chères permet d'en utiliser le maximum pour un montant donné: on maximise de cette façon le rendement des investissements.

Lors de son interview, Ségolène Royal a mentionné une famille habitant dans une habitation nouvelle dont la facture d'énergie était de 96 centimes d'euro par mois. La suite de l'entretien montrait quelle était la recette: une bonne isolation, certes, mais aussi l'installation de panneaux solaires qui permettent de toucher des subsides très intéressants qui s'élèvent dans le cas de cette nouvelle habitation à plus de 280€/MWh produit. On peut comparer cela au coût de la fourniture d'énergie dans le Tarif Bleu d'EDF, destiné aux particuliers: il était en 2012 d'environ 45€/MWh (rapport de la CRE, Figure 54, p78). La différence est évidemment payée par une taxe, la CSPE: autrement dit, si ce ménage ne paye que 96 centimes par mois, c'est que la collectivité paye le reste.

Les charges de la CSPE représentent, pour sa partie finançant les énergies renouvelables, plus de 3.5G€ cette année. Comme l'indique le site de la CRE, le montant de la taxe devrait être de 22.5€/MWh mais elle est limitée à 16.5€/MWh parce que la hausse de la taxe est limitée à 3€/MWh par an. Un déficit de plus en plus important est en train de se creuser, qu'il faudra bien combler un jour. Toujours est-il qu'on peut constater que les seules EnRs électriques réclament un financement de l'ordre de 12€/MWh dont l'essentiel va à 3 sources d'énergie: l'éolien, la biomasse et le solaire PV, ce dernier se taillant la part du lion. Ces 3 sources représentent environ 3% de la production totale d'électricité en France … pour un chiffre d'affaires global égal à 25% de l'ensemble!

En Allemagne, le montant de la taxe a explosé en quelques années à cause du rythme d'installation des panneaux solaires et l'absence de contrôle des coûts. Elle est aujourd'hui de 62.4€/MWh, soit plus que le coût des productions classiques ou encore près de 2 fois le prix spot de l'électricité en Allemagne. La taxe EnR allemande est une des raisons pour lesquelles le prix de l'électricité pour les particuliers atteint 300€/MWh. Comme on le voit, le contrôle des coût devrait constituer une partie essentielle de la politique menée si on veut préserver le pouvoir d'achat des Français — comme l'affirme Ségolène Royal. La Cour des Comptes a aussi publié un rapport très critique à ce sujet l'an dernier.

On pouvait donc s'attendre à ce que des mesures soient prises sur ce terrain. En lisant le projet de loi, on constate qu'il y en a … aucune! Il y a bien des dispositions tenant compte des demandes de la commission européenne — mais dont bien sûr l'essentiel des installations, éoliennes et solaire seront exonérées — et l'article 50 sur un comité de gestion de la CSPE qui sera chargé de faire ce que fait actuellement la CRE. C'est tout. À un député proposant une réforme, il est répondu qu'une mission d'information a été mise en place … alors que le problème est connu depuis plusieurs années: la commission sénatoriale de 2012 sur les coûts de l'électricité a déjà abordé le sujet! Que rien ne soit prévu dans ce projet de loi est donc un pur scandale. À côté de cela, Ségolène Royal continue de chanter les louanges de l'éolien en mer. L'appel d'offres de ce printemps s'est soldé par un prix d'environ 220€/MWh en 2022. Aucun compte ne semble avoir été tenu du rapport de la Cour des Comptes. Bref, le robinet est toujours grand ouvert.

Au-delà de la protection du pouvoir d'achat, un contrôle des coûts est aussi important car plus les sources d'énergies qui incluent des EnRs sont taxées, plus on favorise les autres sources. En effet, le ratio des prix devient plus favorable aux autres énergies et les effets d'éventuelles taxes carbones est neutralisé par l'inflation liée aux EnRs. Aujourd'hui, le gaz est soumis à une taxe carbone minime qui va atteindre 4.45€/MWh en 2016, soit moins de 10% du prix du gaz (hors taxes). La CSPE est de 16.5€/MWh cette année, elle atteindra donc 22.5€/MWh en 2016 soit probablement plus de 20% du prix hors taxes de l'électricité. Autrement dit, l'expansion des renouvelables décourage l'emploi d'une source peu carbonée comme l'électricité française (environ 50g de CO₂ par kWh) en faveur de l'emploi d'un combustible fossile comme le gaz naturel (environ 200g de CO₂ par kWh). L'absence de contrôle des coûts est un encouragement à émettre plus de CO₂, à rebours de tous les objectifs proclamés.

Pour conclure, le manque de dispositions visant à contrôler les coûts dus aux énergies renouvelables, notamment électriques, me semble un pur scandale. Alors que la ministre proclame urbi et orbi que son projet de loi va rapporter de l'argent, qu'elle veut faire baisser les émissions de CO₂, elle acte en approuvant des projets hors de prix et en ne prenant aucune autre mesure des incitations financières exactement inverses. Au fond, c'est significatif des buts de ce projet de loi: il ne s'agit pas tellement de développer au maximum les énergies renouvelables pour un prix raisonnable et de réduire les émissions de CO₂ par ce biais, mais d'en construire pour elles-mêmes, pour des qualités qu'on leur donne a priori, parce que cela va dans le sens de l'idéologie dominante au PS et surtout chez leur allié les Verts.

29 septembre 2014

Vers des rénovations obligatoires

Le projet de loi sur l'énergie de ce quinquennat va être étudié à l'assemblée dans l'hémicycle à partir de ce mercredi 1er octobre. Le projet original est passé en commission où plus de 2000 amendements ont été étudiés pour arriver à la version approuvée par la commission parlementaire sur le sujet. Pour l'occasion, Ségolène Royal a fait un passage à la radio ce dimanche pour défendre cette loi.

J'écrirai peut-être d'autres articles sur le sujet de ce projet de loi dans les prochains jours. Pour commencer, cet article porte sur l'article 5, qui modifie l'article de loi qui permet au gouvernement d’édicter la règlementation thermique. La nouvelle rédaction va donner pouvoir à l'état d'édicter l'obligation d'effectuer des travaux d'isolation lorsqu'on ravale une façade ou rénove une toiture.

Ce faisant, on s'engage de plus en plus vers un régime de rénovations obligatoires. C'est clairement une idée qui fait son chemin. C'est par exemple ce que soutient cette vidéo (The Shift Project): il est clairement proposé dans cette conférence d'obliger à faire des travaux d'isolation à la vente de certains logements. C'est aussi ce qui transparaît dans le paragraphe sur le bâtiment de ce billet d'Arnaud Gossement, avocat spécialisé dans ce types de questions énergétiques.

À mon sens, cette idée est à double tranchant. Dans le meilleur des cas, elle peut effectivement atteindre son but d'accélérer le rythme de rénovation des bâtiments. Dans le pire des cas, elle peut freiner d'autres travaux — ceux qu'on veut lier à des travaux d'isolation — ou renforcer les blocages sur le marché immobilier, en agrandissant la différence entre la somme reçue par le vendeur et celle payée par l'acheteur. Le blocage peut s'opérer de plusieurs façons:

  1. La plus immédiate est celle du coût: en liant des actes qui n'étaient pas a priori liés jusque là, on impose une dépense supplémentaire à des gens qui n'en ont pas forcément les moyens ou l'envie. Une réponse très simple est alors de ne pas faire de travaux ou de faire des travaux qui ne tombent pas sous le coup des obligations. Par exemple, dans le cas d'une rénovation de toiture, on peut décider de ne plus faire que remplacer les ardoises ou les tuiles en trop mauvais état pour éviter l'obligation d'isolation imposée en cas de rénovation complète.
  2. Une autre est qu'il n'est pas évident que le coût de ces travaux imposés puissent être répercutés sur les locataires: on renforce donc la faiblesse des rendements locatifs en France … ce qui a normalement pour contrecoup de moindres dépenses d'entretien ou d'amélioration.
  3. La plus insidieuse est qu'on va vers un système normatif où il va falloir se justifier. Une justification a toujours un coût. De plus la normalisation de ces travaux peut les complexifier notablement. Pour en revenir à mon billet précédent, entre la règlementation thermique de 2005 et celle de 2012, il y a eu une multiplication par 5 de la longueur de la norme.

Sur une note plus polémique, ce type d'article contredit aussi directement les propos de Ségolène Royal lors de son passage radio où elle a souvent affirmé que les économies d'énergie imposées par cette loi allaient rapporter de l'argent. Pourquoi imposer aux gens des rénovations par la loi, si elles sont véritablement rentables pour eux? Dans ce cas, édicter des normes peut se révéler totalement contreproductif en les obligeant à se justifier de ce qu'ils auraient fait naturellement. Au contraire, de tels articles de loi montrent que les prix de l'énergie ne sont pas suffisamment élevés pour justifier d'investir fortement pour réaliser des économies d'énergie. Les travaux visés sont toutefois ceux qui sont le plus proches de la rentabilité, voire déjà rentables aux prix actuels: une étude de l'UFE de 2012, le lobby des électriciens, montrait que l'isolation des combles et l'isolation par l'extérieur avaient au moins des taux de rentabilité positifs dans la plupart des cas.

Pour conclure, je suis partagé sur ce genre d'articles de loi: d'un côté ils sont relativement limités dans leurs conséquences immédiates et concernent des rénovations raisonnables, mais de l'autre la pente sur laquelle le gouvernement s'engage est très glissante. Ces obligations de rénovations peut d'abord se traduire par moins de rénovations. Mais la mesure peut rencontrer un succès certain et la tentation deviendra grande pour l'utiliser pour forcer toute sortes de travaux, nettement plus loin de la rentabilité. On aurait alors une réglementation qui aurait pour effet de freiner les rénovation à cause de l'obligation d'effectuer des travaux très loin du seuil de rentabilité et qui deviendrait sans doute aussi de plus en plus tatillonne pour parer à ceux qui tenteraient de la contourner. De plus, pour les locations, il faut accepter que les investissements se traduisent par une hausse des loyers, ce qui est tout sauf assuré!

1 septembre 2014

Le mirage de l'hydrogène

L'hydrogène est souvent présenté comme potentiel candidat pour des systèmes de stockage de l'énergie. L'idée est de produire de l'hydrogène par électrolyse à l'aide d'électricité «excédentaire» et de stocker ce gaz pour s'en servir pour le chauffage — par combustion directe —, pour servir de carburant dans des automobiles — en général, via des piles à combustible — ou encore pour produire de nouveau de l'électricité. Tous les projets sont toutefois restés à l'état de prototype jusqu'à présent.

J'avais abordé suite au rapport de l'OPECST de 2012 sur l'avenir de la filière nucléaire — et plus généralement sur l'avenir de la production d'électricité — les problèmes que posaient la transformation d'électricité en stock d'énergie utilisable plus tard. Au delà des problèmes techniques encore à résoudre, se pose un problème de rentabilité économique: pour que le stockage soit rentable, il faut l'installation ne soit pas trop chère à construire et à faire fonctionner et que la durée de fonctionnement soit élevée. Une note récente du Commissariat à la prospective vient de paraître et fournit quelques données qui vont dans le sens de l'extrême difficulté pour atteindre le seuil de rentabilité. À la lecture de la note, on se dit que l'utilisation de l'hydrogène comme vecteur énergétique relève du mirage: toujours visible à l'horizon, mais dont on ne se rapproche jamais malgré une longue marche dans sa direction.

Le dihydrogène est la molécule qui permet de récupérer le plus d'énergie par combustion rapporté à sa masse. C'est ce qui lui vaut une bonne image quand on parle de stockage de l'énergie. Mais il souffre en fait de graves tares:

  1. Pour un gaz, ce n'est pas tant l'énergie par unité de masse qui compte, mais la quantité d'énergie par unité de volume. En effet, c'est plutôt le volume du réservoir qui est limitant. Or la formule des gaz parfaits nous dit que le volume est proportionnel au nombre de molécules. Ce qui fait qu'au total, le contenu énergétique du dihydrogène est d'environ 3.5 kWh/Nm³ contre environ 11 kWh/Nm³ pour le méthane, principal constituant du gaz naturel. Le dihydrogène est donc un vecteur moins concentré en énergie que ce dont on a l'habitude aujourd'hui
  2. Il n'est pas envisageable de le liquéfier à grande échelle du fait de la température très basse de liquéfaction (-253°C) et aussi d'un gag dû à un phénomène de mécanique quantique
  3. Même s'il est plutôt moins détonnant que le méthane (contrairement à ce qui est dit dans la note), le dihydrogène fuit nettement plus facilement de son contenant. Cela le rend nettement plus dangereux que le méthane. Ce dernier est accompagné d'un gaz odorant dont les propriétés sont proches et qui fuit en même temps que le méthane. C'est impossible pour le dihydrogène qui peut fuir par des micro-fissures. Détecter toutes les fuites est donc nettement plus difficile.
  4. Bien sûr, le dihydrogène n'existe pas — ou quasiment — à l'état naturel, il faut donc le produire. Actuellement, il est principalement fabriqué par vaporeformage. Le but étant aussi d'éviter d'émettre du CO₂, il faut se reporter sur l'électrolyse, nettement plus gourmande en énergie. Cela nécessite donc de construire des usines et de payer l'énergie. Le coût va donc dépendre aussi du taux d'utilisation de l'usine et du rendement du procédé. Il se pose aussi des difficultés pour se procurer du platine en grande quantité pour servir de catalyseur.

La plupart de ces critiques peuvent trouver des réponses techniques, mais elles ont pour la plupart toutes un coût. Si on parle de plus en plus de remplacer le platine par des matériaux plus communs (exemple), les autres solutions sont de compresser l'hydrogène — on estime que compresser à 700 bars coûte 20% du contenu énergétique —, de construire des réservoirs en matériaux composites — donc des coûts de développement — etc. La critique la plus difficilement contournable est donc celle du coût de production. La note fournit des données chiffrées qui laissent peu d'espoir. couts_H2.jpg

Comme on peut le voir ci-dessus, dans tous les cas, l'hydrogène produit est très cher. Les 2 colonnes de gauche représentent à peut près les conditions actuelles de production, la colonne 6, le meilleur cas espéré à l'avenir: un électrolyseur qui coûte à l'achat 800€/kW installé qui tourne presqu'en permanence (7000h par an) et qui paie son électricité 60€/MWh. Dans ce cas, l'hydrogène coûte 94€/MWh thermiques, à comparer à un prix du gaz d'environ 20€/MWh en Europe.
La colonne 5 donne le coût pour un électrolyseur qui serait utilisé pour éponger d'éventuels excédents d'électricité, provenant de sources d'électricité intermittentes comme l'éolien ou le solaire. Dans ce cas, l'électricité serait gratuite, mais on ne peut pas imaginer que ce soit un phénomène courant durant l'année à cause du faible facteur de charge des éoliennes et des panneaux solaire et parce que les producteurs auraient du mal à vivre avec une large part de leur production payée 0€. Mais dans ce cas, on constate que le coût de production est de presque 270€/MWh: le coût est alors déterminé par les frais fixes de l'électrolyseur qu'il faut amortir sur une faible durée d'utilisation.
On voit aussi que la production d'électricité par ce biais est reservée aux cas d'urgence du fait d'un coût qui devient totalement prohibitif, un MWh électrique coûterait de l'ordre de 2 à 3 fois le MWh thermique.

Comme on le voit, pour que l'hydrogène devienne un vecteur énergétique crédible, il faut à la fois que les obstacles technologiques soient surmontés et que les prix baissent énormément. Si les électrolyseurs coûtent actuellement 2000€/kW, il faudrait qu'ils coûtent entre 100 et 200€/kW pour que les coûts deviennent à peu près raisonnables. Comme on voit qu'en plus l'hydrogène est loin d'être le vecteur énergétique le plus pratique, cela veut dire qu'il ne sera utilisé que si on ne peut faire autrement. On peut donc se dire que la situation qui a prévalu jusqu'ici se perpétuera: l'hydrogène continuera d'être évoqué comme prometteur pour quelques dizaines d'années encore.

30 juin 2014

Redite

Une commission d'enquête a été organisée sur les coûts du nucléaire, avec pour rapporteur Denis Baupin, bien connu pour son opposition à cette technologie. Une commission au thème extraordinairement similaire avait été organisée au Sénat, il y a deux ans. Le résultat relevait de la la pure idéologie écologiste, s'appuyant sur des tactiques d'enfumage et n'hésitant pas à pousser le scénario où il y avait le plus d'énergies fossiles. Vue l'identité du rapporteur, on pouvait craindre une redite et on n'a pas été déçu.

Quelques mots d'abord sur le style: le rapport semble constitué principalement de citations extraites des auditions de la commission, entrecoupés par le texte du rapporteur. Il compte relativement peu de tableaux et de données comparé au rapport de la commission sénatoriale d'il y a 2 ans. On en est donc réduit à devoir faire confiance — ou pas — aux choix de Denis Baupin pour ses citations et le sens qu'il veut bien leur donner. En effet, dans la masse de propos tenus, il est certainement possible de choisir les citations pour écrire soit un rapport chantant les louanges du nucléaire, soit un rapport vouant cette technique aux gémonies. Pour savoir quelle option a été choisie, on peut se référer au passage sur le scénario énergétique qui a la préférence de Denis Baupin et regarder si l'objectivité est au rendez-vous.

Avant d'aborder le scénario qui a sa préférence, Denis Baupin a expédié le scénario prôné par EDF, certes peu crédible mais qui a le mérite pour ses dirigeants de ne pas aller frontalement à l'encontre de l'opinion proclamée de la tutelle politique. Pour le dire autrement, Denis Baupin écrit que ce scénario n'est pas probable. Et c'est donc tout naturellement qu'il titre:

B. APPROCHE 2 : UNE BAISSE DE LA DEMANDE ÉNERGÉTIQUE EST POSSIBLE, CE QUI REND INUTILE LA PROLONGATION DE L’ENSEMBLE DU PARC NUCLÉAIRE

Comme on va le voir, ce scénario n'est pas plus probable à l'heure actuelle que celui d'EDF. Autrement dit, n'ont droit à des développements que des scénarios possibles mais aucun de ceux qui apparaissent comme les plus probables. Après avoir cité un intervenant se prévalant de pouvoir déterminer le service attendu et les besoins ainsi que les consommations superfétatoires ou le gaspillage, comme au bon vieux temps du Gosplan, et un autre intervenant déplorant le faible nombre de rapports sur les économies d'énergie comparé aux rapports sur le nucléaire — tout en cherchant à démontrer sur son site l'inutilité des réacteurs nucléaires, on passe aux choses sérieuses et on aborde le fameux exemple allemand.

L’exemple allemand montre qu’une forte diminution de la consommation est possible si l’on met en place les instruments adéquats. Une étude comparative des systèmes énergétiques français et allemand publiée en 2011 par l’IDDRI et l’association Global Chance a montré que la consommation d’électricité « spécifique » – incluant les appareils électriques et l’éclairage, mais excluant le chauffage et le chauffe-eau – par habitant était au même niveau dans les deux pays en 1998. À cette date est instaurée une taxe écologique sur l’électricité dont les recettes sont affectées à l’abaissement des charges sociales sur le travail. L’Allemagne a ensuite connu une augmentation régulière des tarifs de l’électricité, liée à plusieurs effets, aboutissant à un prix du kilowattheure de 27 centimes. « À partir de 2000, l’Allemagne commence à stabiliser sa consommation d’électricité spécifique par habitant dans le logement, tandis que la courbe de la consommation française continue d’évoluer de façon quasi linéaire. En 2010, la différence de la consommation par habitant est de 15 % et de 27 % par ménage Fixer un objectif raisonnable d’économie de l’ordre de 15 % n’a donc rien de scandaleux » (Bernard Laponche).

Pour voir si tout ceci est à la hauteur des enjeux, regardons l'étude en question (p69-70) où on trouve le graphe suivant: elec_specifique_de_fr.jpg

Comme le signalent les auteurs eux-mêmes, ces chiffres n'ont pas le même degré de fiabilité que les autres indicateurs utilisés dans cet article. D’autre part, on constate en Allemagne des variations parfois importantes d’une année sur l’autre alors que la consommation d’électricité spécifique est peu soumise à des variations climatiques. Il est difficile d’expliquer les renversements de tendance observés dans le cas de l’Allemagne et il faut prendre les statistiques concernant les consommations d’électricité spécifique avec prudence.

Regardons toutefois l'impact d'une diminution de 15% de la consommation d'électricité spécifique française telle qu'elle nous est présentée. En France, il y environ 65M d'habitants, une consommation de 1200kWh par an et par habitant représente donc une consommation totale annuelle de 78TWh. En 2008, selon Eurostat, la consommation totale d'électricité en France a été d'un peu moins de 433TWh. La consommation d'électricité spécifique par les ménages représente donc un peu moins de 20% de la consommation totale d'électricité. Une réduction de 15% de cette consommation représenterait donc une baisse de 3% de la consommation totale d'électricité. Même si c'était jusqu'alors un des postes de consommation les plus dynamiques en France, cela semble très insuffisant pour obtenir une forte baisse de la consommation d'électricité.

On peut aussi se demander si les données sur lesquelles se fonde Global Chance reflètent bien la réalité. Sur le site de l'association AG Energibilanzen, on peut trouver un document détaillant les consommations énergétiques des ménages. On y trouve ce tableau (p20) qui résume l'ensemble, où la consommation d'électricité spécifique est donnée par la somme des 5 dernières colonnes. elec_specifique_de_realiste_2011.jpg On voit que la consommation d'électricité spécifique est de 389.2 PJ annuels; avec une population allemande d'environ 82M d'habitants, cela donne environ 1300kWh par an et par habitant. On peut constater que c'est tout à fait comparable à la consommation française. Ce n'est pas très étonnant: dans ce domaine la consommation est déterminée par les standards appliqués aux appareils électriques, comme le montre l'exemple des États-Unis. Or, ces standards sont déterminés au niveau européen et sont de ce fait les mêmes pour la France et l'Allemagne.

Cette conclusion est d'ailleurs assez logique: en Allemagne, la quasi absence du chauffage électrique fait que l'essentiel de l'électricité consommée par les ménages est de l'électricité spécifique. Les données de l'AGEB montrent que la consommation des ménages par personne en 2011 était d'environ 1670kWh (ce qui est cohérent avec les données d'Eurostat). Autrement dit, les ordres de grandeur ne collent pas avec le graphe de Global Chance.

Denis Baupin enchaîne:

À l’arrivée, le ménage allemand paie son kWh électrique plus cher que le ménage français, mais en consomme moins, ce qui conduit à des factures du même niveau de part et d’autre du Rhin. À l’occasion du débat sur la transition énergétique (DNTE) le rapport adopté par le groupe de travail « compétitivité » avait d’ailleurs montré que la part des revenus consacrés par les ménages français et allemands à leur éclairage et à leur chauffage était exactement la même : 4,8 %.

La première affirmation est totalement fausse. Tellement que, devant la commission sénatoriale, Global Chance avait reconnu que les Allemands payaient plus par habitant que les Français. Certes, les ménages français comptent en moyenne plus de membres, mais cela ne suffit pas à combler la différence. On peut même se référer aux organismes statistiques habituels pour récupérer les données et obtenir le graphe suivant: depense_elec_fr_de.jpg On constate que l'état des choses s'est inversé entre le début des années 2000 et aujourd'hui. À cause de la forte hausse des prix de l'électricité en Allemagne, les ménages allemands ont vu leur facture pratiquement doubler. Cela a fait plus qu'effacer la différence de dépense qui existait jusque là à leur avantage du fait de la plus forte consommation française. En 2012, année froide et donc de forte consommation d'électricité par les ménages, un ménage français a consommé en moyenne presque 5600kWh alors qu'un ménage allemand n'a consommé que 3370kWh. Un tel développement montre surtout que l'électricité est un bien dont l'élasticité prix à court et moyen terme est très faible: même une forte hausse du prix ne suscite qu'une faible baisse de la consommation. Dans ces conditions, la hausse du prix se traduit directement par une hausse presque équivalente de la dépense.

Quant à la deuxième affirmation, elle n'a que peu à voir avec l'électricité. D'une part, en Allemagne, l'électricité est très peu utilisée pour le chauffage et comme on peut le constater sur la décomposition des consommations d'énergie, ce sont le gaz et le pétrole qui représentent l'essentiel des quantités consommées pour l'éclairage et le chauffage. De même, en France, l'inclusion du chauffage donne une place importante à d'autres vecteurs d'énergie que l'électricité. Une telle donnée relève donc de l'enfumage.

Après quelques considérations sur les travaux qui permettent de faire des économies d'énergie mais sans aucune considération pour les coûts de ces travaux qui les rendent non rentables aux prix actuels de l'énergie, Denis Baupin passe à l'accusé habituel des écologistes: le chauffage électrique.

3. Limiter l’utilisation de l’électricité à ses usages « nobles » ?

Les progrès de l’efficacité énergétique permettent de diminuer la consommation électrique et ouvrent ainsi une voie vers la réduction de la dimension du parc nucléaire français. Ils permettent également de corriger les défauts du système électrique français actuel, marqué par gaspillages significatifs.

D’une part, le rendement thermique des centrales nucléaire, d’environ un tiers, est très bas en comparaison des autres moyens de production. « Dans la production nucléaire actuelle, le volume d’énergie lié au rendement des centrales, sous forme de chaleur, est perdu. Il représente 830 milliards de kilowattheures, soit plus que le chauffage de tous les logements et les bâtiments tertiaires de France » (Thierry Salomon).

Cet argument est habituel chez les écologistes. Il consiste à constater que la transformation de la chaleur en travail a forcément une efficacité inférieure à 100%, sévèrement limitée par le second principe de la thermodynamique. Cependant, ceci n'a pas forcément d'importance pour les consommateurs: cette efficacité n'est qu'un des composants du coût de l'électricité et ne dit rien de la pollution engendrée. Faisons une expérience de pensée: une source d'énergie permet de produire de l’électricité très peu chère et très peu polluante mais via un procédé qui n'utilise qu'une faible part de l'énergie disponible. Faut-il s'en priver pour cette dernière raison? La réponse est clairement non.

L'électricité nucléaire a pour caractéristique d'être peu sensible au prix de l'uranium et donc à l'efficacité de conversion de la chaleur en électricité, contrairement à ses concurrents le gaz et, dans une mesure un peu moindre, le charbon. Ceux-ci sont aussi tenus par des normes anti-pollution qui rendent attractives une moindre consommation de combustible. C'est ainsi que ses sont développées les centrales à gaz à cycle combiné — qui atteignent 60% d'efficacité — et les centrales super-critiques au charbon — qui dépassent les 40%. Ces efforts sont cependant insuffisants lorsqu'on considère les problèmes climatique et d'effet de serre, par exemple.

On peut aussi constater que d'autres procédés sont comptés comme ayant une efficacité de 100%, mais uniquement parce qu'ils utilisent une source qui n'est pas directement payante. Ainsi, l'énergie éolienne a une limite physique de 60% pour la récupération du flux d'air, dont la technique permet de récupérer les trois quarts pour une efficacité de l'ordre de 45%. Les cellules photovoltaïques commercialisées ont un rendement de conversion compris entre 5% et 20%. Cela n'en fait pas pour autant un mauvais mode de production d'électricité.

D’autre part, l’utilisation massive des chauffages électriques explique que la pointe électrique française soit sans commune mesure avec celle des autres pays européens, la Norvège exceptée. « Notre scénario prévoit, par ailleurs, un glissement vers beaucoup moins de chauffage à effet Joule, qui est le problème du réseau actuel. RTE, qui vient de refaire ses calculs, a évalué la sensibilité électrotechnique à 2 400 MW par degré : autrement dit, à chaque fois qu’en hiver la température baisse d’un degré en France, il nous faut mettre en marche deux réacteurs et demi de 900 MW. Vous savez que cette sensibilité électrotechnique est une malheureuse caractéristique française : nous avons la moitié de la sensibilité électrotechnique de l’Europe. Si on baisse cette valeur-là par une politique d’efficacité énergétique, de transfert vers des usages beaucoup nobles de l’électricité et vers d’autres énergies, on retrouvera une marge de manœuvre. Dans notre scénario, nous redescendons cette consommation maximale sur l’ensemble du réseau aux alentours de 60/70 GW, donc bien en dessous des records que vous connaissez, qui sont à 110 GW » (Thierry Salomon).

Les caractéristiques françaises du mix électrique ne sont donc pas si favorables qu’annoncées, dans la mesure où l’importance de la pointe électrique requiert la mise en marche de moyens de production thermiques fortement émetteurs de gaz à effet de serre.

Mezzo voce, Denis Baupin tente d'accréditer l'idée que le chauffage électrique est plus polluant que les autres options. Comme je l'avais remarqué, il n'en est rien, au contraire, le chauffage électrique provoque relativement peu d'émission de CO₂. J'avais estimé qu'il était responsable de 15% des émissions de CO₂ dus au chauffage des logements, alors que la part de marché du chauffage électrique est autour de 33%. Denis Baupin fait ici usage d'une technique bien connue qui consiste à insister sur des évènements relativement rares — les pointes de demande — pour ignorer la situation moyenne. Cette situation moyenne est forcément bonne, puisque les émissions globales du système électrique français sont parmi les plus basses au monde rapportées à la production.

On peut certes souhaiter que les pompes à chaleur se développent: elles permettent déjà que le chauffage électrique soit pratiquement imbattable en termes d'émissions rapporté au service rendu. Cependant, cela ne dit rien quant à la proportion d'énergie nucléaire souhaitable. Après tout, les écologistes disent que c'est le chauffage électrique qui force à conserver nombre de centrales à combustible fossile. Son déclin devrait donc plutôt entraîner la diminution de la part des énergies fossiles que celle du nucléaire.

La mise au point de business models pour l’efficacité énergétique, en s’inspirant par exemple des dispositifs existant chez nos voisins, constitue néanmoins aujourd’hui une priorité pour la réalisation d’objectifs volontaristes. La réflexion devra aboutir rapidement afin d’accélérer la maîtrise de la consommation énergétique et notamment un rythme de rénovations thermiques encore loin d’être suffisant. À défaut, il pourrait être tentant de présenter la prolongation de tout le parc nucléaire comme une option qui s’imposerait. Ce serait toutefois une solution de facilité qui priverait la France d’une véritable transition énergétique. Le jeu en vaut pourtant la chandelle tant les scénarios produisent des effets très positifs sur l’emploi.

Malheureusement pour Denis Baupin, il y a peu de rénovations par rapport à ses espérances parce que les prix de l'énergie ne sont pas assez élevés. Pour en avoir plus, il faudrait augmenter fortement le prix de l'énergie en France — et pas seulement de l'électricité! — ce qui fait qu'au total, les Français dépenseraient plus. Non seulement, ils paieraient plus cher pour leur électricité — et le reste — comme le montre l'exemple allemand, mais ils devraient aussi payer ces fameuses rénovations.

On ne peut aussi que se demander ce que Denis Baupin compte faire des 33% de logements chauffés à l'électricité. Ces logements n'ont souvent aucune arrivée de gaz, l'électricité est donc la seule façon de les chauffer, à moins d'engager des dépenses pharaoniques. De plus, comme on l'a vu, ils provoquent relativement peu de pollution, notamment d'émissions de CO₂. Proposer un état final qui lui paraît favorable est une chose, encore faudrait-il proposer une façon réaliste d'aller de la situation actuelle à cet état final. C'est pourquoi il n'est pas sérieux de présenter comme probables des scénarios où le chauffage électrique n'existerait plus; au contraire, la consommation d'électricité par habitant en France restera durablement plus élevée qu'ailleurs.

Bref, Denis Baupin fait reposer son plaidoyer pour le scénario qui a sa préférence sur des faux-semblants voire des mensonges, ignore totalement la situation actuelle et les difficultés pour parvenir à la situation qui a sa préférence. Le reste de son rapport est peut-être excellent, mais sa justification du scénario qui a sa préférence laisse plutôt penser que c'est une redite de la commission d'enquête sénatoriale d'il y a 2 ans, en pire!

13 avril 2014

Subsidies for wind and solar are here to stay

Note: this post is an english summary of two posts in french (here and here).

It is often said that subsidies granted to wind and solar power are temporary and are here to help them become competitive with respect to other sources of electricity. Here, based on what happens currently on the electricity market in Germany and France, I will show that the removal of subsidies for new wind or solar capacity is unlikely and that it is probable that these subsidies will become a very long lasting feature of the electricity market in Europe.

A common characteristic of both wind and solar power is that their marginal cost is zero. Producing one more kWh does not cost anything to the owner. He has paid for his machine and pays for the maintenance, regardless of how much the machine produces. Their production is also essentially random — especially that of wind — and subject to the vagaries of the weather. Producer are also dispersed because the cost of building a single machine is not extraordinarily high. These 3 elements will transform producers of wind and solar power into price takers: they will accept any positive price, or even negative prices if they can't disconnect from the grid. Nowadays, they are shielded from the variations of the spot price by the feed-in tariffs which guarantee a fixed price for their production. A system of market premiums do not change that much the situation, as this would only encourage disconnections when the price drops too far in negative territory.

As a consequence, one can expect that wind would fetch a price lower than the baseload price — the non weighted average of all hourly prices in a given year. for solar power, the situation is slightly different because solar power is available during the day, where consumption is also higher than during the night. The price of electricity is thus generally higher during the day than during the night. But if the solar capacity is large enough — larger than night-day swing in demand — they will also fetch a lower price than the baseload.

To check these hypotheses, I gathered prices on Epexspot with a perl script. For France, one can get detailed production data from éco₂mix. For Germany, there's nothing so detailed … and free at the same time. Wind and solar productions are known thanks to an european directive. The data has been gathered by P.-F. Bach, a danish retired engineer.

In Germany

The german market is in a situation of over supply because of the economic situation in Europe, of new coal plants — coal is now relatively cheap because of exports from the US and the shale gas boom there — and of the construction of more than 30GW of wind and 30GW of solar. As a consequence the baseload price is low. In 2012, it was about €43/MWh; in 2013 it was about €38/MWh. Wind power fetched an average of €37.5/MWh in 2012 and €32/MWh in 2013. Solar power got €44/MWh in 2012 but €37/MWh in 2013: the advantage for solar power of producing only during the day has been completely eroded by the large size of the capacity in Germany.

de_market_prices_2012_en.jpg prix_sources_allemagne_2013_en.jpg

Trying to correlate wind production and the price leads to an estimate of the reduction of the spot price of €1.3/MWh per GW of wind production. However, the correlation is weak, because the price of electricity reflects many other constraints, such as total consumption. prix_eolien_allemagne_2013_en.jpg

In France

France is in a market economic crisis now, which puts it also in a situation of average over supply. There are however worries regarding peak capacity as european directives such as LCP and IED are forcing old coal- and oil-fired plants to close. The baseload price is higher than in Germany. In 2012, it was about €47/MWh; in 2013 it was about €43.5/MWh. The wind price was €45/MWh in 2012 and €42/MWh in 2013. Up to 2013, there was no specific data for solar power. In 2013, solar fetched a price of €43/MWh.

fr_market_prices_2012_en.jpg prix_sources_france_en.jpg

If we look at the correlation between the price and the wind production, we see same slope, yet the correlation is very weak, because there is much less wind capacity in France than in Germany. As a consequence, other factors tend to dwarf the effect of wind power most of the time. If we look at wind production as a share of consumption, the correlation becomes much clearer, yet other factors continue to play a major role. prix_eolien_france_2013_en.jpg prix_eolien_vs_conso_france_2013_en.jpg

What consequences?

With these two years of data, we can conclude that intermittent sources of electricity would fetch a price lower than the baseload price in an open market. The magnitude of the rebate depends on the installed capacity. The european wind power lobby tells us that there were 33.7GW of wind in Germany and 8.2GW in France at the end of 2013. Similarly, there was something like 36GW of solar in Germany and 4.3GW in France at end 2013. In Germany, wind represented 8.1% of the electricity production in 2012 and 8.4% in 2013; solar was at 4.2% (2012) and 4.7% (2013). In France, wind represented 2.8% of the production in 2012 and 2.9% in 2013; solar was at 0.7% and 0.8% respectively.

Despite such low figures, the rebate is already 15% in Germany for wind power. Thus, it is hard to imagine that wind and solar would come to dominate the electricity production in Germany without a long lasting system of subsidies. The more wind power increases its share, the more the price it fetches on the open market is far from the baseload price. In the case where wind power would represent 30% of the production in Germany, it could mean that wind power would only get around 50% of the baseload price. The system of subsidies is also feeding on itself: today, new capacity is built thanks to subsidies, but the more wind capacity there is, the more the subsidies are needed to allow the construction of new wind turbines to proceed. Reaching price parity with other technologies will not be the end of road for wind and solar: they need to become much cheaper than alternatives to survive on their own in an open market. Therefore, I think that the chances that the subsidies will end any time soon are very slim. On the contrary, it looks like these subsidies will become a permanent feature of the electricity market throughout Europe.

That does not mean in itself that such subsidies should not be granted. After all, if we are to phase out the use of fossil fuels in electricity generation, wind and solar are among the few technologies where capacity can be expanded without hitting a hard geographical limit right away. Yet, a fixed feed-in tariff does nothing to lower the price of a technology, on the contrary one may just choose to use this tariff as a given and not try to lower prices. Indeed, wind power tariffs have been steady in France for some years and the amount of new wind capacity connected to the grid each year is decreasing since 2009. The European Commission wants these fixed tariffs to be phased out by 2017, but it is unclear if this will result in price decreases: in France there has been competitive tenders for some technologies and it turned out that, in the end, prices were often higher than the fixed tariffs. This state of affairs was widely denounced in a public report last year.

Another issue is the intermittency of wind and solar means that other means of production have to be used to plug the gap between their production and the demand. For the foreseeable future, this is going to mean relying on dispatchable plants, such as hydro dams, nuclear plants and, of course, fossil fueled plants. These plants generally see their profitability eroded by the operation of wind and solar power as they run less hours and receive a lower price because of the zero marginal cost of wind and solar production. As it is unthinkable that black outs be allowed, it is likely that we will see the implementation of capacity markets throughout Europe. It turns out that the technology that allows the lowest investment for a given guaranteed dispatchable capacity is the open cycle gas turbine, a fossil fueled technology. In other words, it may well be that governments may command subsidies for wind and solar power in the name of fighting climate change, while at the same time the very same governments will enforce rules guaranteeing the cash flows of fossil fueled plants to ensure security of supply.

Finally, it does seem that the foundations of the electricity internal market are rotten: the low carbon means of production — be it nuclear or renewables — have their price essentially determined by their capital expenditures, whereas the majority of the costs for fossil fuel plant are fuel costs. Having costs determined primarily by the cost of fuel is useful when the market of reference is the spot market: it reduces the investment risk you take. If you have to invest huge sums of money in a machine that will last decades, you will want to have a guarantee on your cash flows to avoid losing your shirt in case events do not back your assumptions. That means low carbon means of production like long term contracts which are discouraged under current EU rules. For wind and solar, their intermittency makes them also less appealing for such long term contracts, as they can't guarantee at which time they are producing. That is why I think that subsidies for wind and solar will stay for a very long time, perhaps permanently, in one form or another.

1 mars 2014

Les subventions à l'éolien et au solaire sont parties pour durer (version 2)

L'année dernière, j'avais regardé si l'éolien et le solaire pourraient avoir une chance de survivre sans les subventions accordées aujourd'hui, à savoir être construites pour l'argent encaissé en revendant l'énergie produite sur le marché de gros. La réponse que j'avais apportée alors était négative: sans subventions ou prix garanti les productions éoliennes et solaires ne pourraient pas survivre ou, en tout cas, aucune nouvelle infrastructure ne serait construite. En regardant sur l'année 2013, ce verdict est confirmé.

L'électricité d'origines éolienne et solaire ont pour caractéristique commune d'être à coût marginal nul. Produire un kWh supplémentaire ne coûte rien de plus au propriétaire qui a déjà investi dans sa machine et paye son entretien qu'elle produise ou pas. La production possible dépend uniquement des caprices de la météo. Les producteurs sont aussi très dispersés car une seule machine n'est pas extrêmement chère à construire. Ces 3 éléments transforment ces formes de production d'électricité en preneurs de prix: ils acceptent tout prix positif, voire même un prix négatif s'ils ne peuvent se déconnecter du réseau. Actuellement, les producteurs d'électricité éolienne ou solaire sont protégés de cette réalité par les tarifs de rachat qui leur assurent un prix de vente à l'avance.

En conséquence, on peut s'attendre à ce que l'éolien dont la production s'effectue grosso modo au hasard reçoive des revenus inférieurs au prix moyen du marché dit aussi prix de base — le prix obtenu en faisant la moyenne non pondérée de tous les prix horaires. Pour le solaire photovoltaïque, la situation est un peu différente: la consommation est supérieure le jour à ce qu'elle est à 4h du matin. Le prix est donc en général plus élevé le jour que la nuit. Mais si la capacité installée de solaire photovoltaïque est suffisamment grande — plus grande en tout cas que la différence de consommation entre le jour et la nuit —, on peut assister au même phénomène. Qualitativement, c'est lié au fait que le prix marginal est nul et aussi que la production est aléatoire … elle a donc une moindre valeur qu'une production prévisible à l'avance.

Pour regarder la situation, j'ai récupéré les prix sur Epexspot à l'aide d'un script perl. Pour la France, on peut récupérer les données détaillées de production sur éco₂mix. En Allemagne, il n'existe rien qui soit aussi détaillé … et gratuit. On connaît les productions éoliennes et solaires grâce à une directive européenne qui oblige à la publication. Ces données sont récupérées par P.-F. Bach, un ingénieur à la retraite danois. Les données récupérées ont été placées dans 2 fichiers LibreOffice: l'un pour la manipulation des données de RTE, l'autre pour les calculs qui donnent les prix.

La situation en Allemagne

L'Allemagne est marquée par une situation de surproduction, causée par la construction de centrales au charbon — dont le prix est bas en ce moment du fait de l'afflux de gaz de schiste aux USA — et par l'ajout de plus de 30GW de panneaux solaires et 30GW d'éoliennes. En conséquence le prix de base est bas (~38€/MWh). Le solaire emporte environ 1€/MWh de moins et l'éolien vaut plutôt 32€/MWh en moyenne. On note, même si la corrélation directe est faible, que chaque GW de production éolienne retire 1.3€/MWh au prix spot de l'électricité.

prix_sources_allemagne.jpg prix_eolien_allemagne.jpg

La situation en France

La France n'est pas marquée par la même situation, car le développement des énergies renouvelables s'y est fait à un rythme nettement moins intense. La crise pèse toutefois sur la consommation et par conséquent sur les prix. Le prix de base est de 43.5€/MWh, le prix pondéré par la consommation ~47€/MWh, l'éolien et le solaire ainsi que la catégorie "autres" fait de productions subventionnées (biomasse, etc.) ou marginales (comme l'usine de la Rance) sont les seules productions dont le prix est inférieur au prix de base (42€/MWh pour l'éolien, 43€/MWh pour le solaire). L'impact de l'éolien paraît relativement plus fort qu'en Allemagne avec un impact de 1.4€/MWh en moins par GW supplémentaire éolien produit, même si la corrélation paraît pour l'instant faible.

prix_sources_france.jpg prix_eolien_france.jpg

Quelles conséquences?

On peut constater avec 2 ans de données que les sources aléatoires d'électricité ont un prix inférieur au prix moyen. En conséquence, l'éolien et le solaire devront avoir un coût inférieur au prix moyen de l'électricité pour que des installations soient construites sans subvention. De plus, ce différentiel à couvrir grandit à mesure que les capacités installées augmentent: au fur et à mesure que des installations — actuellement subventionnées — sont construites, le coût à atteindre diminue et d'une certaine façon le jour où l'éolien et le solaire seront rentables sans subvention s'éloigne. Aujourd'hui en Allemagne, avec une production éolienne qui compte pour 8.5% de la production d'électricité, le différentiel de prix est de l'ordre de 15%: on voit mal ces moyens de production devenir dominants sans que les subventions ne perdurent sous une forme ou une autre.

De plus, en produisant de façon aléatoire, ces sources d'électricité dégradent la rentabilité des autres moyens de production. Ces autres moyens de production sont pour une bonne part pilotables et répondent à la demande. Mais comme leur rentabilité diminue, personne n'a vraiment intérêt à en construire. À terme, l'adéquation entre l'offre et la demande pourrait ne plus être assurée ou, dit autrement, le risque de black-out augmente. Il est douteux que nos démocraties laissent cette situation s'installer et on s'oriente vers un système où ces centrales seraient payées pour leur disponibilité et non pour l'énergie qu'elles produisent.

Au final, on voit mal comment l'organisation actuelle du marché pourra perdurer à long terme. Les productions intermittentes éolienne et solaire ont vocation à se développer, du fait de leur popularité auprès des politiques et de la nécessité de la lutte contre les émissions de CO₂. Le problème est qu'on voit mal comment ces sources intermittentes peuvent trouver un arrangement acceptable en dehors de prix déterminés par l'état: elles n'ont rien d'autre à offrir que l'énergie qu'elles produisent et n'ont aucun pouvoir de marché. Mais cet avenir de prix déterminés par l'état est pour l'instant meilleur que la situation des moyens pilotables. C'est notamment l'analyse de GDF-Suez qui n'envisage plus que de construire des moyens de productions subventionnés ou au prix garanti. Pour les moyens pilotables, on s'orientera vers un marché de capacité où on constate que les combustibles fossiles règnent en maîtres grâce à des coûts d'investissements faibles. Un premier risque est alors que les objectifs de réductions des émissions ne soit pas atteint à l'horizon 2030 ou 2040. Un deuxième risque est que les consommateurs ne veulent pas payer 2 fois pour la même chose, et qu'une confrontation sans fin s'ouvre et que le risque de black-out ne fasse qu'augmenter. Enfin, le risque est que la concurrence soit très limitée dans le domaine des énergies renouvelables: comme le prix sera déterminé par décret, aucune entreprise ne sera incitée à proposer un prix inférieur. Si on voit bien que l'organisation actuelle n'est pas soutenable, celle qui finira bien par apparaître n'est pas nécessairement meilleure que les anciens monopoles nationaux du point de vue du consommateur!

3 février 2014

Je ne comprends toujours pas pourquoi on nous demande une chose et son contraire

C'est ce que Christophe de Margerie, dirigeant de Total, célèbre firme pétrolière, déclare durant son audition à l'Assemblée Nationale. On peut dire qu'en gros, cette intervention résume l'ensemble de son propos et de ses réponses aux questions que les députés lui ont posées.

Une des principales occupations de de Margerie est de répondre aux accusations de mépris, causées en partie par ses réponses franches et le fait qu'il est en situation de monopole dans les DOM-TOM. L'esclandre qui l'oppose à Jean Lassalle a pour cause profonde la fameuse histoire de l'usine Toyal de la vallée d'Aspe et sa possible «délocalisation», pour cause d'agrandissement, vers le site de Lacq. La morale de cette histoire est simple: les politiques affirment vouloir le développement d'entreprises industrielles mais s'émeuvent bruyamment contre les conséquences.

Les questions des députés des DOMs sont très prévisibles: la nécessité que les carburants qui y soient aux normes européennes met Total en situation de monopole. Qui dit monopole, dit entreprise qui a une capacité à imposer des prix et ressentiment des clients qui voient un produit cher et un service sans sourire. Et bien souvent, la firme en situation de monopole a la même réponse que de Margerie: changez de crêmerie si vous ne voulez plus me voir, avec d'autant plus d'assurance que les capitaux à engager pour racheter les installations construites sont très importants. La question de la SARA est assez similaire: les normes européennes sont en vigueur dans les DOMs, ce qui permet à la raffinerie, créée par un oukase à la fin des années 60, de rester longtemps une situation de monopole, car les voisins au niveau de vie nettement plus bas ne partagent pas les même préoccupations. Les manifestations de 2009 ont amené à une régulation politique des prix, chaque volonté de remettre en cause les règles de fixation des prix mène maintenant à la confrontation. Bref, la décision politique a été prise d'avoir des carburants aux normes européennes mais les conséquences, notamment financières, ne sont pas assumées.

Une autre question qui est posée à Christophe de Margerie est celle de l'optimisation fiscale. Mais il l'explique bien, Total a en fait peu de moyens de la pratiquer très efficacement. L'activité de Total requiert en effet d'obtenir des permis auprès des états dans le sous-sol desquels se trouvent des hydrocarbures. Il est alors obligé de payer des sommes souvent très élevées pour cela: la rentabilité de l'extraction du pétrole et du gaz naturel n'ont échappé à personne. Le prix de vente de la marchandise est aussi parfaitement connu: les hydrocarbures sont vendues sur des marchés mondiaux dont les prix sont publics. Les états sont aussi capables d'obtenir les règles de modification des prix en fonction de la qualité du pétrole. Total est donc mal équipé pour utiliser une astuce courante d'optimisation fiscale qui consiste à facturer les productions en interne au groupe aux prix les plus divers, pour aller faire des bénéfices dans des pays à la fiscalité agréable. Si ce genre d'astuce fonctionne très bien pour un supermarché en ligne ou une société d'édition de logiciels, c'est nettement plus compliqué dans une activité d'extraction minière! En conséquence, Total paierait des impôts en France s'il y possédait des puits en grand nombre. Or, il se trouve que le gisement de Lacq va fermer incessamment et qu'il n'y a aucune opportunité d'expansion dans les gaz ou pétroles de schiste. En quelque sorte, les députés veulent à la fois que les entreprises qui exercent leur activité en France y paient leurs impôts et que les entreprises qui exercent leur activité à l'étranger fassent de même. Ils veulent que Total paie plus d'impôts en France mais lui interdisent toute possibilité réelle d'expansion de son activité.

Au contraire, l'activité de Total en France se contracte: on y consomme de moins en moins de carburants. En conséquence, des raffineries ferment: il n'y a plus que 8 raffineries en service en France et avec 5 d'entre elles, Total n'est peut-être plus si loin du monopole familier aux DOMs. De Margerie remarque aussi que la réduction des émissions de gaz à effet de serre va s'accompagner nécessairement de la continuation de cette tendance et que, depuis de longues années, les politiques prêchent en faveur des économies d'énergie. Tout irait pour le mieux si ces mêmes politiques ne faisaient pas bruyamment savoir qu'ils étaient contre les fermetures de raffineries: le dirigeant de Total cite même le cas d'une militante écologiste lui ayant reproché la fermeture de la raffinerie de Dunkerque. De fait, on demande à Total de moins produire et de moins vendre mais aussi d'employer plus de monde.

Tout ceci serait très drôle si ce n'était pas si répandu dans le discours public. Ainsi, on entend dire qu'on veut moins d'émissions de gaz à effet de serre mais aussi moins de nucléaire, qu'on veut plus de téléphonie mobile et moins d'antennes relais, moins de concurrence et des prix abordables, de l'innovation dans les semences mais pas d'OGMs, de l'innovation en général mais pas de risques ni de personnes dérangées. La liste est pratiquement sans fin des demandes contradictoires qui sont adressées aux citoyens. On pourrait dire qu'il s'agit de rechercher en fait un compromis, mais on ne peut que constater que dans de nombreux domaines, la voie est barrée par des interdictions. En procédant de la sorte, les politiques espèrent contenter le maximum de monde en ne vexant personne; mais on ne peut que constater qu'en fin de compte ils ne font que vexer ceux qui ne comprennent pas qu'on leur demande une chose et son contraire.

22 septembre 2013

De la réduction de la consommation d'énergie finale de 50% d'ici 2050

Vendredi dernier, François Hollande a annoncé son objectif de voir la consommation finale d'énergie — celle payée par le consommateur final — divisée par 2 d'ici 2050. Je suis fort sceptique que cet objectif puisse être réalisé et certain qu'il est néfaste, ce qui ne doit pas surprendre mes lecteurs réguliers.

Pour bien comprendre à quel point cet objectif est irréaliste, il faut se rappeler que, dans le scénario central du gouvernement allemand, il n'est prévu qu'une baisse de 40% (tableau 1 p7). À ceci, il faut ajouter que la population est attendue en baisse d'un peu plus de 10% (tableau 2-2, p80); en conséquence, la baisse de consommation d'énergie finale par habitant est d'environ 1/3. En France, il est communément admis que la population augmentera d'environ 10% d'ici 2050, l'objectif présidentiel se traduit par une baisse de 55% de la consommation par habitant. L'Allemagne a décidé de s'embarquer vers un modèle où l'essentiel de son énergie proviendrait de sources renouvelables et a exclu de recourir au nucléaire, ce qui limite les quantités disponibles — quoique 15% d'importations d'électricité soient par exemple prévues. Cette simple comparaison devrait amener à avoir des doutes sérieux sur l'éventuelle réflexion qui a précédé cette annonce, ou alors sur les scénarios allemands.

Les sources ne sont pas bien difficiles à trouver, le fameux débat, dont on a dit pis que pendre ici-même, fournit tout de même quelques documents dont un résumant les scénarios considérés. On y voit p8 la liste des scénarios qui correspondraient plus ou moins à l'objectif présidentiel, leurs supporters rassemblent essentiellement des associations écologistes, l'ADEME, ainsi que le gestionnaire du réseau de gaz — point qui peut étonner quand on sait qu'il doit être question de réduire les émissions de gaz à effet de serre. Le groupe de scénarios "Sobriété" est représenté entre autres par le scénario négaWatt où il s'agit d'abord d'être contre le nucléaire et de tout faire pour l'éviter. (On peut lire ma critique de scénario,celle de Sauvons le Climat, ainsi qu'une critique de la partie «biomasse»). Le groupe de scénarios "Efficacité" compte notamment l'ADEME (critique personnelle & celle de Sauvons le Climat, publiées avant que les documents complets ne soient rendus publics). Ces scénarios ont pour caractéristiques communes une contrainte importante placées sur les citoyens: impossible de se déplacer comme on le souhaite, le secteur des transport est soumis à des limitations draconiennes pour quelqu'un vivant en 2013. Des hypothèses bizarres sont faites, ainsi point de développement des deux-roues à moteur pour l'ADEME d'ici à 2030, alors qu'avec la forte hausse du prix du pétrole, ils s'étaient quelque peu développés. Il n'y a pas d'étalement urbain, la surface habitable par habitant est constante — elle a augmentée d'un tiers entre 1984 et 2006 (p129) —, ce qui implique un zonage très strict et des problèmes pour les jeunes générations, les vieux ayant tendance à rester dans leurs grands logements une fois les enfants partis. Bref, les prix élevés de l'immobilier sont garantis dans ce type de scénario. On mange aussi suivant les préconisations de la FAO, c'est à dire nettement moins de viande et plus de petits pois. Dans le même esprit, le système électrique est équilibré de façon quasi-magique en utilisant de fortes doses de sources fatales intermittentes. Il semble ainsi que la manip' qui permet au système électrique d'être équilibré dans le scénario de l'ADEME, c'est qu'un filtre passe-bas limite les fluctuations de l'éolien en mer (p206 du document technique de l'ADEME). On peut dire que c'est un cocktail détonnant d'ingénierie sociale et d'hypothèses audacieuses sur les sources mobilisables, dont rien ne dit que les citoyens et les entreprises les acceptent et les mettent en œuvre.

Pour donner une idée de la contrainte à placer sur la consommation d'énergie, on peut se tourner à nouveau vers l'Allemagne. Comme on le sait, les prix de l'électricité pour les petits consommateurs ont fortement augmenté sous l'effet de l'introduction de la Stromsteuer et de l'explosion de la taxe «renouvelables». Ils sont passés de 14 cents/kWh en 2000 à 26 cents/kWh en 2012 (source: BDEW, p41), soit presque une multiplication par 2. Dans le même temps, la consommation d'électricité par les ménages et le secteur tertiaire, impactés de plein fouet par la hausse des prix, a augmenté de 7% (Source: AG Energiebilanzen p30). En France, les prix sont passés de 12 à 14 cents/kWh et la consommation a augmenté de 25% pour un périmètre comparable. On voit que la consommation d'électricité ne répond que faiblement aux hausses de prix, par ailleurs tous les nouveaux objets ou presque en utilisent. Or, la production d'électricité est fortement contrainte dans les scénarios préférés du Président Hollande. Un rationnement n'est donc pas à exclure.

On pourrait penser que, comme ces déclarations portent sur un terme éloigné où François Hollande aura 96 ans, ces déclarations n'engagent à rien. Malheureusement, elles ont probablement une importance certaine, au contraire. Estimer que la consommation finale va baisser de 50% d'ici 2050 a des conséquences sur les investissements à faire aujourd'hui: pas besoin de capacité électrique pilotable supplémentaire, par exemple. Or, il s'avère que si la croissance repartait, il est fort possible selon RTE qu'on ne puisse éviter un black-out lors des hivers 2016 et 2017. Il faut aussi prendre en compte le fait que construire des centrales électriques, des lignes haute tension, des réseaux de chaleur, tout cela prend du temps et de plus en plus, à cause des consultations qui ne cessent de s'allonger pour les projets d'infrastructure. Si le gouvernement, forcément impliqué dans ces décisions, sous-estime gravement la demande, une pénurie est inévitable car le temps manquera pour construire les infrastructures nécessaires. En fait, estimer que ces déclarations n'ont aucune importance, c'est penser que les transitions énergétiques sont rapides et qu'on peut facilement changer de direction à tout moment. Rien n'est plus faux: historiquement, les nouvelles sources d'énergies ne se sont imposées que lentement, sur plusieurs décennies. Des pays de taille raisonnable comme la France peuvent aller plus vite, mais cette prégnance du long terme reste: dans le secteur électrique, la construction du parc nucléaire qui domine la production d'électricité a été décidée il y a maintenant 40 ans, sa réalisation a pris 20 ans pour l'essentiel. Il en va de même pour le chauffage: de nombreuses maisons restent chauffées au fioul alors que ce dernier n'est plus compétitif au vu des cours actuels, les chaudières gaz à veilleuse sont restées longtemps sur le marché — et sont sans doute toujours en usage — alors que celles à allumage électronique sont plus économiques au total. Il est donc sans doute de bon ton de prévoir une marge sur la consommation d'énergie: il est tout de même nettement plus simple de s'abstenir de construire quelque chose dont on n'a finalement pas besoin que de s'agiter en toute hâte parce qu'une pénurie s'est révélée.

De même, se reposer sur des technologies n'ayant aucune application actuellement, même sous la forme de prototypes est dangereux. Ces installations sont très populaires car parées de toutes les vertus, elles bénéficient en quelque sorte de la prime au rêve: ces installations ont pour principal avantage que personne ne les a vues en vrai ni n'a payé pour. On trouve dans ce genre d'infrastructure le stockage de l'électricité ou, dans un autre registre, les réacteurs au thorium. Il apparaît ainsi que le stockage le plus facile de l'électricité peut se faire via la production de chaleur, aussi connue sous le nom de chauffage électrique. Il semble que malheureusement, l'intersection de l'ensemble des supporters des énergies intermittentes et des supporters du chauffage électrique est vide. Même pour les installations qui n'existent qu'à l'état de prototypes ou connaissant un fort développement, rien n'assure qu'on pourra les déployer à plus grande échelle. Des limites fortes existent aussi pour les énergies renouvelables. Par exemple, 40% du maïs américain et 14% du soja servent à produire de l'éthanol pour une proportion dans l'essence aux USA de 10% seulement. En Allemagne, les cultures destinées à l'énergie représentent déjà 17% de la surface agricole utile. De l'autre côté, le 21e siècle a surtout vu le retour du charbon comme source importante d'énergie, y compris en Europe. Cela veut dire qu'il vaut mieux partir pour diminuer les émissions de CO₂ avec des technologies qui ont déjà fait en grande partie leurs preuves (nucléaire, réduction de la consommation des moteur automobiles…) et qui ont encore une grande marge de progression, quitte à intégrer les nouveautés par la suite, plutôt que de faire le pari de l'apparition d'une technologie miracle.

Au fond, il me semble que cette déclaration confirme que les mauvais traits de la politique énergétique de François Hollande que je craignais dès l'hiver 2011. Il fait des déclarations, en partie pour faire plaisir à ses alliés écologistes, en partie parce qu'il a été convaincu, mais leur réalisation concrète est hautement improbable: l'effort à réaliser est inouï. Un effort comparable à celui de l'Allemagne correspondrait, compte tenu des évolutions démographique, à une baisse limitée à 20% de la consommation d'énergie finale, ce qui correspond aux scénarios écartés. Appliquée telle qu'annoncée, la politique ne laisse aucune marge de manœuvre, sauf à prévoir de rater la cible en termes d'émission de CO₂. Il se trouve qu'on ne peut pas non plus écarter ces déclarations d'un revers de main, car l'approvisionnement en énergie de la France de 2050 se décide en partie aujourd'hui.

23 août 2013

Le marché des quotas de CO₂ a-t-il échoué?

Le rapport de la Cour des Compte sur les énergies renouvelables comporte une partie où elle tente d'évaluer les bénéfices des diverses politiques d'aide mises en place. Pour cela, il est pratique de pouvoir donner un prix aux tonnes de CO₂ dont on aura évité l'émission, puisque c'est là un des buts avoués de la politique en faveur des énergies renouvelables. Elle distingue divers modes de valorisation parmi lesquels le marché des droits à polluer, la valeur tutélaire — qui est une sorte de valorisation intrinsèque des bénéfices de moindres émissions — et la valorisation fiscale. Après avoir constaté le faible prix des droits à émettre du CO₂, elle affirme que en raison de l'échec du marché à valoriser le carbone, la seule valorisation qui intègre les dommages environnementaux reste une valorisation théorique publique, appelée valeur tutélaire du carbone. C'est une antienne qui est souvent reprise dans les média tant francophones qu'anglophones et qui me semble attribuer à ce marché une tache qu'il ne pouvait effectuer.

L'essence du marché du carbone est la suivante: les états de l'UE (et quelques autres) émettent des titres qui donnent le droit de rejeter dans l'atmosphère du CO₂, avec 1 tonne de rejet pour 1 titre. Pour des raisons pratiques, seul un certain nombre d'industries sont obligées d'en détenir, les particuliers en sont par exemple dispensés. Le principe est alors de placer une limite supérieure globale aux rejets des grandes industries comme la sidérurgie, la fabrication de ciment et d'électricité. Cette limite supérieure, actuellement d'un peu plus de 2Gt, décroît d'année en année, il est prévu que la quantité de titres créés par les états baisse de 1.7% par an d'ici 2020. De cette façon, les rejets de CO₂ peuvent être progressivement amenés à un niveau ne mettant pas trop en danger l'équilibre climatique de la planète. Ces titres sont prévus pour être échangeables contre de l'argent — y compris auprès des états qui mettent aux enchères une partie des titres émis chaque année — ce qui fait que la répartition des efforts de réduction des rejets n'est pas fixée à l'avance, et devrait commencer par là où c'est le moins cher, les industries où il est plus facile d'éviter de rejeter du CO₂ revendant leurs crédit aux autres ou passant leur tour lors des enchères. Si une entreprise rejette du CO₂ sans avoir acquis de droit à polluer, elle doit payer une amende, ce qui fait que lorsque la limite supérieure des rejets est dépassée, ce système se transforme en taxe carbone. On voit donc que le résultat est de se donner une quantité maximale de pollution émise chaque année.

En fait, les états ne sont pas la seule source de droits à polluer. Le protocole de Kyoto a créé des certificats de réduction des émissions via ce qui est pompeusement désigné sous le nom de mécanisme de développement propre, alias CDM. L'ensemble des certificats émis représente environ 1.4Gt de CO₂, ils peuvent être utilisées dans l'UE au même titre que les droits émis par les états. Ce sont donc 1.05Gt qui se sont retrouvés ces 5 dernières années sur le marché européen. Soit environ 10% du total des titres émis par les états ou l'équivalent des titres créés par la Pologne. La même Pologne qui a tenté d'obtenir le droit de donner des crédits gratuits pour des usines inexistantes. Dans le même ordre d'idées, des manœuvres ont fait que les crédits obtenus par le CDM ne sont valables qu'à condition qu'ils n'aient pas été attribués pour la construction d'une centrale nucléaire ou pour la création d'une forêt, par exemple. Pourquoi ces exceptions, alors que construire certains types de centrales au charbon y donne droit? Eh bien, parce que! … Ou bien plus exactement qu'il faut bien faire un compromis pour faire passer certaines mesures. Dans le cas d'un marché comme les droits à polluer, les compromis sur les quantités de titres sont fondamentaux. Une fois qu'ils sont actés, il est très difficile de revenir dessus … et difficile de blâmer le marché du carbone lui-même pour les décisions qui ont mené là: après tout, la contrainte majeure de ce marché est cette quantité de titres créés!

Un autre exemple de cette dépendance à la quantité de titres est le marché US des droits à émettre du dioxyde de soufre (SO₂), gaz qui entraîne des pluies acides. Ce système est souvent vanté comme ayant très bien marché. Il est crédité d'une baisse des émissions de 43% entre 1990 et 2007. Mais comme le nombre de permis émis chaque année n'a pas varié depuis 2000, car le Congrès n'a pas réussi à trouver un accord, le prix des permis s'est effondré. En fait, il s'avère que ce système pêche par sa rigidité: pour modifier le paramètre principal qui est le nombre de titres émis chaque année, il faut passer par le Congrès. La réglementation est nettement plus facile à modifier et c'est ce qui s'est passé aux USA: la réglementation a été durcie au point où il est impossible d'atteindre le plafond d'émissions. On a aussi assisté à un retrait du charbon au profit du gaz de schiste dans la production d'électricité. Mais personne ne dit que le marché du SO₂ est un échec parce que le prix des permis est trop bas; pour constater si les buts sont atteints, on regarde si le plafond a été respecté et combien cela a coûté. On ne se pose même pas la question de savoir s'il eût été possible de faire mieux, or il s'avère que dans le même temps, l'UE a fait bien mieux. Les émissions de SO₂ y ont été divisées par 3, certains pays comme le Royaume-Uni les ont divisées par 6. La cause en est que l'UE a édicté des réglementation strictes notamment via les directives GIC (LCP en anglais) et IED.

Dans le domaine des émissions de CO₂, on constate que l'UE a aussi adopté toute une série de réglementations qui visent à diminuer les émissions. On peut citer les engagements sur les énergies renouvelables, sur l'efficacité énergétique ou même les directives LCP et IED qui vont faire fermer de vieilles centrales au charbon et au fioul. Des évènements non prévus au départ peuvent aussi permettre de respecter le plafond sans effort. La dépression actuelle en fait partie: de nombreuses aciéries et cimenteries ont fermé, la demande en électricité stagne voir baisse à cause de la faillite de nombreuses entreprises et de la baisse du niveau de vie des habitants. Évidemment, peu souhaitaient que le respect du plafond d'émissions passe par une crise pareille et le scénario prévu était que des investissements permettraient de conjuguer croissance et limitation des émissions de CO₂. C'est simplement ignorer que devenir l'Albanie est une façon de réduire drastiquement les émissions de CO₂. Après tout le marché du CO₂ ne dit pas comment réduire les émissions, mais fixe juste la limite à ne pas dépasser. Le prix des permis ne fait que refléter l'effort qu'il faut faire pour être sûr de ne pas dépasser le plafond ou alors, lorsqu'on est trop près ou delà du plafond, le prix de l'amende.

Comme le prix des permis reflète surtout l'effort à faire pour rester sous le plafond prévu à l'origine, il n'y a aucune raison que ce prix reflète le coût pour la société de la pollution. On peut même dire que les promoteurs d'un tel système espèrent ouvertement que le prix des permis soit nettement inférieur au coût de la pollution. Que les prix du carbone sur le marché soient bas n'est pas en soi-même un échec. S'en plaindre, c'est surtout se plaindre que les évènements n'ont pas été conforme à ce qui avait été prévu. Or sur le marché du carbone, le prix s'ajuste en partie par ces évènements imprévus, qu'ils soient bons ou mauvais. Cela veut aussi dire que les valorisations théoriques et via le marché n'ont pas les mêmes significations. Une valorisation théorique donne une idée des sommes qu'on peut rationnellement payer pour éviter une pollution, en dehors de toute autre considération, notamment de savoir s'il existe une façon plus économique de faire. La valorisation par le marché a pour but de rechercher la façon la plus économique d'atteindre une certaine quantité de pollution. En ce sens, il n'y a pas à se prévaloir d'un éventuel échec du marché pour se référer à une valorisation théorique, d'une part parce que le marché ne couvre pas l'ensemble des des émissions, d'autre part parce qu'il peut finalement devenir rationnel de diminuer la pollution plus qu'il n'était prévu au départ. Inversement, un prix bas sur le marché du carbone signale surtout que les objectifs fixés au départ vont être atteints sans beaucoup d'efforts, mais sans rien dire sur la situation générale de l'UE.

Finalement, on peut dire qu'on affuble la situation actuelle du marché du CO₂ du nom d'échec pour de mauvaises raisons. Ce qui est regretté, c'est que les choses ne sont pas passées comme prévu: c'est la crise qui a fait s'effondrer les émissions dans le secteur industriel, pas une quelconque innovation. C'est oublier que le marché ne fait que fixer un maximum d'émission — qui peut être dépassé en payant une amende, d'ailleurs — et que d'autres politiques que le seul marché du CO₂ sont en place pour essayer de faire baisser les émissions, comme par exemple les subventions aux énergies renouvelables. Il est inévitable que ces subventions exercent une pression à la baisse sur les prix des permis … en engageant parfois des dépenses astronomiques. On ne peut pas non plus confondre le coût théorique de la pollution et le prix des permis, puisqu'en fait l'espoir est que la pollution sera réduite en dépensant moins que ce que la pollution coûte à la société. Au fond, le marché du CO₂ n'est que la voiture balais des politiques européennes sur le sujet, c'est une tentative de fixer un plafond annuel d'émissions. Se plaindre de son échec du fait du bas prix des permis, c'est un peu se plaindre que la voiture balais soit vide à l'arrivée d'une étape du Tour de France. L'étape était peut-être trop facile, peut-être le peloton n'est-il composé que de dopés, mais rien de tout cela n'est la faute de la voiture balais.

22 août 2013

Les objectifs de production d'énergies renouvelables sont intenables

La Cour des Comptes revient dans son rapport sur les objectifs qu'ont fixé les différents gouvernements qui se sont succédé en termes de production d'énergies renouvelables. Ces objectifs ont été formalisés suite au niveau européen avec la politique dite des «3x20» où l'un des termes est de produire 20% de l'énergie consommée en Europe via des moyens renouvelables. La Cour, dans sa conclusion du chapitre 1 (p38), nous dit que ces objectifs sont volontaristes et particulièrement ambitieux, une façon polie de dire qu'ils sont impossibles à atteindre.

La Cour rappelle (p26) le précédent pari pris au comptoir du café du commerce avant de prendre les engagements de la politique des 3x20. Il s'agissait, en 2001, de produire 21% de l'électricité avec des renouvelables à horizon 2010. La base de comparaison était alors 1997, où l'hydroélectricité produisait 15% du total. Le résultat a été qu'au final, en 2010, la production d'électricité de sources renouvelables a atteint … 15% du total — sans correction des effets climatiques — ce qui intègre les effets des premières mesures prises pour tenir l'engagement actuel. Un deuxième round d'engagements plus solennels a été lancé en 2004, pour aboutir aux engagements actuels formalisés en 2009. Ces engagements visent toutes les formes d'énergies et plus seulement la seule électricité. Il s'agit pour la France de produire 23% de l'énergie finale à partir de sources renouvelables.

La Cour remarque que la France est parmi les pays de l'UE le plus ambitieux puisque la proportion d'énergie renouvelable doit augmenter de 12.7 points de pourcentage par rapport à 2005, année prise comme référence. Avec cette façon de mesurer, c'est le 4e objectif le plus ambitieux, après le Royaume-Uni — qui part de presque rien… —, le Danemark et l'Irlande (p31). Cet effort est supérieur à celui promis par la vertueuse Allemagne, où le soutien politique apparaît nettement plus fort. On peut se demander ce qui a mené à une telle décision…

L'objectif global est détaillé par grandes filières: chaleur — un tiers de l'énergie consommée devait venir de renouvelables —, électricité — 27% —, transport — 10%. Les choses se corsent à partir de là:

  • La Cour signalait dans son rapport sur les biocarburants (p43 et p47-48) que la proportion de biocarburants intégrables à l'essence était limité par une directive européenne. Celle-ci fixe un plafond de biocarburants intégrables inférieur aux demandes de la loi française et les distributeurs d'essence doivent donc de ce fait payer une taxe. En 2011, la proportion atteinte était de 6.7% d'EnR dans les transports. En l'absence de modification des normes européennes sur les carburants, il paraît impossible de réaliser l'objectif, même si certains biocarburants comptent double.
  • La France produit à l'heure actuelle environ 80% de son électricité à l'aide du nucléaire. On voit donc que l'objectif correspond à une production où il n'y aurait plus que le nucléaire et les énergies renouvelables. Comme il s'agit essentiellement de s'appuyer sur des moyens de production intermittents pour combler la différence entre la production hydraulique et l'objectif, ça ne paraît pas crédible, même en fermant la centrale de Fessenheim. On pourrait aussi penser augmenter la production totale d'électricité, mais le détail des objectifs montre que ce n'est pas l'option qui a été choisie. Par ailleurs, depuis 2008 et la crise, la consommation d'électricité stagne en France, ce qui est un facteur limitant.
  • La production de chaleur n'est pas normalisée en fonction des conditions climatiques. C'est ainsi qu'on pourrait réaliser les objectifs par filière et manquer l'objectif global, seul officiellement contraignant, de ce fait. Ce n'est pas qu'une considération académique: le bois — alias «biomasse solide» — est censé remplir presque 50% de l'objectif total. La variation de chaleur produite par ce biais est de l'ordre de 10% entre 2011 et 2012.

Même si les objectifs sont libellés en pourcentage de l'énergie finale produite, des objectifs en termes nominaux ont été édictés. La Cour présente l'état des lieux en 2011 en regard des objectifs pour 2020 dans un tableau, reproduit ci-dessous. CComptes_enr_objectifs.jpg On constate que, notamment pour les gros contributeurs attendus que sont l'éolien et le bois pour la chaleur, il y a un grand écart entre ce qui a été réalisé et l'objectif. Même en 2012, année froide, le bois de chauffage reste en deçà de la trajectoire prévue, ce qui n'est pas de bon augure. De plus, l'ADEME dans son scénario, qu'on ne peut pas vraiment soupçonner de sous-estimer les gisements d'énergies renouvelables, estime que le gisement «biomasse solide» accessible en 2030 est de 18Mtep: on voit donc que l'essentiel de l'effort devrait porter dans les quelques années qui viennent. Pour l'éolien l'objectif implique peu ou prou la construction de 30GW d'éoliennes. La tendance actuelle laisse penser qu'il n'y en aura pas la moitié. D'autres filières sont signalées dans le rapport comme très en retard, comme la géothermie électrique, et la différence entre les objectifs nominaux et les réalisations ne sont sans doute pas pour rien au laisser aller que la Cour note dans certaines filières, notamment la production d'électricité à partir de biomasse. Certaines filières ne sont pas trop mal placées par rapport aux objectifs comme le solaire photovoltaïque et le biogaz — qui sont même au delà. Mais ces filières ne peuvent pas de façon réaliste combler le manque que laisseront les gros contributeurs.

La trajectoire prévue au départ voulait aussi qu'environ les deux tiers de l'effort soient produits entre 2012 et 2020. Pour les plus gros contributeurs prévus à cet effort, la biomasse pour la chaleur et l'éolien, on n'en prend a priori pas le chemin. Certains des objectifs sont devenus aussi nettement plus controversés. C'est ainsi le cas des biocarburants, de la production d’électricité à partir de biomasse — qui reste malgré tout le seul moyen pilotable avec des perspectives d'augmentation de la puissance installée. D'autres se font étriller dans le rapport pour leurs coûts, notamment la géothermie électrique, solaires photovoltaïque et thermique.

L'impression qui se dégage est que ces engagements n'ont pas fait l'objet d'une réflexion très poussée avant d'être pris. Il semble que certains décideurs aient décrété que l'intendance suivrait. Malheureusement, en la matière, il existe quelques contraintes comme la physique, l'inertie créée par la base installée, la capacité financière de l'état ou celle des citoyens. Ces derniers peuvent aussi ne pas faire exactement ce qui est attendu d'eux. On ne peut que constater que ces objectifs sont en partie à l'origine des gaspillages d'argent public dénoncés par la Cour dans son rapport: les objectifs ont été détaillés par filières et incluent des filières particulièrement onéreuses comme le solaire photovoltaïque. Par ailleurs, même pour des filières dont l'intérêt est évident — bois pour le chauffage, pompes à chaleur —, les difficultés sont bien présentes, ce qui montre que les énergies renouvelables ne gagneront que progressivement des parts de marché.

20 août 2013

À propos de l'éolien à 60€/MWh

Le rapport de la Cour des Comptes sur les énergies renouvelables contient un chiffre qui a vocation a être abondamment repris à propos des coûts de l'éolien en France. Le coût minimal mentionné par la Cour est de 60€/MWh. Évidemment, il s'agit d'un minimum, dans le calcul duquel les hypothèses prennent une grande part. On peut donc s'attendre à ce que ce chiffre soit abondamment repris, sans la mention des hypothèses.

La Cour écrit dans son rapport la chose suivante:

La Cour a pu examiner des calculs de rentabilité de parcs éoliens terrestres français réalisés par un exploitant dont les éoliennes bénéficient d'implantations géographiques favorables. L'ordre de grandeur des coûts de production calculés par le Cour se situe entre 60€/MWh avec un taux d'actualisation réel de 5% et 68€/MWh pour un taux d'actualisation réel de 7%.

Comme j'ai réalisé en début d'année quelques calculs pour me rendre compte des coûts d'investissements qu'impliquaient les tarifs de rachat des énergies renouvelables, cette donnée a attiré mon attention et m'a permis d'essayer de reproduire les conditions pour arriver à de tels coûts. Il faut rappeler avant toute chose que les calculs effectués par la Cour des Comptes sont des calculs de valeur actuelle nette. Les principaux paramètres qui ont un impact sur le calcul sont les suivants:

  1. Le coût d'exploitation: pour une éolienne, il s'agit de payer l'entretien de la machine, le comptable, les impôts et tout ce qui peut être nécessaire au fonctionnement d'une entreprise.
  2. Le montant investi dans la machine: on construit généralement un équipement de ce genre pour gagner de l'argent et bien sûr plus on paie cher la machine, plus il faut vendre cher pour rentrer dans ses frais
  3. Le taux d'actualisation qui représente la rémunération du capital investi. Une nouvelle fois, il ne s'agit pas d'une entreprise philanthropique, les investisseurs s'attendent à gagner de l'argent. Il en existe 2 types: les créanciers obligataires et les actionnaires. Les actionnaires ne se voient promettre par contrat aucune rémunération, ils prennent le plus de risques et exigent donc une rémunération supérieure aux créanciers obligataires (comprendre: les banques) qui se voient, eux, promettre un certain rendement à l'avance.
  4. La durée d'amortissement. Plus on amortit sur une longue durée, moins les coûts sont élevés. Toutefois à partir d'une certaine durée — qui dépend du taux d'actualisation — on ne gagne presque plus rien à allonger la durée d'amortissement. Cette durée est aussi liée à la durée de vie de la machine.
  5. La quantité de courant produite. Dans le cas qui nous occupe, la Cour précise que les éoliennes bénéficient d'implantations géographiques favorables, dont on peut retirer que la production de ces éoliennes est notablement supérieure à la moyenne française.

On voit qu'il faut faire quelques hypothèses pour pouvoir commencer à faire un calcul, car tout n'est pas dit dans le rapport de la Cour des Comptes. J'ai donc fait l'hypothèse que les coûts d'exploitation étaient de 15€/MWh, que la durée de vie était de 20 ans. J'ai aussi pris un facteur de charge — le ratio de la production réelle à la production maximale théorique si l'éolienne tournait toujours à fond — de 27%, supérieur aux 23% pris habituellement par RTE comme la moyenne française. Pour obtenir un coût de 60€/MWh pour une actualisation à 5% et 68€/MWh pour une actualisation à 7%, j'arrive à un coût d'installation de 1330€/kW, qui correspond grosso modo à ce qu'on peut attendre d'une éolienne. Si on prend ce même coût d'installation mais qu'on estime que le facteur de charge descend à 23% — la moyenne française, donc — et qu'on prend un taux d'actualisation de 8% — conforme à ce qui a été pris dans le rapport sur le nucléaire —, on trouve un coût de 82€/MWh, le tarif de rachat actuellement en vigueur. Inversement, si on applique un taux d'actualisation de 5% à l'EPR de Flamanville, on trouve que le coût du courant est d'environ 68€/MWh, en prenant en compte les coûts annoncés en décembre dernier par EDF. On peut retrouver ces calculs dans une feuille Google docs.

Qu'en conclure? Tout d'abord, bien sûr, que les hypothèses prises pour faire ces calculs sont d'une importance primordiale. Un taux d'actualisation bas va forcément diminuer drastiquement les coûts, d'autant plus que la durée de vie de l'équipement est longue. C'est pourquoi les coûts de l'EPR de Flamanville ont tendance à plus baisser que ceux des éoliennes … Comme rappelé plus haut, la production d'énergie n'est pas une entreprise philanthropique, ce qui signifie que les investisseurs doivent espérer une certaine rémunération avant de se lancer. EDF peut emprunter à un taux nominal de 4%/an, sans doute le taux minimal que peut espérer une entreprise du secteur. EDF a aussi à peu près autant de capitaux propres — qui reviennent aux actionnaires — que de dettes. Dans ce contexte, un rendement réel de 5% revient à une rémunération du capital de 10%/an, ce qui est considéré comme faible … Pour mémoire, la Cour des Comptes a calculé le coût du programme nucléaire sur la base d'un taux réel de près de 8% soit un rendement du capital de presque 16% pour EDF.

Par ailleurs, la quantité de courant produite joue aussi un rôle primordial. Pour calculer des coûts représentatifs, il vaut mieux se baser sur la production moyenne des installations. Ceux qui ont une implantation géographique favorable auront une production plus élevée, sans pour autant avoir des coûts augmentés d'autant, ils seront donc plus rentables. Même si on compte s'installer d'abord sur ces sites, l'installation d'un grand nombre d’éoliennes obligera à s'installer aussi sur des sites moins favorables.

Enfin, le rapport de la Cour signale que les promoteurs d'éoliennes rencontrent des difficultés à obtenir des permis de construire. Presque 40% sont retoqués à bon droit par l'administration, un tiers des permis délivrés sont ensuite contestés par des particuliers. Cela signale une grande difficulté pour les promoteurs à pouvoir véritablement s'installer sur ces fameux sites favorables. De plus, plus il y aura d'éoliennes, plus on peut craindre que le nombre de recours par des particuliers augmente. Ce genre de difficultés n'est pas forcément pris en compte dans les coûts chiffrés, il n'en est pas moins qu'il renchérit sans doute significativement les coûts réels. Pour preuve, depuis quelques années, le rythme d'installation des éoliennes a baissé, ce qui pointe soit vers des difficultés de financement, soit vers difficultés pour trouver des sites où on peut effectivement construire. A contrario, cela montre que le tarif de rachat de 82€/MWh pour les nouvelles installations n'est pas éloigné de la réalité des coûts comme le suggère une lecture hâtive du rapport de la Cour des Comptes.

- page 1 de 3