11 novembre 2015

Le réchauffement climatique

À l'occasion de la prochaine conférence sur le climat qui va se tenir à Paris, la COP21 selon son acronyme anglais, je vais écrire quelques billets pour en couvrir quelques aspects. Ce premier billet est consacré à la base scientifique du phénomène et des prévisions que font les modèles sur le futur du climat. Rien de novateur a priori, il s'agit surtout de fixer les idées en partant du dernier rapport du 1er groupe de travail du GIEC.

On peut définir le réchauffement climatique de façon générale par l'accumulation de chaleur par la Terre sur une longue durée. Cela se traduit par une hausse des températures moyennes à la surface du globe, de façon non uniforme: la répartition du stock de chaleur peut changer entre la surface des océans et les continents, par exemple. Mais cette accumulation peut se mesurer depuis l'espace: en effet, le seul moyen pour la Terre d'évacuer de la chaleur est de la rayonner et le principal apport — et de très loin — est la lumière du Soleil. Comme depuis les années 70, des satellites mesurent ces 2 données en permanence, il est désormais établi avec certitude que la Terre accumule de la chaleur. Cet apport est évalué à environ 0.45W/m² — en répartissant uniformément à la surface de la Terre — en moyenne entre 1971 et 2010 (p7 du résumé technique). En conséquence de quoi, les températures moyennes ont augmenté avec une tendance d'environ +0.12°C par décennie depuis les années 50 (p5) et sur les 10 années les plus chaudes jamais mesurées, 9 sont au 21ᵉ siècle et la manquante est 1998, année la plus chaude du 20ᵉ siècle.

Une fois les observations acquises, il reste à les expliquer. Comme la luminance du Soleil n'a pas beaucoup varié ces dernières décennies, il faut se tourner vers d'autres explications, et il s'avère que c'est bien l'accumulation de gaz à effet de serre qui expliquent le mieux les observations. RFs_AR5.jpg Il faut dire que l'effet de serre a une longue histoire tant théorique que pratique. Dès la fin du 19ᵉ siècle, on s'est aperçu que la température moyenne à la surface de la Terre était trop élevée par rapport à un bête calcul d'équilibre thermique. Il fallait donc expliquer la différence: rapidement, on s'est aperçu que divers gaz absorbaient dans l'infrarouge, comme la vapeur d'eau ou le gaz carbonique. D'où des tentatives de déterminer la variation de température moyenne si on augmentait la concentration de l'atmosphère en CO₂. Au fond, le modèle de l'effet de serre est assez simple à comprendre: en absorbant une partie du rayonnement émis par la surface de la Terre, l'atmosphère agit comme une couverture qui fait monter la température. Une partie de la chaleur est piégée et ce d'autant plus qu'une partie de l'énergie absorbée revient aussi à la surface de la Terre par des phénomènes de conduction thermique. Comme les bandes d'absorption du CO₂ ne sont pas confondues avec celles de l'eau, augmenter sa concentration provoque plus d'absorption et donc une hausse de la température.

Quant à l'origine de l'augmentation de CO₂, il n'y a aucun doute sur sa réalité et sur son origine. Cela vient de l'utilisation de combustibles fossiles, de la déforestation ainsi que de quelques procédés industriels. Le GIEC parle d'émissions depuis 1750, mais en fait, avant la Seconde Guerre Mondiale, les émissions étaient bien moins élevées. Ce n'est qu'avec l'exploitation massive du pétrole que les émissions ont véritablement décollé. fossil_fuels_AR5WG1.jpg Au total en 2010, les émissions de CO₂ dues aux activité industrielles (combustion de combustibles fossiles plus divers procédés) dépassent les 30 milliards de tonnes (Gt) par an, auxquelles il faut ajouter 5Gt/an pour la déforestation et l'équivalent d'un peu moins de 15Gt/an pour les autres gaz à effet de serre comme le méthane et le N₂O, pour un total d'à peu près 50Gt/an d'équivalent CO₂.

Ensuite, le GIEC détermine des scénarios moyens et lie des masses d'émissions à une probabilité de rester sous une certaine élévation de température. Il est important de noter que ces quantités sont données à partir de 2011: nous sommes en 2015 et ces budgets sont déjà entamés. AR5_CO2_budgets.jpg Pour accomplir l'objectif proclamé d'avoir plus de 2 chances sur 3 de limiter le réchauffement à moins de 2°C, il restait donc à peu près 1000 Gt de CO₂ possibles à émettre (les autres gaz à effet de serre ne sont pas comptés dans ce budget, mais modélisés à part).

Le premier effet du réchauffement climatique est la hausse du niveau des mers par 2 voies: la dilatation thermique et la fonte des glaciers terrestres. Ces 2 termes expliquent environ 80% de la hausse observée du niveau des mers; le reste est dû à la différence entre le pompage des nappes phréatiques et du stockage dans des barrages. La précision des observations de la hausse du niveau des mers s'est grandement améliorée à partir des années 90 quand le premier des satellites d'altimétrie radar a été lancé. Avec ses successeurs, on observe depuis plus de 20 ans une hausse d'environ 3mm/an du niveau moyen des mers. Au 21ᵉ siècle, la différence entre les situations où il y aurait un fort réchauffement et celui où il serait plus limité est relativement faible: si on limite le réchauffement à 2°C, on peut s'attendre à une hausse du niveau des mers de 40cm contre 75cm dans le cas de la prolongation tendancielle (grosso modo +4 ou +5°C). Mais une vraie différence apparaît à plus long terme: la fonte de la calotte du Groenland se produit vers un réchauffement de +1.5°C et une hausse du niveau des mers de 6m à l'échelle de plusieurs millénaires, et à l'échelle de plusieurs siècles, le cas du fort réchauffement conduit à une élévation de l'ordre de 4 à 5m en moyenne, contre moins d'un mètre s'il est contenu. Combiné aux autres changements annoncés dans la répartition des précipitations, de la hausse de la fréquence des épisodes de fortes précipitations, on comprend qu'il y a là motif à agir, ne serait-ce que pour limiter la vitesse des changements les plus néfastes.

28 octobre 2015

Tract ou journal?

Mardi après-midi, est paru sur le site du Monde un article intitulé Le nucléaire, une solution pour le climat ?, signé par Pierre Le Hir. A priori, on s'attendrait à une comparaison des émissions de CO₂ entre diverses technologies, mais en fait, il semble bien qu'il s'agit en fait de relayer la parution d'un argumentaire anti-nucléaire par diverses associations opposée à cette technologie. En effet, la structure de l'article est composée d'une introduction où on parle de la position d'EDF, puis un corps où l'argumentaire des opposants est développé, pour terminer pour citer le GIEC, mais surtout dans ses remarques les plus négatives.

Évidemment, le nucléaire ne règlera pas à lui tout seul le problème des émissions de CO₂ et du réchauffement climatique, mais comme personne ne prétend qu'une technologie peut y parvenir seule, la question est plutôt de savoir s'il peut apporter quelque chose. On peut alors se retourner vers quelques faits simples. Tous les ans, l'AIE publie un inventaire mondial des émissions de CO₂ venant de la production d'énergie, ainsi que son résumé, gratuit et accompagné d'un tableur. La dernière édition disponible aujourd'hui, celle de 2014, recense les émissions de 2012. On y constate une différence d'émissions de 4 tonnes de CO₂ par habitant entre la France et l'Allemagne, dont 3.3 pour le seul poste «production de chaleur & d'électricité». La source de cette différence est bien connue: en Allemagne, presque 50% de la production d'électricité est assurée par du charbon et les 2/3 à partir de combustibles fossiles, alors qu'en France, les moyens décarbonnés assurent plus de 90% de la production et le nucléaire entre 75 et 80%. Comme on peut le constater, cette expérience montre que le nucléaire a bien le potentiel de réduire substantiellement les émissions dans certains pays, et non des moindres! CO2_FRvsDE.jpg

Un autre argument avancé est que le nucléaire émet lui aussi du CO₂. Ce n'est pas faux: lors de la construction, on a besoin de ciment et d'acier, qui nécessitent d'émettre du CO₂ pour les produire. Afin de comparer tous les effets, le concept d'émissions sur le cycle de vie a été développé. Il s'agit de comptabiliser toutes les émissions qui ont servi à produire de l'énergie, du début de la construction à la démolition. Le GIEC fournit dans le résumé technique de la partie sur les solutions possibles au problème du réchauffement climatique le graphe suivant p41 (coupé pour ne tenir compte que des technologies actuellement disponibles). LCA_technos.jpg On constate que le nucléaire est parmi les moins émetteurs: la médiane des études le met à égalité ou presque avec l'éolien. On est donc bien en peine de trouver le moyen de production d'électricité qui produirait vraiment moins de CO₂ par unité d'énergie, ce qui est quand même l'essentiel pour lutter contre le réchauffement climatique. Le solaire phovoltaïque, par exemple, émet plus que le nucléaire, ce qui ne l'empêche pas d'être apprécié par les opposants au nucléaire. C'est à peine si l'auteur de l'article mentionne cela, tout au plus il mentionne que le GIEC classe le nucléaire parmi les sources à faibles émissions de carbone.

Les autres problèmes du nucléaire existent bien, mais aucun des problèmes des alternatives ne sont exposés. Par exemple, nulle mention du problème de l'intermittence de l'éolien ou du solaire. Le scénario de l'ADEME qui prévoit un mix électrique 100% renouvelable est mentionné, sans dire que certaines technologies nécessaires n'existent pas à l'heure actuelle. Enfin, quand on mentionne les problèmes d'acceptation par la population, c'est évident que tout dépend de la perception qu'en ont les gens … qui serait peut-être améliorée par une information impartiale qui éviterait de n'instruire qu'à charge.

Cet article semble donc être avant tout une reprise de la communication des associations anti-nucléaires. Même pour un «compte-rendu», on serait tout de même en droit d'attendre que les inexactitudes dans leurs positions ne soient pas relayées complaisamment. Et qu'à la question posée dans le titre, on apporte la véritable réponse que les faits appellent: Oui, le nucléaire est une solution pour le climat, mais seulement partielle et s'il devient mieux accepté et moins cher!

25 septembre 2015

Optimisation

Il est récemment apparu que le groupe Volkswagen, célèbre fabricant d'automobiles, avait inclus dans le logiciel embarqué dans certains de ses véhicules une fonction permettant de détecter qu'un test officiel était en cours et d'ajuster les paramètres du moteur pour s'assurer de respecter les réglementations anti-pollution. Lors d'essais en conditions réelles, une association s'est aperçue que les Volkswagen émettaient bien plus sur route que lors des tests, contrairement au véhicule tank d'une marque concurrente, BMW. Après quelques péripéties, Volkswagen a admis qu'un logiciel lui permettait d'adapter les émissions lors d'un test.

On comprend bien que ce type de manœuvre soit interdite: pour que les normes anti-pollution soient utiles, il faut que les tests soient représentatifs, dans une certaine mesure, du comportement réel des émissions de polluants. Utiliser un logiciel qui modifie les réglages du moteur quand un test est détecté ruine complètement cette représentativité puisqu'on peut alors faire des choses très différentes entre le test et l'utilisation réelle. Les mesures effectuées et répercutées dans la presse indiquent une multiplication par 30 et plus des émissions de NOx entre les tests et la conduite sur route de montagne (voir p62 du pdf). Que la production d'oxydes d'azote soit facilement modifiée n'est pas une surprise: cela résulte de la modification du mélange, où plus d'air injecté résulte dans une plus grande quantité d'oxydes d'azotes créés.

Le premier constat qu'on peut faire est que les automobiles sont désormais en grande partie contrôlées par leurs ordinateurs de bord qui sont capables de faire un certain nombre d'ajustements d'elle-mêmes. Avec l'augmentation de la puissance de calcul, on a non seulement droit au GPS, mais il est aussi possible d'essayer de deviner le comportement de l'automobiliste pour passer les rapports de vitesse, des boîtes automatiques avec de plus en plus de rapports, etc. Dans le cas présent, les ordinateurs de bords sont peut-être désormais capables d'ajuster les paramètres du moteur pour optimiser la puissance et la couple ou encore la consommation de carburant, comme le font les pilotes de F1 en piste. Avec les avancées en termes de machine learning, on peut construire des machines qui reconnaissent bien des situations et leur apprendre différents comportements suivant le situation. Bien sûr cela a des conséquences en termes de pollution, puisque le moteur ne passe sans doute pas les tests anti-pollution en dehors d'un mode de fonctionnement relativement étroit. Parmi les autres désagréments, on peut aussi maintenant pirater des voitures pour les mettre en carafe. C'est le revers de la médaille du surplus de confort et de l'optimisation des performances.

L'optimisation, justement: aujourd'hui, les produits complexes comme les automobiles sont le résultats de compromis et donc d'optimisations: on cherche à obtenir les meilleures performances, au meilleur prix. Les performances sont elle-mêmes très diverses: il faut que la voiture soit confortable, facile à conduire, performante, peu polluante: ces contraintes ne sont pas nécessairement toutes compatibles entre elles. D'où l'idée d'établir des comportements différents suivant la situation: avec la puissance de calcul actuelle, c'est envisageable! C'est même facilité par le côté stéréotypé des tests officiels, dont il est bien difficile de s'échapper. En effet, un test officiel a pour but d'être reproductible afin de donner une autorisation à la vente: le réaliser dans des conditions contrôlées et une procédure très idéalisée aide à atteindre ce but. Il se doit aussi de ne pas être trop long ou trop compliqué faute de quoi, il serait extrêmement cher et ouvrirait la porte à la contestation. Cette affaire Volkswagen va sans doute amener à ce que les tests d'homologation se déroulent dans des conditions plus proches de la réalité et pourquoi pas en situation réelle. On peut aussi noter que le fait d'établir des normes peut conduire à perdre de vue le but final de l'optimisation. C'est un peu ce qui s'est produit avant la crise des subprimes: un certain nombre de produits financiers ont été construits pour répondre à une spécification émise par les agences de notation. Les ingénieurs employés par les banques ont été chargés d'y répondre, avec pour seul but de passer le test des agences et non d'éviter le défaut de paiement. Pour Volkswagen, ceux qui ont décidé d'inclure la fonction «spécial test» ont perdu de vue le but global qui était fixé: atteindre de bonnes performances tout en polluant un minimum.

Enfin, cette histoire montre aussi qu'il est bien difficile de cacher éternellement des comportements peu recommandables lorsqu'on est une firme mondiale. Il y aura toujours quelqu'un pour tester les produits quelque part dans le monde! Et comme ils sont souvent motivés, on peut s'attendre à ce qu'ils arrivent à leurs fins. Le comportement dont il est question est bien difficile à discerner pour le commun des mortels: bien malin qui peut déterminer la composition des gaz d'échappements sans équipement perfectionner ou comparer tests officiels avec comportement routiers sans un minimum d'organisation. Alors de là à cacher une fonction qui ferait juste tomber un produit en panne après une certaine date, ce serait du pur délire tellement c'est un comportement facile à déceler: décidément, les tenants de la prétendue «obsolescence programmée» sont très proches des théoriciens du complot! Au fond, la meilleure garantie que les produits vendus aujourd'hui respectent bien la loi, c'est qu'ils soient vendus à grande échelle.

7 septembre 2015

Repli sur soi de la France

Depuis 2011, la guerre civile fait rage en Syrie et en Libye. Depuis 2014, une créature de la guerre civile syrienne, Daesh, s'est répandue en territoire irakien. Rien que pour la seule Syrie, la lecture du chapeau de la notice wikipedia nous apprend qu'il y a 11 millions de déplacés, soit à peu près la moitié de la population estimée avant la guerre. Fuyant les destruction, la brutalité des combats et des différentes force en présence, il y a bien sûr de nombreux réfugiés qui ont quitté le pays, d'abord pour les états voisins. Des camps y ont été installés. Mais comme la guerre dure depuis 4 ans et demi, l'espoir d'une solution quelconque au conflit semble toujours lointaine, l'afflux de réfugiés continue. De plus en plus de ces réfugiés cherchent donc des solutions définitives, plus loin de leur pays d'origine, vers des pays où ils espèrent pouvoir vivre en paix. Cela les amène naturellement à vouloir venir en Europe et particulièrement dans les pays les plus riches, en Europe de l'Ouest, où la paix civile règne, quoiqu'on puisse en penser, depuis 70 ans. Et c'est ainsi que les demandes d'asile sont en forte augmentation depuis 2011. demandes.jpg Quant aux demandes acceptées, on peut voir l'évolution sur les 2 graphes ci-dessous. La Suède ne figure pas sur le 2e graphe, du fait du grand nombre de demandes acceptées par rapport à la population: près de 3000 demandes acceptées par million d'habitant. Pour mémoire et permettre une comparaison, l'accroissement naturel de la population française est d'environ 0.4% soit 4000 par million d'habitants. The Economist propose aussi un graphe plus complet. On peut y constater que la France est le troisième pays qui accepte le moins facilement d'accorder l'asile, après la Hongrie, dirigée par un parti flirtant avec l'extrême-droite, et la Grèce, dont on connaît les difficultés actuelles. asile_prop.jpg asile_vs_pop.jpg Ces graphes semblent indiquer quelque chose d'assez logique: bien loin d'être le résultat d'un accroissement de la misère dans le monde, l'afflux actuel d'immigrants est dû aux guerres civiles et aux réfugiés qu'elles engendrent. Cela semble confirmé par les chiffres de l'ONU.

Pendant ce temps-là en France, la rhétorique des partis classiques se sert toujours des immigrants économiques — ou de ceux qui voudraient vivre des aides sociales — pour refuser autant que faire se peut d’accueillir ces réfugiés. La semaine dernière sur Europe 1, Laurent Fabius a disserté sur la nécessité de ne pas accueillir les migrants économiques. Ce dimanche, Alain Juppé a fait de même en rajoutant un agrandissement de la liste des «pays sûrs», cette fiction légale qui permet de déclarer sûrs des pays qui n'en sont pas vraiment. Cette semaine, j'ai pu entendre Christian Estrosi qui demandait peu ou prou qu'on coule à peu près tous les navires en dehors de l'Union Européenne poru éviter qu'ils ne servent aux passeurs tout en proclamant, bien sûr, son attachement au droit d'asile. François Hollande a finalement accepté le principe de quotas de réfugiés, qu'il refusait jusque là, mais c'est après la publication de la photo d'un enfant mort sur une plage.

Il faut dire que nos dirigeants sont assez représentatifs de la position moyenne des Français. La semaine dernière, un sondage rapportait que 56% étaient opposés à l’accueil des réfugiés. Ce dimanche, un autre sondage donnait à peu près les mêmes proportions. En prime, on voyait que les personnes interrogées affirmaient que la France était aussi voire plus accueillante que l'Allemagne! Comme on vient de le voir et même sans prendre en compte les évènement récents, ce n'est absolument pas le cas et la France est nettement plus restrictive. Cette perception est favorisée par les dirigeants qui ne manquent pas de jouer sur «la France, pays des Droits de l'Homme», mais en même temps, les dirigeants continuent à le dire sans doute parce qu'ils savent que ce préjugé de la France très accueillante est bien ancré dans la population.

L'impression qui se dégage est que les politiques modérés ont disparu, préfèrent se taire ou suivre la rhétorique dominante sur la question. Au fond, il semble quand même bien que les Français soient de plus en plus hostiles à l'immigration et c'est pour ça que des discours plus violents se rencontrent plus souvent de nos jours: il ne me semble pas que dans les années 90, un dirigeant de haut niveau au RPR ou à l'UDF aurait appelé à couler des bateaux. De la même façon, il semble bien qu'être opposé à l'immigration est un plus pour obtenir des voix de nos jours: on a donc de plus en plus d'élus clairement opposés à l'accueil d'étrangers en France, quelle qu'en puisse être la raison et quelle que puisse être la situation internationale, guerres civiles ou pas. C'est malheureusement cohérent avec un repli sur soi de la population française et avec une disparition progressive des discours rationnels dans la vie publique. Ce n'est pas un secret que ce blog se lamente régulièrement sur le manque de prise des arguments raisonnables sur des questions diverses comme les OGMs ou le nucléaire. Là encore, on a un exemple similaire: en dépit d'indices très concordants, il semble bien que les Français soient imperméables pour une bonne part à un discours de vérité qui lie l'arrivée actuelle d'étranger aux guerres civiles qui s'éternisent au Proche-Orient. Malheureusement, on pourrait être engagé dans une sorte de cercle vicieux, où un sentiment de déclin fait préférer des positions plus extrêmes et moins basées sur l'analyse des faits, ce qui n'aboutit qu'à des échecs et à une perpétuation du sentiment de déclin.

2 mai 2015

Le scénario d'électricité 100% renouvelable de l'ADEME

Médiapart a publié sur son site un pré-rapport d'une étude commandée par l'ADEME sur la faisabilité d'une production d'électricité totalement renouvelable en France. Par la suite, devant cette fuite, l'ADEME n'a guère eu d'autre choix que de publier elle-même ce document provisoire sur son site web. Ce post concerne le contenu de ce document, et il fait suite à celui concernant d'autres scénarios de production électrique 100% renouvelable (ou quasiment).

Comme explique dans le post précédent, le scénario de l'ADEME peut s'appuyer sur des précédents et ne sort pas de nulle part. En fait, pour faire le scénario le plus crédible possible, on peut déduire de ces précédents les choses suivantes:

  1. L'éolien terrestre va constituer la première source d'électricité. La production est répartie tout au long de l'année avec en moyenne un surplus en hiver, ce qui ressemble à la consommation. De plus, c'est aujourd'hui la source renouvelable d'électricité la moins chère aujourd'hui; les baisses de prix à prévoir pour en faire l'acteur dominant peuvent se révéler faibles. La France bénéficie aussi d'une situation relativement favorable du point de vue de l'intermittence avec une forte différenciation entre les régimes de vent au sud (Mistral et Tramontane) et au nord (vents d'Ouest venant de l'Atlantique). En supposant une amélioration de la technologie, le facteur de charge — la quantité produite rapporté au maximum possible — augmente à conditions météorologiques constantes, ce qui limite les besoins de stockage ou de lignes THT.
  2. Comme l'éolien ne suffit pas à lui tout seul, il faut lui adjoindre une autre source: en général, le photovoltaïque est indiqué car on peut en installer un peu partout, sur les toits dans le pire des cas. Comme une baisse des prix importante s'est produite ces dernières années, il suffit de prolonger la tendance pour obtenir des prix bas. Cependant, le photovoltaïque et l'énergie solaire en général présentent 2 gros défauts: la production est concentrée l'été et en milieu de journée ce qui provoque des pics de production.
  3. En conséquence, il va falloir mobiliser de la demande mobile au cours de la journée ou de la semaine. En invoquant un mix de smart grid, de chauffage électrique et de voitures électriques, comme dans le scénario du Fraunhofer Institut, c'est réalisable. Il faut cependant rester à des puissances déplaçables raisonnables sous peine de paraître peu crédible.
  4. Pour compléter la gestion dynamique de la demande, il faudra du stockage. En effet, il est impossible de s'affranchir totalement de l'intermittence rien qu'avec le solaire et l'éolien: pour passer les périodes sans vent ni soleil, il faudrait construire énormément plus de capacités de production que l'énergie totale consommée ne le nécessite. Il faut aussi limiter cette composante, car cela coûte cher, tant en production qu'en argent. De ce côté, la France présente un atout avec ses lacs de barrage qui permettent de limiter cet appel au stockage.
  5. Construire des lignes THT et se reposer sur le commerce international est aussi utile: c'est une façon relativement économique d'éponger les surplus et de remplir les creux. Une nouvelle fois, une minimisation des besoins est importante, non pas tant à cause des coûts que de l'opposition générale que la construction de ces lignes suscite
  6. Enfin, évidemment, il faut que les coûts des technologies favorisées soient présentés comme plutôt faibles, sinon le scénario ne semblerait pas très intéressant.

Le scénario de référence

Pour sélectionner la répartition entre technologies ainsi que la répartition spatiale des installations, un logiciel d'optimisation est utilisé pour minimiser les coûts totaux avec en entrée les coûts de chaque technologie par région ainsi que les coûts des lignes THT à installer. Les puissances à installer sont calculées région par région, les réseau THT est optimisé en minimisant les liens entre régions. Les conditions aux bornes sont que la situation commerciale de la France est neutre — autant d'imports que d'exports sur l'année — avec une capacité d'import-export fixée à l'avance au niveau actuel, que le stockage est équilibré sur l'année — autant d'entrées que de sorties — et que la consommation totale annuelle est de 422TWh.

Pour couvrir cela dans le scénario de référence, environ 106GW d'éolien et 63GW de solaire PV sont installés pour compléter les installations hydro-électriques déjà présentes aujourd'hui, 3 GW de bois ainsi que diverses technologies plus ou moins obligatoires à présenter (solaire à concentration, géothermie, ordures ménagères …) mais qui n'ont aucun impact substantiel sur le résultat de la simulation. Le réseau THT modélisé a une capacité de 68GW, une augmentation a priori raisonnable de 30% par rapport à ce qui serait nécessaire aujourd'hui selon le même modèle. Le stockage est représenté par les 7GW de stations de pompage — plus ou moins ce qui existe déjà en France —, 12GW nouveaux de stockage court terme ainsi que 17GW de stockage long terme sous forme de méthane pour servir l'hiver. On peut voir la répartition complète pour les moyens de production «primaires» ci-dessous, ainsi que la répartition de la production qui en découle. mix_install_reference.jpg mix_prod_reference.jpg

Comme on peut le voir, l'éolien sous ses diverses formes représente l'essentiel de la production primaire avec environ les 2/3 du total, l'éolien terrestre en assurant plus de la moitié à lui seul. Le solaire PV et l'hydraulique se partagent quasiment le reste à part presque égales avec une petite place pour les autres technologies. L'importance de l'hydraulique permet à ce scénario de partir sur des bases plus sympathiques que ceux étudiant l'Allemagne: avec les autres technologies renouvelables plus ou moins pilotables ou fonctionnant de façon continue, presque 25% de la demande est couverte. L'importance du stockage n'apparaît pas sur ces graphes — dommage! Mais la façon de le gérer est la principale innovation, me semble-t-il, de cette étude et ce qui permet de la rendre réaliste. En effet, les études passées en revue dans le post précédent achoppent sur deux points: s'il n'y a qu'un seul moyen de stockage adaptable, la puissance installée augmente fortement pour aller chercher l'ensemble du surplus dans les heures de forte production intermittente. En conséquence, le facteur de charge finit par baisser de façon dramatique ce qui fait exploser les coûts: une bonne partie des installations est de fait à l'arrêt toute l'année ou presque. Si on ne met pas de stockage, on doit alors utiliser du réseau à foison, ce qui finit par devenir irréaliste à cause de l'impopularité des lignes THT.

Le stockage est réparti en 3 classes: le court terme, le moyen terme (pompage) et le long terme (méthane). Un des points les plus importants est que le stockage de long terme coûte plus cher que les autres et il faut absolument en minimiser la puissance installée. De même pour les autres, même s'ils sont modélisés avec un coût nettement plus faible, les faire tourner le plus possible minimise les coûts totaux. Pour minimiser la puissance installée de l'entrée et de la sortie en stockage de long terme, l'étude autorise largement le recours aux transvasements entre stockages ainsi que le recours aux importations, même pour le remplissage (cf par exemple les figures 53 et 54 p44). On peut dire que c'est un succès: le facteur de charge de la transformation électricité vers gaz est d'environ 40% avec des mois où elle tourne en permanence comme le mois de juin (cf figure 72 p67) et pour le mois de février, c'est la sortie qui fonctionne à plein régime tout le mois. La flexibilité du stockage associé à son coût raisonnable est à mon avis ce qui explique, avec la proximité des coûts des technologies utilisées, le tir groupé sur les coûts qu'on constate dans l'étude. Cette façon de gérer le stockage permet aussi de limiter la gestion de la demande à une dizaine de GW. Associé aux 30GW de stockage, ça permet d'absorber l'ensemble des à-coups tout en restant dans une zone qui semble à peu près réaliste: c'est la première étude 100% renouvelable que je lis qui entre dans cette catégorie.

Le scénario de référence est complété par des variantes ou des concurrents:

  1. Un scénario où la demande est plus forte: 510 TWh contre 422TWh. C'est le 3e pire cas au niveau des coûts à cause de l'usage de certaines des technologies les plus chères qui sont écartées de ce fait du scénario de référence. Mais on reste à 5% du coût au MWh du scénario de référence, contrairement à ce que disent les titres (cf plus bas).
  2. Un scénario où il y a moins d'hydroélectricté disponible. En conséquence, c'est plus cher car il faut à la fois installer des moyens de production supplémentaires, accompagnés d'un peu de stockage et de réseau. Le MWh est 3% plus cher que dans le scénario de référence.
  3. Un scénario où les énergies marines sont nettement moins chères. Surprise: le coût au MWh est moins élevé en conséquence (-5%). Ça permet de constater que quand les prix baissent, on paie moins cher. C'est un scénario qui pourra laisser un peu d'espoir aux partisans de ces énergies, dont les perspectives sont pratiquement inexistantes si elles restent aussi chères et que le stockage baisse ses prix comme prévu par le scénario de référence.
  4. Un scénario où le coût des lignes THT est doublé. C'est le pire cas au niveau des coûts au MWh (+8%)! Ça s'explique par le fait que la simulation se met à installer des moyens de production chers et à renforcer le stockage. Combiné au dernier scénario, ça montre que le NIMBY est potentiellement très toxique pour les énergies renouvelables électriques (cf plus bas).
  5. Un scénario où on accepte 5% d'électricité non-EnR fabriquée en France et un autre où on en accepte 20%. Ces scénarios permettent de s'apercevoir que le stockage, même avec les hypothèses les plus optimistes ne fait pas vraiment le poids face aux combustibles fossiles, même frappés par un prix du carbone de 100€/tonne. Le scénario avec 80% d'EnR est le moins cher à coût du capital constant (-6%). Le stockage de long terme disparaît totalement au profit des turbines à gaz: c'est peut-être la meilleure preuve qu'il est très difficile de se débarrasser des combustibles fossiles. Les combustibles fossiles remplissent actuellement la fonction qui est dévolue au stockage de long terme, puisque le stockage d'énergie est juste une sorte de tas avec des choses à brûler quand on besoin d'énergie
  6. Un scénario avec 40% d'EnR où le nucléaire apparaît en force. Arrive à rester moins cher malgré le prix du nucléaire dans la fourchette haute des énergies: le stockage est quasi-totalement éliminé à part le pompage, le réseau est fortement diminué, ce qui compense le coût du nucléaire.
  7. Un scénario sans solaire PV. C'est un des plus chers (presqu'autant que le scénario haute consommation), car il faut recourir aux énergies marines — les plus chères de l'étude — et augmenter les capacités de stockage. Cette variante montre le côté relativement complémentaire du PV avec l'éolien.
  8. Un scénario sans éolien avec de grands rotors. Un peu plus cher (+2%), il suffit juste de jouer à la marge sur le PV, le réseau et le stockage. Cette variante montre à mon sens — même s'il est difficile d'en être sûr vue qu'elle n'est pas très détaillée — que la flexibilité du stockage permet d'amortir le profil plus intermittent.
  9. Un scénario avec un taux d'actualisation de 2%, extraordinairement faible. Sans surprise, c'est le moins dispendieux des scénarios: quand des moyens de production à coûts fixes sont financés presque gratuitement, c'est forcément moins cher!
  10. Un scénario où l'éolien terrestre est plafonné à 47GW environ, soit 2 fois moins que l'optimum de la simulation, et le PV de grandes dimensions à 24GW, une baisse d'un tiers. C'est le 2e scénario le plus cher (+7%) car ce sont les moyens de production les moins chers de l'étude. Il faut recourir aux énergies marines pour combler le manque. Dans ce scénario, le NIMBY est un gros problème pour tout le monde, y compris pour bâtir le réseau (cf variante 4.) d'où sa forte toxicité potentielle.

Les problèmes du document

Le premier problème de ce document, c'est qu'il n'est pas fini. Outre qu'il n'y a pas de résumé et qu'on peut facilement noter la présence de coquilles et de phrases bizarres, cela donne sans doute lieu à un contre-sens. Une des conclusions du rapport est que la maîtrise de la demande est un élément clé pour limiter le coût (titre p84) mais que les contraintes d'acceptabilité liées au réseau ne sont pas un obstacle (titre p86) ou encore que de fortes contraintes d’acceptabilité sociale sont compatibles avec un mix 100% renouvelable (titre p81). Ces phrases sont assez attendues dans un rapport de ce type, qui est après tout souvent commandé pour montrer la faisabilité du scénario étudié et relayer ce que pense le commanditaire. Mais en fait, la figure 77 (p71, oui, il faut suivre) qui sert de base à la publicité pour la maîtrise de la demande est fausse: le MWh ne coûte pas 151€ dans le cas de la haute consommation mais 125€ comme indiqué p112 dans le dernier tableau ainsi que dans la discussion p85. La différence est due au fait que sur la figure 71, le coût total est divisé par une consommation fixe de 422TWh et non par la consommation de la variante… D'ailleurs si on lit le dernier tableau pour les coûts totaux — qui paraît coller avec les hypothèses, lui — on voit que toutes les variantes, sauf une, se tiennent dans ±8% du scénario de référence. L'exception est le cas où le coût du capital est de 2%. On peut trouver la répartition des coûts pour certains scénarios sur le graphe ci-dessous: cout_MWh3_annote.jpg

Que l'augmentation de la consommation ne soit pas un gros problème découle en fait des hypothèses prises. Régulièrement des études sur le potentiel des énergies renouvelables trouvent qu'il y a potentiellement assez d'énergie à capter pour couvrir les besoins de consommation de n'importe quel pays développé. Donc tant que les gisements d'énergie peu chères ne sont pas épuisés, l'augmentation du volume d'énergie produite n'est pas un problème de coûts. C'est donc naturellement que dans le scénario à forte consommation, où les énergies chères sont peu utilisées, que le coût de production de l'électricité «primaire» augmente dans des proportions raisonnables (+6%). D'ailleurs, il est important de remarquer que la contradiction dans le discours plaidant à la fois pour de fortes économies d'énergie et assurant que les énergies renouvelables vont devenir peu chères très bientôt: les économies d'énergies ne sont nécessaires que si toutes les sources d'énergies sont chères dans le cas contraire, elles ne servent que comme une sorte d'assurance contre une forte hausse des prix. gisements_utilises.png Par contre, ce qui pourrait se produire, c'est une forte hausse des besoins de stockage et de renforcement du réseau. On note effectivement une augmentation du coût du stockage dans le scénario à haute consommation … mais la modélisation du réseau, qui inclut des frais fixes, a pour conséquence que le scénario à haute consommation a les coûts de réseau par MWh consommé les plus bas! Les deux se compensent à peu près et on touche là à une des limites de la simulation.

En effet, le modèle suppose que le coût du réseau de distribution jusqu'aux lignes haute tension de 63 et 90kV est supposé fixe (p69). Or, plus il y a de moyens de production décentralisés, comme l'éolien ou le solaire PV, plus il faut renforcer le réseau, de la basse tension aux lignes haute tension, et non seulement les lignes THT pour le transport à grande distance. En effet, le solaire PV sur toiture est branché sur le réseau de distribution mais la puissance produite dépasse facilement la puissance couramment consommée pour une habitation, les grandes centrales solaires et l'éolien sont souvent connectés au réseau haute tension. L'étude ignore donc ce poste de coûts, pour être réellement représentatif, il aurait sans doute ajouter un petit quelque chose. C'est en tout cas ce que laisse penser un document de la Dena allemande dont on peut simplement extraire un graphe, en se rappelant que le réseau basse tension est tout de même moins cher au km que les lignes THT: expansion_reseau_allemand.jpg

Quant aux prix, il est important de se rappeler que ce sont les hypothèses de départ et non les conclusions de l'étude: en d'autres termes, le mix final et les coûts donnés à la fin dépendent directement de ces paramètres. Or, il s'avère que les projections à long terme sont dans le domaine de l'énergie le plus souvent fausses; il n'est qu'à voir la qualité des prévisions en ce qui concerne le prix du pétrole. Les hypothèses prises sont résumées par les figures suivantes: prix_sources_enr.jpg prix_stockage.jpg Il est aussi important de connaître le taux d'actualisation pris pour estimer ces coûts: 5.25%. Malheureusement, pour des installations de production, le taux le plus souvent choisi est 8%, en sus de l'inflation. C'est par exemple le taux pris par la Cour des Comptes et EDF pour évaluer les coûts du nucléaire actuel. Avec un taux aussi bas, et en prenant pour base une note du Syndicat des Énergies Renouvelables, on trouve qu'actuellement avec un taux de 5.25%, l'éolien devrait coûter aux alentours de 60€/MWh… La note du Syndicat des Énergies Renouvelables, venant en réponse à un rapport de la CRE trouvant en substance que les rentabilités étaient trop élevées, malgré un rythme d'installation atone, montre que peu sont prêts à investir avec une rentabilité aussi faible. D'un autre côté on voit des technologies fort chères ou quasiment inexistantes baisser radicalement leurs prix. C'est ainsi le cas de sources comme la biomasse ou l'éolien en mer. L'éolien en mer a fait l'objet d'appel d'offres et le prix est ressorti à environ 200€/MWh (sans compter l'indexation) par deux fois. De même les technologies de stockage sont actuellement quasi inexistantes, une seule existe vraiment: les stations de pompage. Dans ce cadre, la technologie de conversion par électrolyse semble se voir attribuer une baisse de prix d'un facteur 4 par rapport à ce qui attendu pour une construction aujourd'hui. Quant au stockage de court terme, il s'agit selon les propres termes du rapport d'une méta-technologie. Pour le dire simplement, il s'agit donc bien là d'hypothèses, qui servent de point de départ à la simulation: en déduire qu'un système 100% renouvelable serait bon marché est une erreur de logique, le système est à un prix raisonnable si ces hypothèses se vérifient.

Le nucléaire se voit attribuer un prix de 80€/MWh pour un facteur de charge de 80%. Avec l'utilisation réelle, le prix ressort d'ailleurs plutôt à 85€/MWh soit environ 30% de plus que l'éolien terrestre dans le modèle. Ce prix correspond grosso modo au prix de Flammanville 3 avant les derniers retards annoncés, soit 9.5G€, avec le taux d'actualisation annoncé (5.25%). La simulation avec peu d'énergie renouvelables est aussi désavantagée par divers facteurs: par exemple, il y a une limite basse pour l'installation de solaire PV sur toiture, une technologie chère dans le modèle, qu'on peut remplacer par l'alternative similaire des grandes centrales PV. Ça coûte environ 400M€ annuels avec les hypothèses du modèle, soit 1€/MWh. Ça peut sembler dérisoire, mais dans une simulation où tous les scénarios se tiennent dans quelques pourcents, ça a son importance. Mais un scénario avec 55% de nucléaire reste alors compétitif malgré le surcoût et les hypothèses de prix enthousiastes pour le stockage. Enfin, il est remarquable que le scénario le moins cher soit celui où les combustibles fossiles produisent quasiment autant qu'en 2012 … les émissions ne baissent que grâce à la fin du charbon et du fioul dans la production d'électricité. C'est la preuve s'il en fallait une qu'il sera difficile de se débarrasser des combustibles fossiles.

Quelques conclusions

Cette étude est la plus réaliste des diverses études modélisant une production d'électricité 100% renouvelable que j'aie lue. Grâce aux installations hydrauliques déjà présentes aujourd'hui et la gestion du stockage — innovante me semble-t-il — la puissance d'entrée des moyens de stockage reste limitée, de même que l'utilisation de la gestion active de la demande. La somme des deux ne dépasse pas 40GW, ordre de grandeur de la puissance moyenne consommée. On reste dans un domaine raisonnable, contrairement par exemple à l'étude du Fraunhofer Institut, où la somme des deux atteignait parfois 100GW, à peu près 2 fois la puissance moyenne consommée. Même si tout n'est pas parfait, cette étude permet de déterminer quels sont les éléments de succès ou de d'échec d'une production nationale d'électricité basée entièrement sur les énergies renouvelables. Il faut donc de l'éolien et du solaire PV abordable, une capacité d'importation intacte, du stockage peu cher et découpé en catégories d'utilisation (court terme, semaine, long terme), de la demande gérable à distance, typiquement basée sur le chauffage électrique. Les facteurs d'échec sont, à part la non-réalisation des facteurs de succès, le développement d'une réaction de NIMBY qui empêcherait la construction de nombreuses éoliennes et de lignes THT.

Comme les capacités à prévoir les inventions et les prix dans le futur sont très limitées, la question à laquelle répond cette étude est en fait: «que faut-il changer pour que la production d'électricité en France se fasse totalement à partir d'énergies renouvelables?». La réponse est donc que l'éolien terrestre doit baisser ses prix de 25%, l'éolien en mer d'un facteur 3 environ, le solaire PV d'un facteur 2, et surtout des technologies de stockage doivent apparaître et devenir compétitives. On doit aussi interdire quasiment les combustibles fossiles, faute de quoi leur utilisation ne serait pas très différente d'aujourd'hui. En outre, une gestion dynamique de la demande doit être mise en place, en grande partie basée sur le chauffage électrique — qu'on ne doit donc pas décourager — et pour le reste sur les voitures électriques — qui doivent encore se tailler une part de marché significative. Enfin, aucun mouvement de NIMBY ne doit apparaître.

Il n'est pas certain que tous ces points puissent se réaliser aisément tous en même temps: pour prendre un exemple, parmi les supporters des éoliennes, on ne trouve pas spécialement de supporters du chauffage électrique ou des lignes à haute tension. Dans un autre genre, la Cour des Comptes avait constaté que 40% des permis de construire d'éoliennes étaient retoqués par l'administration et sur ceux qui passaient ce filtre, un tiers était attaqué par des personnes privées. Au Royaume-Uni, les éoliennes sont suffisamment impopulaires pour que le parti conservateur compte en son sein de nombreux opposants à leur déploiement dans ses rangs, et cette opposition sert de justification au développement de l'éolien en mer pour lequel, d'ailleurs, l'opposition populaire aux éoliennes terrestre est en ce moment à peu près la seule justification.

Pour finir, il reste à répondre la question «Que faire à la vue de cette étude?». La réponse est en fait «pas grand-chose!». Si chercher à faire que les prix des énergies renouvelables baisse ne veut pas dire en installer massivement. En effet, elles sont aujourd'hui nettement plus chères que les alternatives. Par exemple, la position de départ de d'EDF avant négociation est de demander 55€/MWh pour l'électricité nucléaire venant d'un parc rénové, bien moins cher que ce qui est présenté dans l'étude. En conséquence, d'ici 2035, il n'y a pas besoin de changer grand-chose. De plus, certains tarifs de rachat pour les énergie renouvelables restent très élevés et produiront des effets jusque dans les années 2040, comme par exemple ceux de l'éolien en mer. Dans ce cadre, procéder à un déploiement massif dès aujourd’hui serait se faire mal tout de suite pour espérer que ça aille à peu près bien dans une trentaine d'années!

1 mai 2015

Scénarios d'électricité 100% renouvelable: quelques exemples internationaux

L'ADEME fait réaliser actuellement une étude de modélisation sur la faisabilité d'un système électrique français où la totalité de la production proviendrait d'énergies renouvelables. Une version du document résumant les conclusions de la modélisation a été publiée par Médiapart; c'est clairement une version de travail, puisqu'il n'y a pas de résumé au début du document. Cette publication du document non fini par la presse a amené l'ADEME à le publier à son tour sur son propre site. Avant de se tourner vers les résultats du scénario de l'ADEME, il peut être utile de regarder ce qu'ont donné d'autres modélisations ailleurs dans le monde car ce scénario de l'ADEME ne sort pas de nulle part.

PJM et l'Université du Delaware

PJM Interconnection est le nom d'une entreprise américaine gérant le réseau d'une partie des USA, sa zone de gestion originelle comprenait la Pennsylvanie, le New Jersey et le Maryland, d'où son nom. Au début des années 2000, elle a absorbé des réseaux électriques voisins pour s'agrandir considérablement: le réseau géré aujourd'hui comprend en sus des zones de départ la ville de Chicago, l'Ohio, les 2 Virginies, ainsi que des parties du Kentucky, de l'Illinois, du Michigan et de la Caroline du Nord. Dans son rapport annuel 2013, l’entreprise dit avoir transporté un peu moins de 794TWh annuels, avoir un pic de demande à 165GW et desservir 61M de personnes. Pour résumer, une population légèrement inférieure à celle de la France est desservie avec une consommation annuelle et un pic de puissance supérieurs de 60%.

Un papier de chercheurs de l'Université du Delaware, dont il a été question fin 2012, prétend montrer que les énergies renouvelables peuvent couvrir l'essentiel de la consommation à un coût comparable ou inférieur à celui des technologies classiques, un but finalement très proche de l'étude de l'ADEME. Les 100% d'énergie renouvelable ne sont pas atteints, mais c'est tout comme, puisqu'un scénario avec 99.9% de la consommation d'électricité couverte par les énergies renouvelables. Ce papier souffre cependant de tares certaines.

La première est celle du périmètre. La consommation prise en compte est celle de PJM entre 1999 et 2002: 31.5 GW moyens sur l'année soit à peu près 275TWh. Comme expliqué plus haut, PJM a sur son aire actuelle une consommation de l'ordre de 800TWh: la consommation prévue est 3 fois inférieure à la consommation réelle. Ce ne serait pas grave si l'aire prévue pour installer les moyens de production renouvelables était aussi réduite à l'aire ancienne de PJM mais la Figure 2 montre que les données météo utilisées couvrent toute l'aire actuelle. De fait, une division par 3 de la consommation est prévue par ce papier, sans le dire, bien sûr.

La deuxième est la surévaluation de la production à puissance installée donnée. Les puissances installées et les productions sont donnés dans le tableau n°3. On constate que dans le scénario 99.9% renouvelables, il y a 124GW d'éolien terrestre et une production moyenne de 50.3GW, soit un facteur de charge de 40%. Si on croise les données d'installations en service en Pennsylvanie avec la production constatée, on trouve qu'il est plutôt de l'ordre de 30%. De fait, à peu près toutes les études «100% renouvelables» supposent une augmentation importante du facteur de charge de l'éolien, en faisant l'hypothèse que les éoliennes de grande taille s'imposeront (et auront bien les performances attendues).

La troisième, c'est l'importance de la production jetée. La production moyenne annuelle est de 91.5GW (soit environ 800TWh) pour une consommation de 31.5GW: les 2/3 de ce qui est produit est jeté. La raison est que dans leur modèle, le stockage est cher et il vaut alors mieux construire en de multiples exemplaires que d'installer des capacités de stockage — qui sont tout de même présentes avec des véhicules électriques qui servent de réserve. En conséquence, il est assez difficile de croire que le mix choisi est moins cher que la situation actuelle comme le clament les auteurs. Ils arrivent à cette conclusion en faisant plus que tripler le prix réel payé aux producteurs avec les externalités qui ne sont pas incluses dans le prix actuel, comme les émissions de CO₂. Mais même ainsi, ça semble très difficile et reposer sur des hypothèses très optimistes de réduction des coûts. Actuellement, les coûts des énergies renouvelables font l'hypothèse que la totalité de la production est consommée et rémunérée. Si seuls 1/3 étaient véritablement utilisés et payés, les producteurs d'énergie éolienne réclameraient 3 fois plus pour couvrir leurs frais. Ainsi, la baisse des prix attendue devrait couvrir aussi les coûts de cette énergie jetée: la baisse des prix attendue est donc très forte et les consommateurs paieraient aussi nettement plus.

Energieziel 2050 d'une équipe du Fraunhofer Institut

En 2010, une équipe du Fraunhofer Institut (IWES) a publié une étude, commandée par le gouvernement allemand, sur un scénario 100% renouvelables (résumé en anglais). La totalité de l'énergie consommée en Allemagne, et non seulement l'électricité, devait provenir de sources renouvelables. Une partie du scénario était déjà écrite, puisque les besoins en énergie étaient déterminée à partir d'une étude du WWF. La caractéristique de ce modèle est que l'utilisation de combustibles en dehors des transports — provenant exclusivement de biomasse — est restreinte à moins de 400TWh, contre plus de 1300TWh actuellement, soit une réduction par un facteur supérieur à 3 (p23-24). L'électricité remplit certains besoins pratiquement exclusivement remplis par des combustibles en Allemagne, comme le chauffage des habitations. C'est accompagné de réductions de consommation extraordinaires dans ces domaines: ainsi, pour le chauffage et l'eau chaude, un gain d'un facteur supérieur à 15 est prévu, ce qui est, disons, très ambitieux. Au final, la consommation d'électricité n'est réduite que de 7% en passant d'un peu plus de 500TWh à un peu moins de 470TWh.

La stratégie adoptée dans ce scénario est de se reposer sur un petit socle d'hydraulique et de géothermie, puis d'utiliser massivement de l'éolien et du solaire photovoltaïque. Comme ce sont des sources intermittentes, les «trous» sont bouchés, dans l'ordre d'appel, par la biomasse en cogénération, les importations puis par le déstockage et enfin des centrales à (bio)gaz sans cogénération. Les surplus de solaire et d'éolien sont stockés sous forme de chaleur, dans des batteries — via la gestion de la demande — ou d'hydrogène — via des électrolyseurs avec une alternative où du méthane est stocké. Une utilisation massive de la gestion de la demande est faite, en la déplaçant dans le temps, à relativement court terme pour la plupart, même si une partie de la charge des véhicules électriques est retardée de 5 jours au maximum.

La modèle repose donc notamment sur l'installation de 60GW d'éolien terrestre, 45 GW en mer et de 120 GW de photovoltaïque. 44GW d'électrolyseurs sont utilisés pour éponger les surplus, pour être brûlés dans 28GW de centrales au gaz à cycle combiné. Quant à la demande pilotée, elle peut passer de 0 à plus de 50GW en environ 12h, ce qui n'est pas rien quand on sait que la consommation totale de 470TWh équivaut à une puissance moyenne d'environ 54GW. Les auteurs obtiennent la production globale décrite dans la figure ci-dessous (p98), dans le cas du stockage de l'hydrogène (le cas du méthane est identique à ceci près que 7TWh de pertes de conversion supplémentaires sont contrebalancés par autant d'imports): IWES_H2_prod.jpg

On constate que, comme pour le papier de l'Université du Delaware, le facteur de charge de l'éolien terrestre a été boosté par rapport à l'existant: il atteint 32% pour un facteur de charge constaté qui a rarement dépassé les 20% jusqu'à présent.

Pour ce qui est de la modulation de la demande et de la vitesse de démarrage des électrolyseurs, on peut se rendre compte de ce que ça donne en été en regardant le graphe ci-dessous (p86): il ne faut pas se rater! La courbe de demande totale, le trait plein rouge décolle de la demande incompressible (pointillés) de 50GW en moins de 12h. Les électrolyseurs sont parfois sollicités pour leurs 44GW dans un laps de temps encore plus réduit. On constate aussi qu'il n'y a pas de charge pour les véhicules électriques la nuit: tout se passe de jour. Pour donner deux éléments de comparaison, la différence entre la consommation à 6h du matin et 9h du matin en juin en France est de 12GW, le pic record de consommation de 102GW de 2012 avait une hauteur d'environ 10GW comparé aux heures avoisinantes: les auteurs demandent là au réseau de supporter une pente de consommation à peu près double d'aujourd'hui pendant une durée nettement plus longue. IWES_profil_ete.jpg

Côté stockage, les électrolyseurs nécessaires n'existent pas aujourd'hui. D'abord parce que la production d'hydrogène se fait essentiellement à partir de combustibles fossiles aujourd'hui, mais aussi parce que les électrolyseurs actuels sont plutôt faits pour fonctionner en permanence. Or, on leur demande dans ce scénario d'être disponibles toute l'année mais de ne tourner que l'équivalent de 25% du temps. C'est sans doute possible, mais le fait que les électrolyseurs soient aussi peu répandus aujourd'hui pointent vers un coût certain, voire de réelles difficultés techniques. Ce scénario souffre aussi de la présence de sources «magiques», comme la géothermie ou les imports d'énergie renouvelable. La géothermie est aujourd'hui réservée à des situations géologiques spéciales comme celles de l'Islande ou de la Californie dont il ne semble pas que l'Allemagne se rapproche. Ailleurs les coûts semblent très élevés et le potentiel finalement faible. Mais pourtant c'est une source qui produit dans ce scénario 10% du nécessaire à puissance constante. De même, le profil des importations fait plutôt penser à des centrales thermiques classiques (à combustibles fossiles) qu'à des productions renouvelables.

le SRU et les chemins vers l'électrique 100% renouvelable

Le SRU — littéralement le Conseil des Experts sur les Questions Environnementales — est une émanation du gouvernement allemand, établi comme son nom l'indique pour le conseiller sur les politiques environnementales. En 2011, il a publié un document dont le but est de montrer comment bâtir un système électrique 100% renouvelable (version en allemand). Plusieurs scénarios sont évoqués: l'un qui repose sur une autosuffisance totale de l'Allemagne, sans échanges avec les voisins; un deuxième fait l'hypothèse que 15% des besoins allemands peuvent provenir de Norvège, un dernier repose sur un réseau incluant l'Europe et l'Afrique du Nord, similaire au défunt Desertec.

Ce scénario prévoit des installations étudiées selon des considérations de coûts. Seulement, dans des projections à long terme, les prix sont toujours sujet à caution. Ils le sont particulièrement dans ces scénarios où l'éolien en mer devient moins cher que le terrestre en 2050. Comme on peut le constater sur le graphe de la p77, quelqu'un a peut-être un peu abusé de la fonction exponentielle. En effet, pour l'éolien terrestre devienne plus cher que le marin, il faut que le surplus de production marine compense les surcoûts importants de construction en mer, de déplacement pour entretien, etc. Franchement, ça ne paraît absolument pas crédible. SRU_prices.jpg

Avec un éolien en mer à 42€/MWh, celui-ci figure en bonne place dans tous les scénarios, avec 73GW installés qui produisent 317TWh. À partir de là, il est possible de construire des scénarios où les renouvelables produisent 700TWh annuels à un prix de 115€/MWh quand il n'y a pas d'échange (cf Table 3-5 p98). Mais il existe un moyen de réduire encore les coûts: accepter qu'il y ait des échanges internationaux. Le rapport va même jusqu'à affirmer que à propos d'échanges entre l'Allemagne (p95-96):

A simple model for such cooperation is an energy supply network comprising Germany, Denmark, and Norway (or Sweden), whose interchange and reciprocal dependency even the most hardened skeptics would have to admit will entail little or no risk in terms of ensuring a reliable electricity supply.

Des esprits forts pourraient se dire que tout dépend des quantités à échanger voir à importer. Avec 500TWh, les 15% représentent 75TWh; quand la consommation est de 700TWh, ça représente 105TWh. À titre de comparaison, les exportations (nettes) françaises en 2014 — une excellente année de ce point de vue — représentent 65TWh: avec de tels volumes, l'Allemagne deviendrait le premier importateur mondial d'électricité. Accessoirement, la production électrique norvégienne de 2012 était d'un peu moins de 150TWh: ces importations représenteraient entre la moitié et les 2/3 de la production actuelle de la Norvège, source de ces importations! Il est possible que les Norvégiens ne voient pas forcément d'un très bon œil la construction massive de barrages que cela suppose. Mais dans ce cas, c'est miraculeux (p107): le prix moyen dans le cas d'une consommation de 700TWh est de 72€/MWh, certes deux fois plus élevé que le prix spot actuel … mais moins cher que ce que paie un ménage allemand entre la production «standard» et la taxe EnR. En passant, les capacités d'interconnexion nécessaires entre l'Allemagne sont quelque part entre 40 et 70GW (c'est à dire entre 75 et 90% de la demande moyenne). SRU_interconnect_2050_DKNO.jpg

Cela dit, le scénario pan-européen et incluant les pays d'Afrique du Nord est encore plus extraordinaire, puisque le réseau européen ressemblerait à ça: Path_EUNA_2050.png Pour mémoire, en 2010, les interconnexions de l'Europe de l'Ouest ressemblaient plutôt à ça (avec des valeurs en MW donc 1000 fois plus élevées que sur le graphe ci-dessus): interconnect_EU_2010.png Les choses n'ont pas fondamentalement changé depuis, même si une ligne entre la France et l'Espagne a été inaugurée récemment … 20 ans après que sa construction ait été décidée.

Alors, comment faire un scénario 100% renouvelables?

La lecture des ces scénarios nous renseigne sur la façon de construire un scénario de réseau électrique entièrement alimenté par des énergies renouvelables, autres que l'hydraulique. Les ingrédients semblent être les suivants:

  1. De l'éolien, de préférence en supposant que le facteur de charge va augmenter fortement, notamment en supposant que les pylônes et les rotors seront plus grands dans le futur. L'éolien a l'avantage d'être présent un peu toute l'année et d'avoir un surplus l'hiver, lorsque la consommation est plus élevée — que ce soit à cause du chauffage, de l'éclairage … ou des vacances! Son défaut principal actuel est son intermittence, l'augmentation du facteur de charge amoindrit ce problème
  2. De quoi déplacer de la demande de façon importante. En effet, pour compléter l'éolien, la technologie favorite est le solaire photovoltaïque. Il n'a échappé à personne que, comme le soleil ne brille pas la nuit, l'intermittence est très forte dès lors qu'on installe des puissances importantes. Pour éviter de gaspiller de l'énergie et profiter au maximum de la production solaire, il faut déplacer la demande de façon forte.
  3. Des interconnexions: évidemment, aujourd'hui, le stockage n'existant quasiment pas, la solution toute trouvée est d'exporter les surplus et d'importer pour combler les trous. Pour le futur, supposer que construire des lignes THT est moins cher que le stockage n'est pas une hypothèse forte. Ça permet de diminuer la puissance des installations de stockage et aussi d'exporter une partie des problèmes dus à l'intermittence. Minimiser les constructions de lignes THT est cependant une bonne idée: il n'a échappé à personne que ce sont des projets fondamentalement impopulaires et en prévoir trop serait prêter le flanc aux critiques … et plomber les coûts.
  4. Un peu de stockage de l'électricité: quoi qu'il arrive, à cause de l'intermittence du photovoltaïque et de l'éolien, il faut stocker une partie de l'énergie produite. Il faut le faire à tous les horizons de durée de façon à bien amortir les fluctuations de la production. Dans une simulation économique, il faut aussi supposer que ces moyens qui n'existent pas encore ne sont pas trop chers

Avec cela, on peut construire un système basé totalement sur les énergies renouvelables. Ce n'est donc pas une surprise de constater que le scénario de l'ADEME suit exactement ces principes.

2 mars 2015

Sarkozy ou le mandat de la marmotte

Nicolas Sarkozy a donné au Figaro une interview où il évoque la politique qu'il a l'intention de mener si jamais il revenait au pouvoir. Ses intentions peuvent se résumer par la volonté de baisser massivement les impôts ainsi que les dépenses publiques.

Parmi les politiques prônées, figure le recul à 63 ans du départ à la retraite en trois ans après son retour au pouvoir. Malheureusement, comme le rapport de la Cour des Comptes à propos des retraites complémentaires le laisse entendre, reculer d'une seule année l'âge de départ à la retraite est déjà insuffisant. Comme je m'en étais fait l'écho, le plan de base proposé par la Cour pour redresser les comptes des régimes complémentaires passait par un recul de 2 ans de l'âge de départ, en seulement 4 ans. Ce plan comporte aussi des hausses d'impôts, le contraire de ce qu'annonce l'ancien président de la République. Le rapport contient aussi de lourdes allusions à la médiocre gestion du régime général, ses déficits récurrents et sa plus grande générosité qui rend l'équilibre financier plus difficile.

On peut alors voir l'inscription d'une limite de dépenses publique de 50% du PIB dans la Constitution pour ce qu'elle est: une tromperie. En effet, non seulement elle serait nuisible si jamais elle était appliquée, en empêchant par exemple tout plan de relance en cas de crise, mais Nicolas Sarkozy serait aussi bien incapable de la respecter car incapable de faire passer les mesures qui rendraient cet objectif atteignable. Aujourd'hui cela représente un effort à réaliser d'environ 140G€ de réduction des dépenses annuelles dont une grande partie devrait porter sur les dépenses sociales, car on imagine mal Nicolas Sarkozy organiser par exemple une baisse supplémentaire du budget de la défense à l'heure où l'armée est au maximum de ses capacités d'intervention. Mais dans le même temps, il ne sait pas présenter des mesures permettant de faire ces économies sur les dépenses sociales.

Même si cette interview semble essentiellement destinée à la consommation par les troupes de son parti, il est extrêmement déplorable que ses propositions soient déjà périmées dès leur énonciation. On peut en fait craindre une répétition de son premier mandat, où les demi-mesures sur le plan économique ont été masquées par un discours se voulant radical et par l'agitation permanente sur le thème de la sécurité. Bref, un nouveau mandat paraît d'ores et déjà se placer sous le signe de l'éternel retour.

14 février 2015

Les faits n'ont aucune importance

Cette semaine, la mairie de Paris a annoncé des mesures visant à limiter la pollution atmosphérique. La plus remarquée de ces mesures est la décision de restreindre la circulation automobile en interdisant la circulation en dehors du périphérique et des bois à un certain nombre de véhicules autorisés ailleurs, mais trop anciens aux yeux de la maire de Paris.

Après quelques billets sur le sujet, il est intéressant de résumer les quelques épisodes précédents. Il est totalement impossible que les seuls gaz d'échappement, et plus particulièrement ceux des voitures diesel, soient responsables des fameux 42000 décès prématurés, qui ont d'ailleurs une réalité surtout mathématique et non celle de lier une cause à un effet directement tangible. Les émissions de polluants ont fortement baissé depuis 20 ans, ces efforts se poursuivent aujourd'hui, grâce au renouvèlement de toutes sortes de machines et au durcissement des normes. La baisse des concentrations des particules dans l'air parisien est moins rapide, parce qu'une bonne part de ces particules viennent de l'extérieur de la région parisienne. Dernièrement, les effets des concentrations des particules de moins de 1µm ont été comparées au tabagisme passif, dont on estime qu'il est la cause de 1100 décès par an soit environ 40 fois moins que les 42000 morts. Si ces particules de moins de 1µm sont créées par la combustion de carburants divers, elles ne représentent plus que la moitié des émissions de particules provenant du trafic routier.

Les justifications des mesures laissent pantois:

  1. Les éléments techniques sont donnés pèle-mêle sans aucune mise en perspective et sans doute dans l'unique but de faire peur. C'est ainsi que le chiffre de 42000 morts figure en bonne place, mais lorsque la comparaison avec le tabagisme passif est faite, le nombre de morts dus au tabagisme passif, bien plus faible, n'est pas donné. De la même façon, les conclusions qu'on pourrait tirer de la publication de l'InVS ne le sont pas: avec un surplus de décès de 0.5% par 10µg/m³, on peut en déduire qu'il existe en Île de France une corrélation entre la pollution aux particules et environ 1500 décès, essentiellement après 75 ans, d'ailleurs.
  2. Le trafic automobile est donné comme le plus gros émetteur de polluant sans précision, alors qu'évidemment, suivant le type de polluant, cette situation varie beaucoup. Si le trafic automobile est responsable de la plus grande part des émissions de NOx, pour les particules, il est minoritaire.
  3. La mairie de Paris n'hésite pas à déclarer que sa politique de restriction de la circulation est à l'origine de la baisse des émissions de polluants alors qu'elles y évoluent de façon parallèle au reste de du territoire français. Elle s'attribue le mérite de résultats dont elle n'est donc pas à l'origine.
  4. L'importance des pièces d'usure (pneus, plaquettes de freins) dans les émissions de particules n'est mentionné que p6, bien loin de l'avant propos justifiant l'ensemble des mesures … mais juste avant d'énoncer les mesures d'interdiction de circulation prise au vu des normes imposées aux moteurs!

On arrive assez rapidement à la conclusion que les justifications ne sont là que pour la forme, pour pouvoir prendre des mesures qui vont dans le sens de l'idéologie de la majorité municipale. C'est ainsi qu'on y retrouve un certain nombre d'expressions connotées dont l'encouragement des mobilités douces, parmi lesquelles le vélo et la marche à pied, dont tous ceux qui les pratiquent couramment savent qu'elles n'ont rien de tel. Les mesures à prendre sont ainsi connues à l'avance et ne portent que sur le trafic routier: mobilisation de places de parking en surface pour en faire autre chose, subventions diverses à l'achat de véhicules moins polluants et surtout restrictions de circulation suivant l'âge du véhicule — ou la norme respectée, on ne sait trop. C'est bien sûr cette dernière mesure qui frappera le plus de monde, une partie importante du trafic à Paris provenant aussi de banlieue.

Le premier aspect de cette mesure de restriction est son aspect vexatoire: Paris intra-muros possède un réseau dense de transports en communs, les habitants peuvent donc se dispenser de voiture, ce qui est le cas d'environ la moitié des ménages parisiens. De plus, le périphérique n'est pas concerné par ces restrictions, alors que c'est sans doute la route la plus fréquentée de France et par conséquence la plus polluée. Si, véritablement, Anne Hidalgo souhaitait réduire la pollution des automobiles, pourquoi exclure le périphérique de son plan? De même, pourquoi les voitures particulières polluantes seraient autorisées à circuler le week-end? Enfin, pourquoi aucune mesure n'est-elle prise pour les autres émetteurs de polluants que le trafic automobile?

D'un autre côté, cette mesure de restriction ressemble aussi à une gesticulation. En effet, au fur et à mesure du temps qui passe, les véhicules les plus vieux sont mis au rebut. C'est ainsi que fin 2012, les voitures particulières Euro 4 et plus représentaient à peu près 40% du parc selon le rapport 2014 du CITEPA (p145). Cette part est vouée à augmenter, et il semble qu'en fait les restrictions les plus onéreuses portent sur les interdictions faites aux cars ainsi que le dernier niveau d'interdiction de circulation, en 2020, qui portera sur les véhicules inférieurs à la norme Euro 5. L'effet des ces restriction sera de plus probablement limité: le rapport prospectif d'Airparif sur les émissions de polluants prévoyait qu'à réglementation constante les émissions de PM2.5 — de fait celles concernées par les réglementations Euro — diminueraient de 80% entre 2008 et 2020. Les efforts supplémentaires portent donc sur une masse d'émissions fortement réduites. Enfin, réduire les émissions dans Paris intra-muros ne fait rien contre les émissions qui ont lieu juste à côté, en Île de France, et plus largement ailleurs en Europe, ce qui a son importance quand les 2/3 des particules viennent de l'extérieur!

Une politique pragmatique de diminution de la pollution devrait à mon sens suivre certaines grandes lignes:

  1. Pour le secteur des industries et de du trafic routier, reconnaître que les normes élaborées au niveau européen sont le déterminant principal de la réduction à long terme des polluant et qu'il n'y a pas besoin d'en rajouter aux niveaux inférieurs, national et local.
  2. Le diesel n'apportant aucun bénéfice par rapport au super en termes de pollution, les taxes sur les 2 devraient être alignées sur le niveau des taxes sur le super, afin de renforcer l'incitation financière à économiser les carburants. Ça ne se décide pas au niveau de la mairie de Paris.
  3. Le bonus-malus devrait être la seule incitation à acheter des véhicules consommant moins, à condition de ne plus se baser sur le vieux test NEDC mais plutôt sur le WLPT pour éviter que les optimisation des constructeurs ne corrompent trop le système.
  4. Une action locale que pourrait mener la mairie de Paris pour diminuer la pollution est la chasse aux chauffage au fioul et aux cheminées à foyer ouvert. Il ne s'agit pas tellement d'interdire que de faire de la publicité pour les inserts — qui divisent par 4 les émissions de particules provenant du bois par rapport aux foyers ouverts — et de subventionner la fin des vieilles chaudières au fioul, dont certaines des plus grosses sont d'ailleurs celles qui chauffent des HLMs.

Mais comme la parole publique est surtout concentrée sur les méfaits supposés du diesel, qui ont largement disparu et vont continuer à diminuer, peu de temps a été consacré à des propos utiles. Personne ou presque n'a parlé récemment du fait que les cheminées à foyer ouvert étaient les plus gros émetteurs de particules fines en France. Personne pour dire qu'il faudrait aussi remplacer les vieilles chaudières au fioul, qui brûlent essentiellement la même chose que le diesel et émettent aussi des particules. En conséquence de quoi, l'action dans ce domaine a consisté à interdire, ce qui a évidemment échoué devant l'incompréhension générale.

Tout ceci s'explique par la source de ces mesures. Il ne s'agit pas de lutter d'abord contre la pollution, mais surtout de satisfaire une idéologie. Les faits n'ont alors strictement aucune importance: ils peuvent pointer dans le même sens ou dans la direction opposée aux mesures sans impact sur celles-ci. On peut penser que les Parisiens, qui fréquentent assidûment un métro pollué par les particules de pneu et de métal, ne sont pas extraordinairement préoccupés par le niveau actuel de pollution aux particules à l'extérieur. Par contre, ils sont gênés par le trafic routier et ces gens qui viennent envahir les boulevards depuis la banlieue. Les électeurs sont aussi plus favorables qu'ailleurs aux thèses des Verts. La maire de Paris a alors tout intérêt à limiter par tous les moyens la circulation en dehors du périphérique.

26 janvier 2015

Les prévisions trop optimistes du COR

Le 16 décembre dernier, le COR a présenté une actualisation de ses projections sur l'état des finances des systèmes de retraites français. Comme il apparaît qu'elles prévoient toujours un retour à l'équilibre en 2020, le gouvernement s'est proposé de ne rien faire de plus que les dernières modifications, présentées en 2013. Malheureusement, ces prévisions comportent un énorme biais optimiste.

Les résultats des projections financières dépendent bien sûr d'hypothèses économiques. Quand elles sont optimistes, les résultats laissent penser que la situation financière des régimes de retraite est meilleure qu'elle ne le sera en réalité. Pour les projections à court terme, le COR dépend d'hypothèses actées par les projets de loi de finances pour la sécurité sociale. À plus long terme, il est plus libre de décider, mais les prévisions ne sont pas forcément plus réalistes. Il y a 5 scénarios de long terme, dénommés A', A, B, C et C', du plus optimiste au plus pessimiste.

Pour être jugées réalistes, les hypothèses économiques doivent à mon avis respecter a minima une première contrainte, qui est de s'être réalisée dans un passé relativement récent. Ce n'est pas le cas des hypothèses de chômage: dans les scénarios A', A et B, le COR prévoit un taux de chômage de long terme de 4.5%. Dans les scénarios C et C', le taux de chômage est de 7%. Il faut bien noter qu'il s'agit de taux de long terme, qu'on peut approximer par des moyennes sur longue durée, par exemple 10 ans. En effet, le COR ne fait pas vraiment l'hypothèse que le taux de chômage soit constant à un certain niveau, mais plutôt qu'il oscille autour de cette valeur. Si on regarde le taux de chômage en France sur une longue durée, on s'aperçoit que le taux de 4.5% a été dépassé pour la dernière fois en 1978. Quant au chômage de long terme, les données de l'INSEE permettent de tracer ce graphe: chomageLT.jpg On y voit que le taux de chômage moyen sur 10 ans est supérieur à 7% depuis 1987, soit plus de 25 ans. Le vrai taux de long terme semble être aux alentours de 9% depuis le milieu des années 90, soit à peu près 20 ans. Le COR évalue quand même une hypothèse de 10% de chômage: le surcroît de déficit en 2040 est de 0.3% du PIB dans le scénario C' … sachant que le déficit prévu avec 7% de chômage est déjà de 1.2% du PIB. Même si ce n'est pas le déterminant principal, le surcroît de déficit est tout de même notable.

Une deuxième contrainte me semble devoir être respectée pour que les scénarios soient réalistes: que le scénario central soit cohérent avec la tendance récente et, aussi, que les scénarios pessimistes représentent une situation mauvaise qu'on voit ailleurs. Sur le plan de la croissance économique, cela voudrait dire qu'une stagnation soit sérieusement envisagée. De même, la croissance moyenne sur 10 ans réellement constatée devrait servir de scénario central. Si on regarde la situation française, on constate que depuis 2008, la moyenne est plutôt aux alentours de 1%, soit l'hypothèse du scénario C', le plus pessimiste. CroissanceLT.jpg Quant à la masse salariale, source principale de ressources du système de retraites, elle suit désormais à peu près le PIB. L'expansion du salariat est terminée, les marges des entreprises sont plutôt basses en France en ce moment. Bref, le scénario C ou C' devraient être le scénario central et des scénarios plus pessimistes de stagnation économique devraient être présents parmi les scénarios étudiés. Bien sûr, le scénario C' prévoyant déjà de graves problèmes financiers pour les systèmes de retraite, des scénarios encore plus pessimistes seraient simplement catastrophiques sur ce plan. Cependant, ils ne seraient pas totalement dénués de sens, vu ce qui se passe dans certains pays vieillissants comme le Japon ou l'Italie.

D'ici 2020, grâce à l'intarissable optimisme du gouvernement — qui prévoit jusqu'à 4% de hausse annuelle de la masse salariale — le COR conclut que le déficit du système de retraites diminuera et que l'équilibre financier sera atteint aux alentours de 2020. En conséquence, le gouvernement prévoit de ne rien faire. Mais quelle crédibilité accorder à ces prévisions dont la réalisation semble hors d'atteinte aujourd'hui? Le moins qu'on puisse dire c'est qu'un tel optimisme ne sert qu'à se mettre la tête dans le sable et ne rend absolument pas service aux salariés actuels, qui sont les futurs retraités.

4 janvier 2015

Les graves difficultés financières de l'AGIRC

Le 18 décembre dernier, la Cour des Comptes a publié un rapport sur la situation des retraites complémentaires des salariés du privé, gérées par deux associations siamoises, l'AGIRC et l'ARRCO. L'AGIRC gère la retraite complémentaire des cadres, l'ARRCO celle des autres employés; elles sont gérées par les syndicats de salariés et les organisations patronales. Le système français veut que la retraite de base ne tienne compte que du salaire jusqu'au plafond de la sécurité sociale, la pension versée à ce titre ne peut représenter plus de la moitié de ce plafond. Les retraites complémentaires apportent un complément de revenu et sont indispensables pour atteindre l'objectif d'un taux de remplacement de 66%. Pour les cadres, dont le salaire dépasse généralement le plafond de la sécurité sociale, la pension versée par l'AGIRC représente couramment 50% de la pension totale. Ces deux régimes sont actuellement en déficit. La situation financière est particulièrement difficile pour l'AGIRC dont les réserves seront épuisées d'ici à fin 2017 si rien ne change, comme cela a été annoncé dans la presse à l'été 2014.

Les origines des difficultés actuelles

Les difficultés actuelles des régimes complémentaires trouvent d'abord leur origine dans les situations économique et démographique. Il est bien connu qu'il y a de plus en plus de retraités par rapport aux actifs. Par ailleurs, la croissance de la masse salariale a été de seulement 0.2% par an en termes réels depuis 2009, parallèlement à une croissance économique presque nulle depuis 2012. Malgré les ajustements depuis 2010, le déficit actuel est pire que celui qui était prévu en 2010 si on ne faisait rien. Deficit_AGIRC_ARRCO.jpg

La différence entre les prévisions et la réalité s'explique d'abord par les prévisions systématiquement trop optimistes du gouvernement. Si on pouvait comprendre qu'en 2010, année où la croissance était de 2%, on prévoit une croissance tendancielle de 1.5% par an et une inflation d'environ 2% par an, c'est nettement plus difficile à comprendre en 2013, où la possibilité d'une stagnation économique à long terme et d'une inflation durablement faible étaient plus que des hypothèses. Malheureusement, on l'a encore constaté en 2013, les prévisions du COR sont toujours basées à court terme sur les prévisions économiques du gouvernement ce qui oblige à revenir en permanence sur les ajustements précédents, car ils sont toujours insuffisants.

C'est ainsi que les gestionnaires des retraites complémentaires ont pris des mesures de gel des retraites complémentaires, dont les bénéfices ont été largement amoindris par une inflation quasi nulle, et d'augmentation des impôts (0.25 point). Il s'attendaient aussi à pouvoir demander une plus grande durée de cotisation suite à la réforme de 2013, mais leur espoir a été déçu parce que la réforme de 2013 a prévu de boucher le déficit immédiat essentiellement par des augmentations d'impôts (p27). Cette réforme a été aussi largement sous-dimensionnée, au point d'ailleurs, qu'un gel des retraites de base, non prévu à l'origine, a été mis en place au printemps 2014.

Mais il y a aussi des actes du gouvernement qui minent la santé financière des retraites complémentaires, et plus particulièrement de l'AGIRC. Comme la plafond de la sécurité sociale est réévalué en fonction du salaire moyen et qu'il y a de plus en plus de cadres, les ressources possibles de l'AGIRC sont peu à peu préemptées par le régime de base. En effet, au dessus du plafond les cotisations à l'AGIRC remplacent en totalité les cotisations au régime général et elles y sont nettement plus élevées. L'ARRCO est peu concernée, puisque 94% des cotisations des non-cadres sont prélevées en dessous du plafond de la sécurité sociale (p46). Au total, si le plafond de la sécurité sociale avait été réévalué selon le salaire médian et non moyen depuis les années 1970, les retraites complémentaires toucheraient 2G€ de plus par an en cotisations (p49). D'autre part, en dessous du plafond, le quinquennat Hollande a préempté la plupart des hausses possibles: en arrivant au pouvoir en 2012, il a décrété une augmentation des cotisations de 0.5 point pour financer ses dispositions sur les «carrières longues» puis, en 2013, une augmentation progressive de 0.6 point.

Le cumul des mesures prises sous le quinquennat Hollande pour les retraites de base et retranscrites telles quelles pour les retraites complémentaires conduisent d'ailleurs à un déficit supplémentaire chaque année au moins jusqu'en 2030 (p26). Un certain nombre de charges nouvelles ont été créées comme l'élargissement de l'éligibilité aux «carrières longues» et le compte pénibilité. Si pour le régime général de base un surcroît d'impôt les finance, rien n'a été prévu pour les retraites complémentaires: la hausse des cotisations décidées en 2013 couvre à peine le coût de l'élargissement du dispositif «carrières longues»! Pire encore, la loi de 2013 prévoyait dans son étude d'impact un amélioration de 2G€/an à l'horizon 2030 pour les régimes complémentaires. Mais cela ignorait toutes les mesures qui emportaient un coût pour ces régimes! En fait, selon les organismes de retraite complémentaire, le bénéfice est, en 2030, limité à 570M€ annuels (p103-104). On mesure là l'impéritie et l'amateurisme dont le gouvernement Hollande fait preuve sur la question des retraites.

C'est ainsi que le déficit global des retraites complémentaires est attendu à environ 5G€ en 2014 et que les réserves accumulées pendant la première décennie de ce siècle (60G€ au total) vont être épuisées dès la fin 2017 pour l'AGIRC et en 2023 pour l'ARRCO. Malgré une bonne gestion avant la crise, louée par la Cour, les régimes complémentaires sont dans une mauvaise situation financière.

Les remèdes

Comme d'habitude sur les retraites, il n'y a guère que 3 paramètres sur lesquels on peut jouer: le niveau des pensions, le taux de cotisation et l'âge auquel on passe d'actif à retraité. La mesure la moins douloureuse est le report progressif de l'âge de la retraite: personne ne perd de revenu immédiatement, cela permet aussi de faire rentrer plus d'argent par l'ensemble des autres impôts. Malheureusement, le terme rapproché de l'échéance pour l'AGIRC rend indispensable l'usage des deux autres paramètres. Dans le passé, les utiliser ne signifiait pas une baisse du montant nominal perçu, grâce à l'inflation et à la croissance économique. De plus, le déficit est tel qu'il faudrait baisser les pensions de l'AGIRC d'environ 10% ou augmenter les cotisations de 2 points voire plus. On voit que l'ajustement s'annonce douloureux.

La Cour donne deux exemples et un tableau détaillant l'impact de chacune des mesures à l'horizon 2030. Elle se montre aussi sceptique sur les chances de l'AGIRC à parvenir à sortir seule de l'ornière sans adossement à l'ARRCO. La Cour appelle aussi de façon à peine voilée à mettre fin de facto au système de la «retraite à 60 ans», en enjoignant les gestionnaires à reporter l'âge de la retraite pour bénéficier d'une retraite complémentaire sans abattement sans attendre que le gouvernement daigne prendre des mesures (p40 et 45). Remedes_AGIRC_ARRCO.jpg effets_remede1.jpg

Personnellement, je pense que la majeure partie de l'ajustement à court terme devrait être assumée par les pensions versées. Du fait d'une faible inflation, l'impact sur le pouvoir d'achat des retraités des mesures de gel des pensions a été très limité et ils ont été protégés des effets de la crise. En face, même les cadres ont fait face à des gels de salaires et à l’augmentation des impôts. Une baisse très notable des pensions complémentaires des cadres à court terme est devenue indispensable. À plus long terme, l'ajustement doit se faire via l'allongement de la durée du travail, particulièrement pour les cadres, dont l'espérance de vie est notablement supérieure à celle des autres salariés. Une augmentation de la durée du travail supérieure à celle prônée par la Cour dans son premier scénario me semble nécessaire: il faudrait sans doute augmenter progressivement l'âge de la retraite de 3 ans pour les cadres, peu importe d'ailleurs que le régime général de base suive ou pas.

Ce rapport me semble aussi être un réquisitoire contre la réforme de 2013 et l'impéritie du gouvernement actuel. Il était clair tout au long de l'année 2013 que l'ajustement programmé était sous-dimensionné et ne tenait aucun compte des régimes autres que le régime général de base. Rien n'a été fait pour le régime des fonctionnaires qui pèse de plus en plus sur les finances publiques. Les régimes complémentaires ont été totalement ignorés et les marges de manœuvre financières largement préemptées pour le régime de base. Le gouvernement s'est refusé à allonger immédiatement la durée de cotisation nécessaire à une retraite à taux plein: on peut subodorer qu'il préfère que ce soient d'autres que lui qui portent le chapeau de la fin effective et dans tous les cas — y compris pour les carrières longues — de la «retraite à 60 ans».

30 novembre 2014

Du dieselisme passif

Mardi 25 novembre, les particules fines et le diesel ont refait surface dans les médias, toujours pour dénoncer l'ampleur scandaleuse de la pollution. Cela faisait suite à une présentation à la presse des résultats de mesures effectuées à l'aide d'un instrument embarqué à bord du ballon Generali qui flotte au-dessus du parc André Citroën, dans le 15ᵉ arrondissement de Paris. Cette fois-ci, la comparaison choc est que la pollution aux particules de moins de 1µm de diamètre équivalait aux dommages causés par le tabagisme passif.

Si on se rend sur le site de l'Institut National du Cancer, on constate que 1100 décès sont attribués chaque année au tabagisme passif sur l'ensemble de la France. Pourtant, il n'y a pas si longtemps, on nous annonçait que la pollution aux particules était responsable de 42000 morts par an en France, ce qui avait suscité mon premier billet sur le sujet. Les articles et la présentation affirment que les particules d'un diamètre de moins de 1µm sont les plus nocives. En conséquence, on ne peut que s'émerveiller des progrès rapides de la lutte contre la pollution aux particules, puisqu'en seulement 2 ans et demi, le nombre de décès a été divisé par un facteur 40. Malheureusement, il semble que personne n'ait remarqué ces progrès dans la presse, puisque les articles sont toujours aussi négatifs et appellent toujours à pourchasser le diesel. Cette estimation est même inférieure à celle à laquelle je m'étais risqué dans mes billets précédents.

De plus, le seul jour du 13 décembre 2013 semble concentrer le feu des critiques, alors que les mesures ont été effectuées entre septembre 2013 et août 2014 et qu'un autre épisode de pollution aux particules a eu lieu en mars 2014. Ce n'est guère étonnant: il s'est avéré par la suite que plus de la moitié des particules n'étaient pas dues à la combustion, mais aux activités agricoles, puisque 51% étaient composées de nitrate d'ammonium et seulement 11% dérivaient de l'usage de combustibles fossiles. En conséquence de quoi, il y a dû y avoir relativement peu de particules de moins de 1µm, car la combustion de matières — dérivés du pétrole, bois — provoque essentiellement l'émission de ces particules. Si d'autres causes sont responsables d'un pic de pollution, la proportion de particules de moins de 1µm est moindre. En mars dernier, le diesel était le premier accusé; qu'il soit apparu après coup que le diesel n'ait joué qu'un rôle marginal dans le pic de pollution n'a pas suscité de retour dans la presse.

Avec les diagrammes publiés sur le blog {sciences²} de Libération, on s'aperçoit que les concentrations varient d'un facteur 30 sur l'année de mesures. En moyenne sur l'année, les concentrations sont plus proches du minimum que du maximum constaté lors d'un pic de pollution: les pics de pollution sont de courte durée et ils comptent relativement peu dans la moyenne. Si on regarde le cas des particules de moins de 10µm, on s'aperçoit que la moyenne est de l'ordre de 2 fois le minimum (cf graphe ci-dessous) PM10_201309_201408.jpg Si on applique la même règle aux particules de moins de 1µm, au lieu d'un studio où on a brûlé 8 clopes, on trouve qu'en moyenne sur l'année, il y a autant de particules que si on avait brûlé 0.5 cigarette. Comme bien sûr on ne peut jamais atteindre le zéro équivalent-clope, il faut bien constater qu'on ne peut pas vraiment dire que la pollution à Paris est équivalente au tabagisme passif.

On peut aussi constater qu'une fois de plus, ce qui a été relayé dans la presse portait sur l'aspect négatif: rapporter la concentration de particules de moins de 1µm en termes de nombre est assez révélateur. En effet, les organismes de mesure de la pollution parlent plutôt en termes de masse globale des particules. Bien évidemment, une grosse particule va peser bien plus lourd qu'une petite: si la masse est proportionnelle au volume, une particule de 2.5µm pèse 15 fois plus qu'une particule de 1µm. On voit que le nombre de petites particules peut rapidement devenir proprement astronomique. Est-ce cela signifie qu'elles sont dangereuses à proportion de leur nombre? Pas forcément! Dans ce cadre, l'affirmation qu'aucun seuil réglementaire d’émissions n’a été encore fixé pour les nanoparticules relève du mensonge pur et simple: comme les normes anti-pollution s'attaquent à la masse de toutes les particules émises lors du test, quelque qu'en soient leurs tailles, les particules de moins de 1µm sont bien évidemment incluses. De plus, la norme Euro 6 impose une limite en nombre, dans le but de s'attaquer directement aux émissions de particules de moins de 0.1µm!

Comme d'habitude, cet évènement a été rapidement récupéré par les opposants au diesel. Il n'est besoin que d'observer que le fioul domestique, qui n'est rien d'autre du diesel auquel on a ajouté un colorant rouge, ne fait l'objet d'aucune mention. Or, l'usage du fioul pour se chauffer en hiver est bien mieux corrélé aux pics de pollution que la consommation de gazole! Inutile donc de rappeler aussi que la combustion du bois est le premier émetteur de particules de moins de 1µm, qu'en moyenne les 2/3 des particules en Île de France viennent d'ailleurs, que les normes anti-pollution mettent les voitures neuves essence et diesel au même niveau ou presque. Le mal est forcément le trafic parisien fortement diésélisé et il faut bannir les voitures diesel. Même si je considère que le diesel bénéficie d'un avantage fiscal infondé et que je suis favorable à l'alignement de la fiscalité du diesel sur celle du super 95, je remarque que la campagne de diabolisation du diesel est mensongère et s'attaque surtout à des problèmes qui se posaient il y a 20 ans.

26 octobre 2014

Vers un doublement de la CSPE

Le 15 octobre dernier, Philippe de Ladoucette, le président de la CRE était entendu par la commission d'enquête sur les tarifs de l'électricité à l'Assemblée Nationale (retranscription, vidéo). À l'occasion, la CRE rendait public deux rapports, l'un sur les tarifs régulés d'EDF et un autre sur les perspectives de la CSPE. Ce billet est consacré au rapport sur la CSPE. La CSPE est une taxe un peu fourre-tout qui sert à la fois à financer les tarifs sociaux de l'électricité, la péréquation avec les îles sous administration française (Corse, DOMs, etc.) ainsi que les tarifs de rachats divers dont ceux des énergies renouvelables. L'élément le plus remarquable de ce rapport sur la CSPE est qu'il la voit passer de 16.5€/MWh cette année à 30.2€/MWh en 2025. CSPE_2003-2025.jpg

La situation présente

Ces dernières années, avec notamment la forte hausse du prix du pétrole et la bulle du photovoltaïque en 2010, les charges à couvrir ont fortement augmenté, ce qui a provoqué l'apparition d'un déficit de plus de 4G€ qu'il va falloir résorber. Cette année, avec 16.5€/MWh, la taxe couvre les charges courantes prévues à 6.2G€. L'année prochaine, le stock de dette devrait commencer à se résorber, la CSPE étant augmentée plus vite que les charges courantes. Elle atteindra 19.5€/MWh pour des charges courantes de 17.7€/MWh. Aujourd'hui, plus de 60% des charges relèvent des énergies renouvelables et un gros quart de la péréquation, les tarifs sociaux n'en représentent que 5% environ.

La hausse des prix du pétrole a eu un impact sur le coût de la péréquation: dans les îles, les centrales sont bien souvent des centrales au fioul. De ce fait, le coût de la péréquation atteint environ 1.9G€ en 2014, en incluant les EnR de ces régions. Le plus gros poste relève des tarifs de rachats de toute sortes et aux prix les plus divers, de la cogénération — à base de combustibles fossiles… — au solaire photovoltaïque qui représentent 3.5G€ cette année pour les installations métropolitaines. Le solaire photovoltaïque de métropole absorbe à lui seul 2.1G€ de subventions. Avec 14% de la production éligible aux tarifs de rachat, ce dernier capture à lui seul 62% des subventions! L'explication de cette situation est que les subventions sont accordées sur la base des coûts de chaque type d'énergie subventionnée, sans vraiment prendre en compte l'utilité de chacune. Cette situation paraît amenée à perdurer comme le montrent les prévisions de la CRE.

La situation future

La CRE prévoit une forte hausse de la CSPE, marquée dans un premier temps par une hausse rapide dans les 3 années qui viennent pour combler la dette accumulée, puis par la mise en service de nouvelles installations. Elle devrait atteindre 10.6G€ annuels en 2025, soit une taxe de 30.2€/MWh. La trajectoire prévue figure sur le graphe ci-dessous. evolution_unitaire_2013-2025.jpg

Comme la dette accumulée va être résorbée dans les quelques années qui viennent, la hausse de la taxe unitaire s'explique par la hausse des charges courantes. Comme les tarifs sociaux restent une petite partie du coût, les raisons sont à trouver dans les 2 gros contributeurs actuels: la péréquation et les tarifs de rachat. Le coût de la péréquation passe de 1.7G€ à 2.5G€ (Figure 81 p112) soit une augmentation de 50%. La plus grosse part de l'augmentation est donc causée par l'autre poste important, les tarifs de rachat qui passent de 3.5G€ en 2014 à environ 8G€ en 2025: ils font plus que doubler. evolution_EnR_2013-2025.jpg L'essentiel des subventions va à 2 technologies en 2025: le solaire PV et l'éolien en mer. À eux deux, ils capturent 5G€ sur 8G€ de subventions. Un constat s'impose: aux conséquences de la bulle du photovoltaïque vont se superposer les conséquences des appels d'offres sur l'éolien en mer qui se sont soldés par des tarifs extrêmement onéreux, puisqu'à l'horizon 2020, l'indexation amènera le prix à 220€/MWh environ. Avec 2.1G€ annuels de subventions dédiés aux contrats photovoltaïques signés avant 2013 et qui courent sur 20 ans de production, leur coût total s'élève à 42G€. Pour l'éolien en mer, la CRE prévoit sur la durée de vie des contrats actuellement passés 38G€ de subventions (p5). On voit que ce sont des sommes du même ordre. On peut conclure que la politique menée pour soutenir le secteur des énergies renouvelables électrique ne tient absolument pas compte du coût pour le consommateur.

60% des subventions en 2025 iront à des contrats mis en œuvre après 2013, ce qui montre que la bulle photovoltaïque de 2009-2010 ne sera certainement pas la seule responsable de la forte hausse de la taxe. Les estimations de la CRE conduisent peu ou prou à un chiffres d'affaires des secteurs sous obligation d'achat de 15G€/an pour une production d'environ 85TWh, soit environ 15% de la production d'électricité française. Si EDF obtient les 55€/MWh qu'il demande pour son parc nucléaire dans le futur, le chiffres d'affaires du parc nucléaire sera d'environ 25G€ pour plus de 400TWh de production. Une nouvelle fois, on voit que les coûts des EnR sont loin d'être maîtrisés!

Par ailleurs, durant son audition, le président de la CRE a précisé que ses prévisions étaient conservatrices. En effet, les calculs ont été effectués en prenant des hypothèses qui tendent à minimiser les subventions versées:

  1. La CRE prévoit une hausse du prix spot de l'électricité. Or, comme je l'avais constaté, plus il y a d'énergies subventionnées, plus les cours ont tendance à baisser. Cependant, cet effet est assez faible: une erreur de 10€/MWh (soit environ 20%) sur le prix de gros entraîne une variation de 700M€ des charges. Cela montre une fois de plus que l'essentiel des surcoûts ne vient pas des volumes produits mais des contrats signés en faveur de technologies très loin d'être compétitives
  2. Pas de renouvellement de contrat à terme quand ce n'est pas prévu par la réglementation actuelle. Cela vaut surtout pour l'éolien. Au vu de ce qui se passe aujourd'hui avec le petit hydraulique et la cogénération, la prudence est de mise, même si une nouvelle fois, l'impact devrait être faible, étant donné que l'éolien terrestre fait partie des EnR les moins chères.
  3. Elle prévoit aussi que les installation suivent la programmation effectuée suite au Grenelle de l'Environnement, en l'adaptant suivant ce qui s'est passé depuis et en abaissant les objectifs. C'est ainsi que l'essentiel des capacités nouvelles d'ici 2025 proviennent de l’éolien terrestre, que la progression du photovoltaïque est limitée et qu'il n'y a pas de nouvel appel d'offres pour l'éolien en mer. C'est pratiquement le cas le plus favorable au consommateur.
  4. Cette hypothèse est rendue encore plus optimiste par les projets du gouvernement actuel qui tient absolument à faire baisser la part du nucléaire dans la production d'électricité et à augmenter la part des renouvelables. En tenant compte de la production hydraulique actuelle, cela voudrait dire qu'en 2025, la part de la production électriques provenant des EnR subventionnées serait de 25 à 30%, soit à peu près de 2 fois plus que ce que prévoit la CRE. Même si on ne croit pas ce que raconte le gouvernement, cela va créer une pression à la hausse car pour paraître atteindre les nouveaux objectifs, il va sans doute falloir relever les tarifs de rachat et lancer d'autres appels d'offres particulièrement onéreux.

Quelques conclusions

Il est aussi intéressant qu'aucune des modalités de soutien ne trouve grâce aux yeux de la CRE (voir p3 et suivantes). On comprend qu'à chaque fois, les tarifs lui paraissent en tout ou partie trop élevés par rapport aux bénéfices attendus et aux coûts réels de chaque technologie.

Face à une telle augmentation, il n'est pas très étonnant que cette taxe bien visible par les consommateurs-électeurs devienne un sujet digne d'intérêt pour les parlementaires. Même si le sujet de l'augmentation de cette taxe est peu abordé dans les médias, les plaintes des électeurs au sujet de leur facture doivent remonter auprès des politiques. Quand de l'autre côté les prévisions annoncent une hausse importante de la taxe, la question de l'assiette de la taxe surgit à nouveau. Il faut dire que le but officiel est de réduire les émissions de gaz à effet de serre. Mais comme le gaz, par exemple, est exonéré, on voit que plus il y a d'énergies renouvelables dans la production électrique française, plus elle est taxée et plus il est en fait intéressant de se tourner vers le gaz et donc d'émettre du CO₂. Comme les coûts évalués par la CRE relèvent essentiellement de contrats déjà actés, si le gouvernement veut éviter la grogne des consommateurs d'électricité, il ne lui reste guère que l'option d'étaler les coûts sur d'autres consommateurs, comme les consommateurs de fioul et de gaz, qui à leur tour grogneront. Il n'y a donc pas vraiment d'issue favorable possible sur cette question!

Enfin, la question des bénéfices à retirer des énergies renouvelables n'est jamais ou presque abordée. Cela nécessiterait de comparer à des alternatives — par exemple, remplacer les quelques centrales à charbon françaises qui resteront après 2015 par des centrales au gaz coûterait certainement moins cher à la tonne CO₂ évitée. Les énergies renouvelables électriques sont devenues dans le débat public des buts en elles-même. Pas étonnant dans ces conditions que la distribution des subventions montre un grand laisser-aller.

5 octobre 2014

Faut-il prendre au sérieux les objectifs de la loi sur l'énergie de cette année?

Pour continuer cette série de billets sur la loi sur l'énergie actuellement en discussion au Parlement, je vais aborder dans ce billet les objectifs prévus par l'article 1 de la loi. Ces objectifs sont censés déterminer la politique énergétique suivie par la France ces prochaines années. Malheureusement, ils me semblent impropres à pouvoir engendrer une politique cohérente. D'une part parce qu'ils me paraissent irréalistes, mais aussi parce qu'ils semblent avoir été écrit à la va-vite, effet renforcé après la passage en commission parlementaire du texte.

Les modifications verbeuses et contradictoires des parlementaires

Il peut d'abord être utile de comparer la version originelle du projet de loi et celle qui est sortie de la commission ad hoc. On peut constater que la version du gouvernement contient 4 objectifs pour le futur article L. 100-1, 6 pour le L. 100-2 et 5 pour le L.100-4. Au sortir de la commission, il y a 7 objectifs pour le L. 100-1, 8 pour le L. 100-2 et 7 pour le L. 100-4. Plus on ajoute d'objectifs, moins il est difficile de justifier qu'une politique corresponds aux buts énoncés: à force d'en ajouter, il devient possible de justifier à peu près toutes les politiques possibles, à charge pour le gouvernement de choisir les objectifs qu'il veut atteindre parmi ceux qui se contredisent.

Par ailleurs, certains de ces ajouts n'apportent rien ou presque, voire se contredisent entre eux. Ainsi pour le futur L. 100-1, les parlementaires ont jugé bon de donner 3 objectifs quasiment équivalents:

(…)
« 3° Maintient un coût de l’énergie compétitif ;
« 4° (Supprimé)
« 5° Garantit la cohésion sociale et territoriale en assurant l’accès de tous à l’énergie sans coût excessif au regard des ressources des ménages ;
« 6° (nouveau) Lutte contre la précarité énergétique ; (…)

On ne peut pas dire qu'il y ait une grande différence entre un coût compétitif, la lutte contre la précarité énergétique et l'énergie sans coût excessif au regard des ressources des ménages: ces 3 objectifs ont les mêmes conséquences pratiques et il doit bien être possible d'en proposer une synthèse claire, en gardant le seul 3° — qui existe déjà dans la version actuelle — ou par exemple en écrivant: Maintient un coût de l’énergie compétitif et abordable pour tous sur l'ensemble du territoire de la République.

Mais ce n'est pas tout: pour le futur L. 100-2, ils ont fait ajouter la phrase Procéder à l’augmentation progressive de la contribution climat-énergie, qui (sic), dans la perspective d’une division par quatre des gaz à effet de serre qui semble contradictoire avec les dispositions qu'ils ont fait ajouter juste avant!

Les objectifs chiffrés ont-ils été bien énoncés

Le futur article L. 100-4 porte les objectifs chiffrés. Certains des chiffres proviennent d'engagements européens déjà pris ou en passe de l'être. C'est le cas des 23% d'énergie renouvelables dans la consommation finale en 2020 et de la baisse de 40% des émissions de gaz à effet de serre entre 1990 et 2030. D'autres comme la baisse de la consommation d'énergie finale de 50% d'ici à 2050 ou la baisse de la part du nucléaire à 50% dans la production d'électricité relèvent des choix du gouvernement actuel.

J'ai déjà parlé l'an dernier, en mal, de la division par 2 de la consommation d'énergie finale d'ici à 2050, lorsque François Hollande avait annoncé cet objectif. Pour revenir aux arguments chiffrés, il faut remarquer que l'objectif fixé en Allemagne est une baisse de seulement 40%, pour une population attendue en baisse de 10%, alors qu'en France, on attend une population en hausse de 10%. L'effort est donc extrêmement conséquent et inédit. Les chances sont fortes que l'activité économique soit fortement impactée. Il se trouve que la loi donne un objectif complémentaire: le rythme de baisse de l'intensité énergétique finale à atteindre en 2030, 2.5%/an. L'intensité énergétique est la quantité d'énergie consommée — corrigée des conditions météo — rapportée au PIB, c'est donc une mesure d'efficacité. Or, il se trouve que la division par 2 de la consommation finale d'énergie implique un rythme de baisse moyen de 1.8% par an. Ce qui veut dire que le gouvernement se fixe grosso modo comme objectif une croissance moyenne de 0.7% par an d'ici à 2050. Je ne suis pas convaincu que ce soit le message que veuille faire passer le gouvernement!

Mais il s'avère aussi que l'objectif de rythme annuel de baisse de l'intensité énergétique est pratiquement hors d'atteinte: en dehors des pays ayant traversé une grave dépression et les anciens pays du bloc communiste, je ne sais pas si on peut trouver des exemples. On peut même voir qu'en France, le rythme de baisse de l'intensité énergétique finale est à peu près constant depuis au moins 30 ans à environ -1.1% par an, comme on peut le voir ci-dessous: intensite_fr_1981-2013.jpg Les statisticiens du ministère de l'énergie indiquent dans le bilan énergétique annuel (p103) que le rythme depuis 2005 est de -1.3% par an. On voit donc qu'il faudrait qu'une modification rapide et fondamentale de la société française se produise et que les fondements de l'activité économique changent du tout au tout. Des gains de productivité inédits devraient se produire pendant une longue durée!

D'autre part, si le gouvernement entend réduire le chômage, une croissance de l'ordre de 1.5% par an est nécessaire. Cela rend aussi plus facile d'équilibrer les comptes de l'assurance maladie, des caisses de retraite, etc. Bref, s'il veut tenir ces autres engagements qui me semblent nécessaires à la paix civile dans notre pays et très conformes aux demandes des citoyens, c'est un rythme de gains d'efficacité énergétique de l'ordre de 3.5%/an pendant 30 ans qu'il faut viser. En attendant, si la tendance actuelle se poursuit, le gouvernement s'est donné pour objectif une récession moyenne de 0.5% du PIB par an pendant plus de 30 ans. Avis aux amateurs!

Une nouvelle fois, la source ultime de cet engagement est connue: diviser par 2 la consommation finale d'énergie est à peu près la seule façon d'espérer se passer de nucléaire sans augmenter les émission de CO₂. Tous les scénarios écologistes sont bâtis sur cette hypothèse, mais même ainsi, se passer de nucléaire relève de l'exploit. Mais au final, on voit bien qu'aucun gouvernement véritablement sain d'esprit ne s'engagera dans une telle politique. La tendance est claire: si on veut réellement diviser la consommation d'énergie par 2 d'ici à 2050, c'est une dépression de 30 ans qui est prévisible. Même avec un objectif très optimiste de gains d'efficacité, la croissance restera très faible. Il se passera donc avec ces objectifs ce qui s'est passé partout dans le monde face à ce type d'engagement intenable: il sera abandonné lorsqu'il deviendra trop voyant qu'on ne peut pas l'atteindre. Il reste toutefois qu'il devient difficile de prendre au sérieux aucun des objectifs mentionnés dans cette loi quand on voit que le gouvernement fixe un objectif de croissance de 0.7%/an à rebours de tout ce qu'il promet par ailleurs! Mais cela n'empêchera pas dans l'intervalle de prendre des décisions néfastes sur cette base…

1 octobre 2014

Quel contrôle des coûts pour les EnRs?

Ségolène Royal a répété à de multiples reprises à la radio dimanche dernier que les EnRs et les travaux d'isolation allaient rapporter de l'argent au lieu d'en coûter. Cela implique normalement que les coûts pour la collectivité soient contrôlés de façon à ce qu'on tire le maximum des énergies renouvelables les moins chères. En effet, utiliser les énergies renouvelables les moins chères permet d'en utiliser le maximum pour un montant donné: on maximise de cette façon le rendement des investissements.

Lors de son interview, Ségolène Royal a mentionné une famille habitant dans une habitation nouvelle dont la facture d'énergie était de 96 centimes d'euro par mois. La suite de l'entretien montrait quelle était la recette: une bonne isolation, certes, mais aussi l'installation de panneaux solaires qui permettent de toucher des subsides très intéressants qui s'élèvent dans le cas de cette nouvelle habitation à plus de 280€/MWh produit. On peut comparer cela au coût de la fourniture d'énergie dans le Tarif Bleu d'EDF, destiné aux particuliers: il était en 2012 d'environ 45€/MWh (rapport de la CRE, Figure 54, p78). La différence est évidemment payée par une taxe, la CSPE: autrement dit, si ce ménage ne paye que 96 centimes par mois, c'est que la collectivité paye le reste.

Les charges de la CSPE représentent, pour sa partie finançant les énergies renouvelables, plus de 3.5G€ cette année. Comme l'indique le site de la CRE, le montant de la taxe devrait être de 22.5€/MWh mais elle est limitée à 16.5€/MWh parce que la hausse de la taxe est limitée à 3€/MWh par an. Un déficit de plus en plus important est en train de se creuser, qu'il faudra bien combler un jour. Toujours est-il qu'on peut constater que les seules EnRs électriques réclament un financement de l'ordre de 12€/MWh dont l'essentiel va à 3 sources d'énergie: l'éolien, la biomasse et le solaire PV, ce dernier se taillant la part du lion. Ces 3 sources représentent environ 3% de la production totale d'électricité en France … pour un chiffre d'affaires global égal à 25% de l'ensemble!

En Allemagne, le montant de la taxe a explosé en quelques années à cause du rythme d'installation des panneaux solaires et l'absence de contrôle des coûts. Elle est aujourd'hui de 62.4€/MWh, soit plus que le coût des productions classiques ou encore près de 2 fois le prix spot de l'électricité en Allemagne. La taxe EnR allemande est une des raisons pour lesquelles le prix de l'électricité pour les particuliers atteint 300€/MWh. Comme on le voit, le contrôle des coût devrait constituer une partie essentielle de la politique menée si on veut préserver le pouvoir d'achat des Français — comme l'affirme Ségolène Royal. La Cour des Comptes a aussi publié un rapport très critique à ce sujet l'an dernier.

On pouvait donc s'attendre à ce que des mesures soient prises sur ce terrain. En lisant le projet de loi, on constate qu'il y en a … aucune! Il y a bien des dispositions tenant compte des demandes de la commission européenne — mais dont bien sûr l'essentiel des installations, éoliennes et solaire seront exonérées — et l'article 50 sur un comité de gestion de la CSPE qui sera chargé de faire ce que fait actuellement la CRE. C'est tout. À un député proposant une réforme, il est répondu qu'une mission d'information a été mise en place … alors que le problème est connu depuis plusieurs années: la commission sénatoriale de 2012 sur les coûts de l'électricité a déjà abordé le sujet! Que rien ne soit prévu dans ce projet de loi est donc un pur scandale. À côté de cela, Ségolène Royal continue de chanter les louanges de l'éolien en mer. L'appel d'offres de ce printemps s'est soldé par un prix d'environ 220€/MWh en 2022. Aucun compte ne semble avoir été tenu du rapport de la Cour des Comptes. Bref, le robinet est toujours grand ouvert.

Au-delà de la protection du pouvoir d'achat, un contrôle des coûts est aussi important car plus les sources d'énergies qui incluent des EnRs sont taxées, plus on favorise les autres sources. En effet, le ratio des prix devient plus favorable aux autres énergies et les effets d'éventuelles taxes carbones est neutralisé par l'inflation liée aux EnRs. Aujourd'hui, le gaz est soumis à une taxe carbone minime qui va atteindre 4.45€/MWh en 2016, soit moins de 10% du prix du gaz (hors taxes). La CSPE est de 16.5€/MWh cette année, elle atteindra donc 22.5€/MWh en 2016 soit probablement plus de 20% du prix hors taxes de l'électricité. Autrement dit, l'expansion des renouvelables décourage l'emploi d'une source peu carbonée comme l'électricité française (environ 50g de CO₂ par kWh) en faveur de l'emploi d'un combustible fossile comme le gaz naturel (environ 200g de CO₂ par kWh). L'absence de contrôle des coûts est un encouragement à émettre plus de CO₂, à rebours de tous les objectifs proclamés.

Pour conclure, le manque de dispositions visant à contrôler les coûts dus aux énergies renouvelables, notamment électriques, me semble un pur scandale. Alors que la ministre proclame urbi et orbi que son projet de loi va rapporter de l'argent, qu'elle veut faire baisser les émissions de CO₂, elle acte en approuvant des projets hors de prix et en ne prenant aucune autre mesure des incitations financières exactement inverses. Au fond, c'est significatif des buts de ce projet de loi: il ne s'agit pas tellement de développer au maximum les énergies renouvelables pour un prix raisonnable et de réduire les émissions de CO₂ par ce biais, mais d'en construire pour elles-mêmes, pour des qualités qu'on leur donne a priori, parce que cela va dans le sens de l'idéologie dominante au PS et surtout chez leur allié les Verts.

29 septembre 2014

Vers des rénovations obligatoires

Le projet de loi sur l'énergie de ce quinquennat va être étudié à l'assemblée dans l'hémicycle à partir de ce mercredi 1er octobre. Le projet original est passé en commission où plus de 2000 amendements ont été étudiés pour arriver à la version approuvée par la commission parlementaire sur le sujet. Pour l'occasion, Ségolène Royal a fait un passage à la radio ce dimanche pour défendre cette loi.

J'écrirai peut-être d'autres articles sur le sujet de ce projet de loi dans les prochains jours. Pour commencer, cet article porte sur l'article 5, qui modifie l'article de loi qui permet au gouvernement d’édicter la règlementation thermique. La nouvelle rédaction va donner pouvoir à l'état d'édicter l'obligation d'effectuer des travaux d'isolation lorsqu'on ravale une façade ou rénove une toiture.

Ce faisant, on s'engage de plus en plus vers un régime de rénovations obligatoires. C'est clairement une idée qui fait son chemin. C'est par exemple ce que soutient cette vidéo (The Shift Project): il est clairement proposé dans cette conférence d'obliger à faire des travaux d'isolation à la vente de certains logements. C'est aussi ce qui transparaît dans le paragraphe sur le bâtiment de ce billet d'Arnaud Gossement, avocat spécialisé dans ce types de questions énergétiques.

À mon sens, cette idée est à double tranchant. Dans le meilleur des cas, elle peut effectivement atteindre son but d'accélérer le rythme de rénovation des bâtiments. Dans le pire des cas, elle peut freiner d'autres travaux — ceux qu'on veut lier à des travaux d'isolation — ou renforcer les blocages sur le marché immobilier, en agrandissant la différence entre la somme reçue par le vendeur et celle payée par l'acheteur. Le blocage peut s'opérer de plusieurs façons:

  1. La plus immédiate est celle du coût: en liant des actes qui n'étaient pas a priori liés jusque là, on impose une dépense supplémentaire à des gens qui n'en ont pas forcément les moyens ou l'envie. Une réponse très simple est alors de ne pas faire de travaux ou de faire des travaux qui ne tombent pas sous le coup des obligations. Par exemple, dans le cas d'une rénovation de toiture, on peut décider de ne plus faire que remplacer les ardoises ou les tuiles en trop mauvais état pour éviter l'obligation d'isolation imposée en cas de rénovation complète.
  2. Une autre est qu'il n'est pas évident que le coût de ces travaux imposés puissent être répercutés sur les locataires: on renforce donc la faiblesse des rendements locatifs en France … ce qui a normalement pour contrecoup de moindres dépenses d'entretien ou d'amélioration.
  3. La plus insidieuse est qu'on va vers un système normatif où il va falloir se justifier. Une justification a toujours un coût. De plus la normalisation de ces travaux peut les complexifier notablement. Pour en revenir à mon billet précédent, entre la règlementation thermique de 2005 et celle de 2012, il y a eu une multiplication par 5 de la longueur de la norme.

Sur une note plus polémique, ce type d'article contredit aussi directement les propos de Ségolène Royal lors de son passage radio où elle a souvent affirmé que les économies d'énergie imposées par cette loi allaient rapporter de l'argent. Pourquoi imposer aux gens des rénovations par la loi, si elles sont véritablement rentables pour eux? Dans ce cas, édicter des normes peut se révéler totalement contreproductif en les obligeant à se justifier de ce qu'ils auraient fait naturellement. Au contraire, de tels articles de loi montrent que les prix de l'énergie ne sont pas suffisamment élevés pour justifier d'investir fortement pour réaliser des économies d'énergie. Les travaux visés sont toutefois ceux qui sont le plus proches de la rentabilité, voire déjà rentables aux prix actuels: une étude de l'UFE de 2012, le lobby des électriciens, montrait que l'isolation des combles et l'isolation par l'extérieur avaient au moins des taux de rentabilité positifs dans la plupart des cas.

Pour conclure, je suis partagé sur ce genre d'articles de loi: d'un côté ils sont relativement limités dans leurs conséquences immédiates et concernent des rénovations raisonnables, mais de l'autre la pente sur laquelle le gouvernement s'engage est très glissante. Ces obligations de rénovations peut d'abord se traduire par moins de rénovations. Mais la mesure peut rencontrer un succès certain et la tentation deviendra grande pour l'utiliser pour forcer toute sortes de travaux, nettement plus loin de la rentabilité. On aurait alors une réglementation qui aurait pour effet de freiner les rénovation à cause de l'obligation d'effectuer des travaux très loin du seuil de rentabilité et qui deviendrait sans doute aussi de plus en plus tatillonne pour parer à ceux qui tenteraient de la contourner. De plus, pour les locations, il faut accepter que les investissements se traduisent par une hausse des loyers, ce qui est tout sauf assuré!

8 septembre 2014

Quelques éléments sur les débats immobiliers

Hier, Verel signalait la publication par le Monde daté de vendredi 5 d'une page de tribunes consacrées aux débats sur l'immobilier et le changement de direction du gouvernement en la matière. N'étant pas abonné, je n'avais accès qu'à la tribune de Cécile Duflot, ancien ministre du logement, etc. Cela n'étonnera personne que je sois en désaccord avec elle et que je trouve la défense de son bilan absolument renversante.

Une des tribunes relevait que les investisseurs institutionnels avaient fui le marché locatif des logements et une autre, écrite par un PDG du secteur du BTP, relevait l'avalanche de normes nouvelles. Ces deux points sont importants: ils expliquent une partie des affres français du logement et pourquoi certaines mesures de la loi ALUR étaient néfastes.

Le faible rendement financier de l'investissement en logements

Contrairement à Cécile Duflot, je ne pense pas que l'obsession de la rente (soit) l'ennemie de la production de logement et soit à l'origine des problèmes français du logement — en fait des grandes villes françaises. En effet, les obsédés de la rente seraient sans doute très tentés d'investir dans des logement pour en tirer encore plus de rentes si le rendement était bon. Inversement, si le rendement est franchement mauvais, il n'y a guère d'alternative que les associations philanthropiques ou les subventions. Or, tout pointe vers une dégradation des rendements locatifs depuis le début des années 2000.

Sur le site du ministère du logement, on trouve des données rassemblées par Jacques Friggit qui étudie le secteur du logement depuis longtemps déjà. On peut donc trouver parmi ces données le graphe suivant qui montre que le prix d'achat d'un logement a nettement plus augmenté que les loyers. rdt_locatif_fr.jpg En conséquence, les investisseurs institutionnels ont fui, comme on en a eu des échos anecdotiques, sous la forme de l'émoi face aux ventes à la découpe qui engendré une loi en la matière pour que les occupants du logement bénéficient de tarifs préférentiels. Cela dit, il reste des logements possédés par des investisseurs institutionnels. Pour connaître le différentiel de rendement, on peut consulter des documents de foncières cotées en bourse. Comme elles sont tenues de valoriser leur patrimoine au prix du marché, on peut connaître le rendement. Il se trouve que la place de Paris compte un exemple de foncière, dotée d'une filiale spécialisée dans les logements, fort utile. La foncière mère a publié une présentation sur ses comptes semestriels 2014 où on trouve p23 le tableau ci-dessous. rdt_cptes_FDR_2014S1.jpg Pour la filiale dont le patrimoine français est principalement concentré à Paris, j'ai pris les comptes de 2013 (p11): rdt_cptes_FDL_2013.jpg

À la vue de ces chiffres, il n'est pas bien difficile de comprendre pourquoi les institutionnels ont fui: après tout s'ils peuvent obtenir de bons rendements, ils veulent bien supporter des tracas administratifs. Ce qui veut dire en passant que le coût de ces derniers sont reportés sur les locataires. Mais s'il y a un rendement bien supérieur dans une activité connexe où le marché est moins régulé, pourquoi se fatiguer?

Cela montre aussi l'inanité de la comparaison avec l'Allemagne sur le contrôle des loyers. En Allemagne, les prix du m² semblent proches de 1000€ dans de nombreuses villes. Pas étonnant dans ces conditions qu'on puisse à la fois avoir de forts rendements locatifs et des loyers bas. Il est aussi peu surprenant que le contrôle des loyers n'y soit pas vu comme une contrainte: avec des rendements au-delà de 6%/an brut, il n'y a pas de difficultés à trouver des preneurs. À l'inverse, en France, les rendements sont déjà bas, surtout à Paris, ce qui veut dire que plafonner les loyers mène à une baisse de l'activité de construction et surtout un moindre entretien des immeubles, d'où à terme un parc de logements à louer qui se dégrade.

Enfin, l'effondrement des rendements n'est pas sans poser de questions. La première approche est de considérer que c'est une situation passagère — c'est la position de Jacques Friggit si on lit ses 200+ planches — et qu'au fur et à mesure, les prix à l'achat reviendront sur leur moyenne de long terme. L'autre approche est de considérer que la situation va perdurer — ce que je pense. Les politiques menées ont combiné restriction du foncier et empêchements divers à rallier les centre-villes. Il faudrait le vérifier, mais on a dû assister à une éviction des locataires au profit des propriétaires-résidents dans le centre de villes comme Paris.

Les normes

Étant donné la situation actuelle de prix élevés, le gouvernement a tout intérêt à ne pas augmenter les prix de construction via une inflation normative. En effet, si les prix de la construction restent contenus, cela place une limite à l'inflation des prix immobiliers dans leur ensemble. Si les prix montent trop, on aboutit à un surcroît de construction. Or, la démarche suivie depuis quelques années va en sens inverse.

Un premier exemple est celui de la réglementation thermique qui vise à limiter les consommations d'énergie pour le chauffage. Pour la RT2005, l'arrêté technique comptait 28 pages, le manuel pour calculer les performances — plus difficile à trouver — comptait 192 pages. Pour la RT 2012, il y a maintenant 2 arrêtés techniques, celui qui concerne les logements compte 42 pages. Quant au manuel, c'est un beau bébé de 1379 pages. Certes, cette évaluation «au kilo de papier» n'est pas forcément proportionnelle à l'évolution de la complexité de la norme, mais on peut tout de même supposer que si on a besoin d'un manuel 5 fois plus long, c'est qu'il y a plus de choses à mesurer, plus de choses à prendre en compte, plus de justifications à donner, etc. Bref, non seulement les performances demandées ont augmenté, mais il y a un surcroît très notable de complexité et sans doute de justifications.

Un deuxième exemple est celui de la réglementation pour l'accessibilité aux handicapés. Tous les logements neufs doivent s'y conformer. Une nouvelle fois le ministère du logement met à notre disposition un site expliquant en quoi consistent les aménagements. Pour essayer d'évaluer l'impact sur le prix à confort équivalent, regardons l'effet sur un 2-pièces. Les 2-pièces neufs ont souvent une surface d'environ 42m². La circulaire nous dit qu'il faut laisser dans les WC, en plus de l'espace habituel, 1.30x0.80m² sur le côté de la cuvette — soit un agrandissement du cabinet d'un peu plus de 1m². Dans la salle de bains, il faut laisser libre un disque de 1.5mètre de diamètre: du fait de l'aménagement habituel, il s'agit d'un carré libre de 2.25m². Dans mon appartement — un 2-pièces — ce dégagement mesure environ 1m². On voit qu'il y a sans doute une perte de surface de l'ordre de 2m² sur l'appartement, soit environ 5% de la surface. En d'autres termes, l'immobilier est renchéri de 5% pour les habitants de 2-pièces. On peut aussi quantifier cela en termes financiers: avec du neuf à un peu plus de 4000€/m², on arrive à un surcoût de 8k€ …

Ce n'est pas que ces normes soient mauvaises en elles-mêmes: c'est même plutôt l'inverse, elles partent d'une bonne intention. Cependant, le résultat est un renchérissement du prix des logements. Pour les locations, ce surcoût doit se répercuter dans les loyers, faute de quoi le marché locatif ne voit pas de nouveau logements — hors subventions. On peut espérer des gains de productivité dans le secteur du BTP, mais c'est plutôt l'inverse qui s'est produit: le coût de la construction s'est élevé ces dernières années. Comme le notait Étienne Wasmer dans une interview après avoir remis son rapport sur l'immobilier locatif, il y a sans doute un problème de concurrence. Il n'est cependant pas dit que ce problème puisse se régler rapidement.

Le constat reste cependant qu'il y a sans doute un grand nombre de normes qui sont venues s'ajouter au cours des 15 dernières années et que la tendance est à la continuation de l'inflation normative: à titre d'exemple, le prochain projet de loi sur l'énergie risque d'être un grand pourvoyeur. Dans ce domaine il faut choisir: soit des normes tatillonnes et des prix élevés, soit des normes plus simples et un espoir de baisse (relative) des prix.

Pour conclure, dans le domaine de l'immobilier comme dans d'autres, il faut choisir et les bons sentiments ne font pas de bonne politique. Si les rendements locatifs sont bas, il y aura forcément une pression à la hausse sur les loyers et à la baisse sur les frais d'entretien. Une autre alternative est l'éviction progressive des locataires au profit de propriétaires-résidents. Mettre en œuvre un contrôle des loyers en France, alors que les rendements locatifs y sont bas aurait un impact à long terme néfaste. En Allemagne, où les rendements sont élevés, le contrôle des loyers ne sert à rien: il n'y a pas vraiment de pression sur les prix! Si on veut que les prix baissent ou au moins se stabilisent en France, il faudrait construire plus dans des zones déjà densément peuplées ou alors permettre de rallier le centre plus rapidement: aucune des 2 politiques n'a été suivie. Sur les normes, elles ne sont sans doute pas responsables à elles seules des problèmes du logement en France, mais à force d'empiler des normes qui renchérissent les logements neufs, personne ne peut plus en acheter.

1 septembre 2014

Le mirage de l'hydrogène

L'hydrogène est souvent présenté comme potentiel candidat pour des systèmes de stockage de l'énergie. L'idée est de produire de l'hydrogène par électrolyse à l'aide d'électricité «excédentaire» et de stocker ce gaz pour s'en servir pour le chauffage — par combustion directe —, pour servir de carburant dans des automobiles — en général, via des piles à combustible — ou encore pour produire de nouveau de l'électricité. Tous les projets sont toutefois restés à l'état de prototype jusqu'à présent.

J'avais abordé suite au rapport de l'OPECST de 2012 sur l'avenir de la filière nucléaire — et plus généralement sur l'avenir de la production d'électricité — les problèmes que posaient la transformation d'électricité en stock d'énergie utilisable plus tard. Au delà des problèmes techniques encore à résoudre, se pose un problème de rentabilité économique: pour que le stockage soit rentable, il faut l'installation ne soit pas trop chère à construire et à faire fonctionner et que la durée de fonctionnement soit élevée. Une note récente du Commissariat à la prospective vient de paraître et fournit quelques données qui vont dans le sens de l'extrême difficulté pour atteindre le seuil de rentabilité. À la lecture de la note, on se dit que l'utilisation de l'hydrogène comme vecteur énergétique relève du mirage: toujours visible à l'horizon, mais dont on ne se rapproche jamais malgré une longue marche dans sa direction.

Le dihydrogène est la molécule qui permet de récupérer le plus d'énergie par combustion rapporté à sa masse. C'est ce qui lui vaut une bonne image quand on parle de stockage de l'énergie. Mais il souffre en fait de graves tares:

  1. Pour un gaz, ce n'est pas tant l'énergie par unité de masse qui compte, mais la quantité d'énergie par unité de volume. En effet, c'est plutôt le volume du réservoir qui est limitant. Or la formule des gaz parfaits nous dit que le volume est proportionnel au nombre de molécules. Ce qui fait qu'au total, le contenu énergétique du dihydrogène est d'environ 3.5 kWh/Nm³ contre environ 11 kWh/Nm³ pour le méthane, principal constituant du gaz naturel. Le dihydrogène est donc un vecteur moins concentré en énergie que ce dont on a l'habitude aujourd'hui
  2. Il n'est pas envisageable de le liquéfier à grande échelle du fait de la température très basse de liquéfaction (-253°C) et aussi d'un gag dû à un phénomène de mécanique quantique
  3. Même s'il est plutôt moins détonnant que le méthane (contrairement à ce qui est dit dans la note), le dihydrogène fuit nettement plus facilement de son contenant. Cela le rend nettement plus dangereux que le méthane. Ce dernier est accompagné d'un gaz odorant dont les propriétés sont proches et qui fuit en même temps que le méthane. C'est impossible pour le dihydrogène qui peut fuir par des micro-fissures. Détecter toutes les fuites est donc nettement plus difficile.
  4. Bien sûr, le dihydrogène n'existe pas — ou quasiment — à l'état naturel, il faut donc le produire. Actuellement, il est principalement fabriqué par vaporeformage. Le but étant aussi d'éviter d'émettre du CO₂, il faut se reporter sur l'électrolyse, nettement plus gourmande en énergie. Cela nécessite donc de construire des usines et de payer l'énergie. Le coût va donc dépendre aussi du taux d'utilisation de l'usine et du rendement du procédé. Il se pose aussi des difficultés pour se procurer du platine en grande quantité pour servir de catalyseur.

La plupart de ces critiques peuvent trouver des réponses techniques, mais elles ont pour la plupart toutes un coût. Si on parle de plus en plus de remplacer le platine par des matériaux plus communs (exemple), les autres solutions sont de compresser l'hydrogène — on estime que compresser à 700 bars coûte 20% du contenu énergétique —, de construire des réservoirs en matériaux composites — donc des coûts de développement — etc. La critique la plus difficilement contournable est donc celle du coût de production. La note fournit des données chiffrées qui laissent peu d'espoir. couts_H2.jpg

Comme on peut le voir ci-dessus, dans tous les cas, l'hydrogène produit est très cher. Les 2 colonnes de gauche représentent à peut près les conditions actuelles de production, la colonne 6, le meilleur cas espéré à l'avenir: un électrolyseur qui coûte à l'achat 800€/kW installé qui tourne presqu'en permanence (7000h par an) et qui paie son électricité 60€/MWh. Dans ce cas, l'hydrogène coûte 94€/MWh thermiques, à comparer à un prix du gaz d'environ 20€/MWh en Europe.
La colonne 5 donne le coût pour un électrolyseur qui serait utilisé pour éponger d'éventuels excédents d'électricité, provenant de sources d'électricité intermittentes comme l'éolien ou le solaire. Dans ce cas, l'électricité serait gratuite, mais on ne peut pas imaginer que ce soit un phénomène courant durant l'année à cause du faible facteur de charge des éoliennes et des panneaux solaire et parce que les producteurs auraient du mal à vivre avec une large part de leur production payée 0€. Mais dans ce cas, on constate que le coût de production est de presque 270€/MWh: le coût est alors déterminé par les frais fixes de l'électrolyseur qu'il faut amortir sur une faible durée d'utilisation.
On voit aussi que la production d'électricité par ce biais est reservée aux cas d'urgence du fait d'un coût qui devient totalement prohibitif, un MWh électrique coûterait de l'ordre de 2 à 3 fois le MWh thermique.

Comme on le voit, pour que l'hydrogène devienne un vecteur énergétique crédible, il faut à la fois que les obstacles technologiques soient surmontés et que les prix baissent énormément. Si les électrolyseurs coûtent actuellement 2000€/kW, il faudrait qu'ils coûtent entre 100 et 200€/kW pour que les coûts deviennent à peu près raisonnables. Comme on voit qu'en plus l'hydrogène est loin d'être le vecteur énergétique le plus pratique, cela veut dire qu'il ne sera utilisé que si on ne peut faire autrement. On peut donc se dire que la situation qui a prévalu jusqu'ici se perpétuera: l'hydrogène continuera d'être évoqué comme prometteur pour quelques dizaines d'années encore.

24 août 2014

Du bilan de Cécile Duflot

Suite aux municipales et au remaniement qui a suivi, Cécile Duflot a choisi de ne pas rester au gouvernement. À l'époque, on comprenait déjà que c'était par désaccord sur la politique à mener par Manuel Valls, ainsi que dans une certaine mesure avec la politique qui avait été menée par le gouvernement Ayrault dont elle faisait partie. Depuis, elle a écrit un livre où il ressort du titre et des «bonnes feuilles» publiées dans la presse qu'elle est déçue de la politique menée et que son passage au gouvernement a été une désillusion. Cécile Duflot défend aussi régulièrement dans les médias son action de ministre en général, la loi qu'elle a fait voter en particulier (dite ALUR).

La parution de son livre et la rentrée qui s'annonce sont l'occasion pour elle de s'exprimer de nouveau, par exemple dans une interview au Monde. Dans la réponse à la deuxième question, elle y défend son bilan personnel et la politique qu'elle comptait mener. Il s'avère cependant que ses propos ne correspondent pas à la réalité.

  1. Elle commence par louer le contrôle des loyers au prétexte que c'est un engagement de campagne. Elle oppose aussi cette mesure aux solutions d'avant: elle prétend donc que le contrôle des loyers est une idée neuve. Bien sûr, il n'en est rien: la chose est suffisamment connue pour qu'il y ait consensus parmi les économistes sur sa nocivité. C'est ainsi que Paul Krugman en a fait le sujet d'une de ses premières tribunes. Le contrôle des loyers n'est pas non plus un inconnu en France, puisqu'il a été utilisé durant l'Entre-deux-guerres. Il semble qu'avant la 2e Guerre Mondiale, on estimait le manque de logements à 2 millions d'unités et que l'état général du parc de logements était désastreux. Les résultats à attendre du contrôle des loyers sont donc nocifs, surtout pour ceux qui cherchent à se loger. Que ce serait respecter un engagement de campagne ne signifie pas pour autant que les Français ne seraient pas déçus!
  2. Pour Cécile Duflot, il fallait arrêter de doper artificiellement l'immobilier à coups de défiscalisation. Il s'avère que Cécile Duflot a donné son nom à un dispositif de défiscalisation, créé par la loi de finances initiale pour 2013, la première du gouvernement Ayrault. Ce dispositif remplace le défunt Scellier. Il est donc utile des les comparer. Pour faire rentrer plus d'argent, à la fin de la mandature précédente, le Scellier ne permettait plus que de défalquer 13% de la valeur du logement sur 9 ans et 21% sur 15 ans. Le Duflot permet, lui, de défalquer 18% sur 9 ans! Certes, les plafonds de loyers ont été abaissés. Mais il est difficile d'y voir la fin du dopage par la défiscalisation! Si vraiment elle voulait la fin des défiscalisations, elle aurait pu au moins s'arranger pour que le dispositif ne porte pas son nom.
  3. Elle finit sa réponse en affirmant que le problème du logement cher est un problème spécifiquement français. Il s'avère en fait que la situation britannique est encore pire. Le magazine britannique The Economist — que, certes, Cécile Duflot ne lit sans doute pas — publie régulièrement des articles et des infographies sur ce sujet. La cause de ces prix élevés ne fait pas de doute pour The Economist: expansion démographique associée à trop de réglementations et à un zonage qui empêche de construire. Des causes qu'on entend souvent nommées pour expliquer la situation du marché immobilier français. Sous l'égide de Cécile Duflot, la loi ALUR a été votée, on dit qu'elle détient le record de longueur sous la Ve République. On conçoit donc qu'elle ne partage pas ces conclusions.

Depuis le départ de Cécile Duflot, les déclarations gouvernementales se sont succédé pour essayer d'amoindrir l'impact de la loi ALUR. C'est ainsi que Sylvia Pinel a annoncé peu ou prou que certains pans de la loi ne seraient pas appliqués et qu'on allait réduire le nombre de documents demandés lors de l'achat d'un appartement en copropriété. Ce changement d'attitude fait suite à la matérialisation d'une baisse d'activité dans le secteur de la construction. Ce revirement, moins de 6 mois après la promulgation de la loi, ne laisse pas d'étonner: les effets néfastes de la loi ALUR étaient prévisibles et dénoncés depuis l'annonce des lignes directrices. Il montre qu'en fait, de nombreuses personnes au PS pensaient que cette loi allait avoir des effets néfastes, c'est d'ailleurs l'impression qui se dégage à la lecture de certains articles: François Hollande ne paraissait pas bien convaincu par le contrôle des loyers, par exemple. Certaines mesures prévues à l'origine, comme la garantie universelle des loyers, ont vu leur portée être amoindrie de peur des conséquences financières. Il est dommage que les éventuels opposants internes n'aient pas été plus entendus…

Ces péripéties me font penser que la campagne présidentielle n'a fait que renforcer certains illusions au sein de la gauche. Que l'idée qu'un surcroît de règlementations dans le domaine de l'immobilier, comme l'instauration d'un contrôle des loyers, puisse permettre de résoudre les problèmes de manque d'offre n'ait pas été contestée, alors que l'histoire montre le contraire, m'étonne toujours. Plus généralement, cela montre bien que bon nombre de choses promises par le candidat Hollande ne pouvaient se réaliser, parce qu'elles étaient trop irréalistes, et que si jamais certaines promesses étaient honorées, des effets néfastes apparaîtraient rapidement. Je dois aussi admettre ma surprise devant l'aplomb de la défense de Cécile Duflot: elle affirme des choses dont il est facile de vérifier qu'elle sont fausses. Sa défense de son bilan est renversante: soit elle a fait le contraire de ce qu'elle voulait — sur la défiscalisation par exemple —, soit ça n'avait aucune chance de marcher — comme le contrôle des loyers.

1 août 2014

Lobby

Greenpeace et des organisations aux idéologies similaires ont publié dernièrement une lettre ouverte appelant le futur président de la Commission Européenne, Jean-Claude Juncker, à ne pas nommer un nouveau conseiller principal sur les questions scientifiques, création de son prédécesseur, José-Manuel Barroso. Une organisation «rationaliste», Sense About Science, a publié peu après une lettre ouverte en sens opposé, demandant le maintien du poste. Suite à la publication de la lettre, Greenpeace a été accusée d'être une organisation anti-science et s'est alors fendu d'une réponse. Pour ma part, je pense cet épisode ne montre aucunement que Greenpeace soit anti-science, mais qu'elle considère la science comme un outil comme un autre pour parvenir à ses fins: imposer son idéologie dans les décisions politiques.

Pour commencer, le motif de la lettre de Greenpeace est clair: Anne Glover a déplu par ses déclarations sur les OGMs. Même si elle n'a fait que reprendre les conclusions de rapports publiés par l'UE ou des académies des sciences européennes, voire américaines , etc., cela ne peut aller qu'à l'encontre des positions des associations environnementales qui font campagne depuis bientôt 20 ans contre les plantes génétiquement modifiées. Les autres arguments sont creux: aucun conseiller de Barroso ne doit publier l'ensemble des demandes d'avis qu'il a reçues ou les notes qu'il a envoyé en retour. La seule obligation en la matière pour les conseillers est de rendre des comptes sur la compétence et l'honnêteté a priori. L'existence de la déclaration d'intérêts d'Anne Glover n'a d'ailleurs pas empêché les accusations diffamatoires à son encontre.

Cependant, que Greenpeace et les autres signataires veulent remplacer quelqu'un qui leur a déplu malgré avoir rempli fidèlement sa mission de dire où se situait le consensus scientifique ne veut pas dire qu'ils sont «anti-science». En fait, pour de telles organisations, l'important est de faire triompher leur idéologie: elles ne sont pas basées sur le désir de répandre le savoir et les découvertes scientifiques mais sur la volonté des membres d'infléchir le cours des choses sur les thèmes qui leur sont chers. Dans ce cadre, la science est un outil comme un autre, qui peut se révéler fort utile comme il peut nuire. Quand la science apporte des éléments favorables à la position d'une telle association, elle s'en prévaut; si au contraire, la science tend à la contredire, il faut l'ignorer, éviter que ça ne s'ébruite, voire continuer à susciter des résultats inverses pour faire croire à la continuation d'un controverse. Cela apparaît dans les justifications de Greenpeace: ainsi se prévalent-ils de preuves accablantes sur le sujet du réchauffement climatique, mais seulement de préoccupations sur les OGMs et pour cause: on l'a vu le consensus scientifique sur la question est l'exact contraire.

Ce qui peut étonner, c'est la place centrale que semble donner Greenpeace dans son action à la science: Greenpeace cherche souvent à se prévaloir de résultats scientifiques. C'est sans doute lié à l'histoire du mouvement écologiste, fondé par des gens éduqués et déterminés, mais peu nombreux. Leur stratégie a toujours été la même: se prévaloir d'une supériorité morale permettant de recourir à des actions directes et un discours émotionnel mais, en parallèle, recourir à des arguments d'apparence scientifique pour tenir aussi un discours apparemment raisonnable. L'idéologie de Greenpeace n'est pas de promouvoir un gouvernement basé sur des conclusions scientifiques, mais plus prosaïquement, c'est l'opposition au nucléaire, à l'agriculture industrielle et plus généralement, la conviction que l'industrie en général est nuisible. Les tenants de ces techniques et de l'industrie ont souvent un discours technique ou basé sur des prémisses scientifiques, le discours de Greenpeace est donc aussi une réponse à ce fait et dénote une volonté de ne laisser aucun argument sans réponse.

Le succès de cette organisation est aussi une grande illustration des réalités de la politique. Car voilà une organisation qui ne fait que prêcher des valeurs positives comme la paix, l'humanité mais qui n'hésite pas à faire le contraire. Voilà une organisation officiellement non violente qui n'hésite à approuver des destructions de cultures ou l'abordage de navires. Une organisation qui prône l'amélioration des conditions de vie des pauvres s'oppose au riz doré, une potentielle solution à la déficience en vitamine A dans les régions pauvres de l'Asie. On pourrait multiplier les exemples à l'infini, mais Greenpeace est remarquable par sa capacité à ne rien dire qui ne respire la bienveillance, l'intégrité et l'humanisme tout en pouvant démontrer les qualités exactement contraires sans que trop de plaintes ne s'élèvent. En fait, c'est là le lobby rêvé: bénéficiant d'une présomption d'honnêteté irréfragable, maîtrisant un langage respirant la bonté — cette lettre ne fait pas exception — mais capable de déployer les qualités exactement inverses pour parvenir à ses fins sans que cela lui nuise. Ce sont des qualités indispensables en politique, mais on est là très éloigné de la science qui, au fond, n'est qu'un outil comme un autre pour imposer une idéologie.

5 juillet 2014

Échéances

Ce dimanche, les Échos ont publié un article sur les perspectives financières sinistres du régime de retraites complémentaires des cadres, l'AGIRC. On y apprenait que les réserves de ce régime seront réduites à néant d'ici fin 2018, malgré les modifications intervenues l'année dernière. En regardant ce qui était publié à l'époque, on constate que la fin des réserves avant la réforme était attendue … à la même date ou à peu près. Ce qui a changé? Sans doute les scénarios pris en compte. Le COR avait pris en début d'année dernière des hypothèses très optimistes: le chômage revenait à 7% de la population active d'ici à 2020, une situation qui apparaît hors d'atteinte aujourd'hui. L'article des Échos nous informe que dans le nouveau scénario, le chômage reviendrait à 7% de la population active en … 2030, voire 2035, ce qui paraît nettement plus réaliste.

Le déficit de l'AGIRC s'élevait à 1.2G€ l'an dernier et l'AGIRC annonce disposer de 9G€ de réserves. Ce dernier montant est étonnant, puisque fin 2012, il ne disait disposer que de 6.9G€ de réserves à moyen et long termes. Il est possible que l'AGIRC ne puisse pas épuiser toutes ses réserves: ne pouvant emprunter, il doit constamment disposer d'une trésorerie pour honorer ses versements. Il est aussi possible que le déficit augmente dans le futur si rien n'est fait: la baisse suggérée dans l'article de plus de 10% des pensions servies laisse entendre que le déficit serait de plus de 2G€ en 2019: l'AGIRC verse en effet aujourd'hui 21.7G€ de pensions chaque année.

Cette annonce d'une possibilité d'une baisse de plus de 10% des pensions servies montre aussi que les prévisions utilisées jusque là étaient bien trop optimistes. Le 11ᵉ rapport du COR donnait un déficit à politique inchangée de l'ordre de 6 à 7% des pensions versées (tableau p115). Mais comme on l'a remarqué plus haut, cela supposait une croissance du PIB bien plus forte et un retour à taux de chômage de 7% en 2020. Autrement dit, les mesures prises l'an dernier étaient basées sur un scénario déjà caduc. Cela est l'habitude en la matière, mais cette fois-ci les échéances sont proches: 5 ans. Comme les données démographiques sont connues, il ne reste plus de leviers disponibles: comme le remarque un syndicaliste FO à la fin de l'article, il va être très difficile d'éviter l'obstacle.

Ainsi, même si le problème était connu depuis longtemps — le premier rapport faisant autorité sur le problème des retraites ayant été remis à Michel Rocard en 1991 —, il s'avère qu'à cause de prévisions toujours trop optimistes, la mesure que tout le monde voulait éviter, la baisse des retraites faute de fonds pour les payer, se profile cette fois pour de bon. Évidemment, on peut immédiatement penser l'éviter par des hausses d'impôts, mais il faudrait alors diminuer le salaire des actifs, ce qui n'est pas plus souhaitable. Ce n'est pas une surprise que ce soit l'AGIRC, le régime complémentaire le plus fragile de par sa démographie très défavorable, qui soit le premier concerné. Mais cela annonce que le début d'une période nettement plus difficile pour les régimes de retraites, où toute erreur se traduira par un impact visible immédiatement sur le niveau de vie soit des retraités — via des baisses de pensions — soit des actifs — via des hausses d'impôts. Même si les prestations de l'AGIRC ne représentent certes qu'une partie de la retraite des cadres, qu'une baisse de 10% pensions servies soit envisagée montre aussi le grave échec du volontarisme économique qui se révèle être ce qu'il est vraiment en la matière: une manière de renvoyer les problèmes à plus tard. Malheureusement, pour la retraite des cadres, «plus tard» c'est désormais «bientôt».

- page 2 de 9 -