Mot-clé - nucléaire

Fil des billets - Fil des commentaires

28 octobre 2015

Tract ou journal?

Mardi après-midi, est paru sur le site du Monde un article intitulé Le nucléaire, une solution pour le climat ?, signé par Pierre Le Hir. A priori, on s'attendrait à une comparaison des émissions de CO₂ entre diverses technologies, mais en fait, il semble bien qu'il s'agit en fait de relayer la parution d'un argumentaire anti-nucléaire par diverses associations opposée à cette technologie. En effet, la structure de l'article est composée d'une introduction où on parle de la position d'EDF, puis un corps où l'argumentaire des opposants est développé, pour terminer pour citer le GIEC, mais surtout dans ses remarques les plus négatives.

Évidemment, le nucléaire ne règlera pas à lui tout seul le problème des émissions de CO₂ et du réchauffement climatique, mais comme personne ne prétend qu'une technologie peut y parvenir seule, la question est plutôt de savoir s'il peut apporter quelque chose. On peut alors se retourner vers quelques faits simples. Tous les ans, l'AIE publie un inventaire mondial des émissions de CO₂ venant de la production d'énergie, ainsi que son résumé, gratuit et accompagné d'un tableur. La dernière édition disponible aujourd'hui, celle de 2014, recense les émissions de 2012. On y constate une différence d'émissions de 4 tonnes de CO₂ par habitant entre la France et l'Allemagne, dont 3.3 pour le seul poste «production de chaleur & d'électricité». La source de cette différence est bien connue: en Allemagne, presque 50% de la production d'électricité est assurée par du charbon et les 2/3 à partir de combustibles fossiles, alors qu'en France, les moyens décarbonnés assurent plus de 90% de la production et le nucléaire entre 75 et 80%. Comme on peut le constater, cette expérience montre que le nucléaire a bien le potentiel de réduire substantiellement les émissions dans certains pays, et non des moindres! CO2_FRvsDE.jpg

Un autre argument avancé est que le nucléaire émet lui aussi du CO₂. Ce n'est pas faux: lors de la construction, on a besoin de ciment et d'acier, qui nécessitent d'émettre du CO₂ pour les produire. Afin de comparer tous les effets, le concept d'émissions sur le cycle de vie a été développé. Il s'agit de comptabiliser toutes les émissions qui ont servi à produire de l'énergie, du début de la construction à la démolition. Le GIEC fournit dans le résumé technique de la partie sur les solutions possibles au problème du réchauffement climatique le graphe suivant p41 (coupé pour ne tenir compte que des technologies actuellement disponibles). LCA_technos.jpg On constate que le nucléaire est parmi les moins émetteurs: la médiane des études le met à égalité ou presque avec l'éolien. On est donc bien en peine de trouver le moyen de production d'électricité qui produirait vraiment moins de CO₂ par unité d'énergie, ce qui est quand même l'essentiel pour lutter contre le réchauffement climatique. Le solaire phovoltaïque, par exemple, émet plus que le nucléaire, ce qui ne l'empêche pas d'être apprécié par les opposants au nucléaire. C'est à peine si l'auteur de l'article mentionne cela, tout au plus il mentionne que le GIEC classe le nucléaire parmi les sources à faibles émissions de carbone.

Les autres problèmes du nucléaire existent bien, mais aucun des problèmes des alternatives ne sont exposés. Par exemple, nulle mention du problème de l'intermittence de l'éolien ou du solaire. Le scénario de l'ADEME qui prévoit un mix électrique 100% renouvelable est mentionné, sans dire que certaines technologies nécessaires n'existent pas à l'heure actuelle. Enfin, quand on mentionne les problèmes d'acceptation par la population, c'est évident que tout dépend de la perception qu'en ont les gens … qui serait peut-être améliorée par une information impartiale qui éviterait de n'instruire qu'à charge.

Cet article semble donc être avant tout une reprise de la communication des associations anti-nucléaires. Même pour un «compte-rendu», on serait tout de même en droit d'attendre que les inexactitudes dans leurs positions ne soient pas relayées complaisamment. Et qu'à la question posée dans le titre, on apporte la véritable réponse que les faits appellent: Oui, le nucléaire est une solution pour le climat, mais seulement partielle et s'il devient mieux accepté et moins cher!

30 juin 2014

Redite

Une commission d'enquête a été organisée sur les coûts du nucléaire, avec pour rapporteur Denis Baupin, bien connu pour son opposition à cette technologie. Une commission au thème extraordinairement similaire avait été organisée au Sénat, il y a deux ans. Le résultat relevait de la la pure idéologie écologiste, s'appuyant sur des tactiques d'enfumage et n'hésitant pas à pousser le scénario où il y avait le plus d'énergies fossiles. Vue l'identité du rapporteur, on pouvait craindre une redite et on n'a pas été déçu.

Quelques mots d'abord sur le style: le rapport semble constitué principalement de citations extraites des auditions de la commission, entrecoupés par le texte du rapporteur. Il compte relativement peu de tableaux et de données comparé au rapport de la commission sénatoriale d'il y a 2 ans. On en est donc réduit à devoir faire confiance — ou pas — aux choix de Denis Baupin pour ses citations et le sens qu'il veut bien leur donner. En effet, dans la masse de propos tenus, il est certainement possible de choisir les citations pour écrire soit un rapport chantant les louanges du nucléaire, soit un rapport vouant cette technique aux gémonies. Pour savoir quelle option a été choisie, on peut se référer au passage sur le scénario énergétique qui a la préférence de Denis Baupin et regarder si l'objectivité est au rendez-vous.

Avant d'aborder le scénario qui a sa préférence, Denis Baupin a expédié le scénario prôné par EDF, certes peu crédible mais qui a le mérite pour ses dirigeants de ne pas aller frontalement à l'encontre de l'opinion proclamée de la tutelle politique. Pour le dire autrement, Denis Baupin écrit que ce scénario n'est pas probable. Et c'est donc tout naturellement qu'il titre:

B. APPROCHE 2 : UNE BAISSE DE LA DEMANDE ÉNERGÉTIQUE EST POSSIBLE, CE QUI REND INUTILE LA PROLONGATION DE L’ENSEMBLE DU PARC NUCLÉAIRE

Comme on va le voir, ce scénario n'est pas plus probable à l'heure actuelle que celui d'EDF. Autrement dit, n'ont droit à des développements que des scénarios possibles mais aucun de ceux qui apparaissent comme les plus probables. Après avoir cité un intervenant se prévalant de pouvoir déterminer le service attendu et les besoins ainsi que les consommations superfétatoires ou le gaspillage, comme au bon vieux temps du Gosplan, et un autre intervenant déplorant le faible nombre de rapports sur les économies d'énergie comparé aux rapports sur le nucléaire — tout en cherchant à démontrer sur son site l'inutilité des réacteurs nucléaires, on passe aux choses sérieuses et on aborde le fameux exemple allemand.

L’exemple allemand montre qu’une forte diminution de la consommation est possible si l’on met en place les instruments adéquats. Une étude comparative des systèmes énergétiques français et allemand publiée en 2011 par l’IDDRI et l’association Global Chance a montré que la consommation d’électricité « spécifique » – incluant les appareils électriques et l’éclairage, mais excluant le chauffage et le chauffe-eau – par habitant était au même niveau dans les deux pays en 1998. À cette date est instaurée une taxe écologique sur l’électricité dont les recettes sont affectées à l’abaissement des charges sociales sur le travail. L’Allemagne a ensuite connu une augmentation régulière des tarifs de l’électricité, liée à plusieurs effets, aboutissant à un prix du kilowattheure de 27 centimes. « À partir de 2000, l’Allemagne commence à stabiliser sa consommation d’électricité spécifique par habitant dans le logement, tandis que la courbe de la consommation française continue d’évoluer de façon quasi linéaire. En 2010, la différence de la consommation par habitant est de 15 % et de 27 % par ménage Fixer un objectif raisonnable d’économie de l’ordre de 15 % n’a donc rien de scandaleux » (Bernard Laponche).

Pour voir si tout ceci est à la hauteur des enjeux, regardons l'étude en question (p69-70) où on trouve le graphe suivant: elec_specifique_de_fr.jpg

Comme le signalent les auteurs eux-mêmes, ces chiffres n'ont pas le même degré de fiabilité que les autres indicateurs utilisés dans cet article. D’autre part, on constate en Allemagne des variations parfois importantes d’une année sur l’autre alors que la consommation d’électricité spécifique est peu soumise à des variations climatiques. Il est difficile d’expliquer les renversements de tendance observés dans le cas de l’Allemagne et il faut prendre les statistiques concernant les consommations d’électricité spécifique avec prudence.

Regardons toutefois l'impact d'une diminution de 15% de la consommation d'électricité spécifique française telle qu'elle nous est présentée. En France, il y environ 65M d'habitants, une consommation de 1200kWh par an et par habitant représente donc une consommation totale annuelle de 78TWh. En 2008, selon Eurostat, la consommation totale d'électricité en France a été d'un peu moins de 433TWh. La consommation d'électricité spécifique par les ménages représente donc un peu moins de 20% de la consommation totale d'électricité. Une réduction de 15% de cette consommation représenterait donc une baisse de 3% de la consommation totale d'électricité. Même si c'était jusqu'alors un des postes de consommation les plus dynamiques en France, cela semble très insuffisant pour obtenir une forte baisse de la consommation d'électricité.

On peut aussi se demander si les données sur lesquelles se fonde Global Chance reflètent bien la réalité. Sur le site de l'association AG Energibilanzen, on peut trouver un document détaillant les consommations énergétiques des ménages. On y trouve ce tableau (p20) qui résume l'ensemble, où la consommation d'électricité spécifique est donnée par la somme des 5 dernières colonnes. elec_specifique_de_realiste_2011.jpg On voit que la consommation d'électricité spécifique est de 389.2 PJ annuels; avec une population allemande d'environ 82M d'habitants, cela donne environ 1300kWh par an et par habitant. On peut constater que c'est tout à fait comparable à la consommation française. Ce n'est pas très étonnant: dans ce domaine la consommation est déterminée par les standards appliqués aux appareils électriques, comme le montre l'exemple des États-Unis. Or, ces standards sont déterminés au niveau européen et sont de ce fait les mêmes pour la France et l'Allemagne.

Cette conclusion est d'ailleurs assez logique: en Allemagne, la quasi absence du chauffage électrique fait que l'essentiel de l'électricité consommée par les ménages est de l'électricité spécifique. Les données de l'AGEB montrent que la consommation des ménages par personne en 2011 était d'environ 1670kWh (ce qui est cohérent avec les données d'Eurostat). Autrement dit, les ordres de grandeur ne collent pas avec le graphe de Global Chance.

Denis Baupin enchaîne:

À l’arrivée, le ménage allemand paie son kWh électrique plus cher que le ménage français, mais en consomme moins, ce qui conduit à des factures du même niveau de part et d’autre du Rhin. À l’occasion du débat sur la transition énergétique (DNTE) le rapport adopté par le groupe de travail « compétitivité » avait d’ailleurs montré que la part des revenus consacrés par les ménages français et allemands à leur éclairage et à leur chauffage était exactement la même : 4,8 %.

La première affirmation est totalement fausse. Tellement que, devant la commission sénatoriale, Global Chance avait reconnu que les Allemands payaient plus par habitant que les Français. Certes, les ménages français comptent en moyenne plus de membres, mais cela ne suffit pas à combler la différence. On peut même se référer aux organismes statistiques habituels pour récupérer les données et obtenir le graphe suivant: depense_elec_fr_de.jpg On constate que l'état des choses s'est inversé entre le début des années 2000 et aujourd'hui. À cause de la forte hausse des prix de l'électricité en Allemagne, les ménages allemands ont vu leur facture pratiquement doubler. Cela a fait plus qu'effacer la différence de dépense qui existait jusque là à leur avantage du fait de la plus forte consommation française. En 2012, année froide et donc de forte consommation d'électricité par les ménages, un ménage français a consommé en moyenne presque 5600kWh alors qu'un ménage allemand n'a consommé que 3370kWh. Un tel développement montre surtout que l'électricité est un bien dont l'élasticité prix à court et moyen terme est très faible: même une forte hausse du prix ne suscite qu'une faible baisse de la consommation. Dans ces conditions, la hausse du prix se traduit directement par une hausse presque équivalente de la dépense.

Quant à la deuxième affirmation, elle n'a que peu à voir avec l'électricité. D'une part, en Allemagne, l'électricité est très peu utilisée pour le chauffage et comme on peut le constater sur la décomposition des consommations d'énergie, ce sont le gaz et le pétrole qui représentent l'essentiel des quantités consommées pour l'éclairage et le chauffage. De même, en France, l'inclusion du chauffage donne une place importante à d'autres vecteurs d'énergie que l'électricité. Une telle donnée relève donc de l'enfumage.

Après quelques considérations sur les travaux qui permettent de faire des économies d'énergie mais sans aucune considération pour les coûts de ces travaux qui les rendent non rentables aux prix actuels de l'énergie, Denis Baupin passe à l'accusé habituel des écologistes: le chauffage électrique.

3. Limiter l’utilisation de l’électricité à ses usages « nobles » ?

Les progrès de l’efficacité énergétique permettent de diminuer la consommation électrique et ouvrent ainsi une voie vers la réduction de la dimension du parc nucléaire français. Ils permettent également de corriger les défauts du système électrique français actuel, marqué par gaspillages significatifs.

D’une part, le rendement thermique des centrales nucléaire, d’environ un tiers, est très bas en comparaison des autres moyens de production. « Dans la production nucléaire actuelle, le volume d’énergie lié au rendement des centrales, sous forme de chaleur, est perdu. Il représente 830 milliards de kilowattheures, soit plus que le chauffage de tous les logements et les bâtiments tertiaires de France » (Thierry Salomon).

Cet argument est habituel chez les écologistes. Il consiste à constater que la transformation de la chaleur en travail a forcément une efficacité inférieure à 100%, sévèrement limitée par le second principe de la thermodynamique. Cependant, ceci n'a pas forcément d'importance pour les consommateurs: cette efficacité n'est qu'un des composants du coût de l'électricité et ne dit rien de la pollution engendrée. Faisons une expérience de pensée: une source d'énergie permet de produire de l’électricité très peu chère et très peu polluante mais via un procédé qui n'utilise qu'une faible part de l'énergie disponible. Faut-il s'en priver pour cette dernière raison? La réponse est clairement non.

L'électricité nucléaire a pour caractéristique d'être peu sensible au prix de l'uranium et donc à l'efficacité de conversion de la chaleur en électricité, contrairement à ses concurrents le gaz et, dans une mesure un peu moindre, le charbon. Ceux-ci sont aussi tenus par des normes anti-pollution qui rendent attractives une moindre consommation de combustible. C'est ainsi que ses sont développées les centrales à gaz à cycle combiné — qui atteignent 60% d'efficacité — et les centrales super-critiques au charbon — qui dépassent les 40%. Ces efforts sont cependant insuffisants lorsqu'on considère les problèmes climatique et d'effet de serre, par exemple.

On peut aussi constater que d'autres procédés sont comptés comme ayant une efficacité de 100%, mais uniquement parce qu'ils utilisent une source qui n'est pas directement payante. Ainsi, l'énergie éolienne a une limite physique de 60% pour la récupération du flux d'air, dont la technique permet de récupérer les trois quarts pour une efficacité de l'ordre de 45%. Les cellules photovoltaïques commercialisées ont un rendement de conversion compris entre 5% et 20%. Cela n'en fait pas pour autant un mauvais mode de production d'électricité.

D’autre part, l’utilisation massive des chauffages électriques explique que la pointe électrique française soit sans commune mesure avec celle des autres pays européens, la Norvège exceptée. « Notre scénario prévoit, par ailleurs, un glissement vers beaucoup moins de chauffage à effet Joule, qui est le problème du réseau actuel. RTE, qui vient de refaire ses calculs, a évalué la sensibilité électrotechnique à 2 400 MW par degré : autrement dit, à chaque fois qu’en hiver la température baisse d’un degré en France, il nous faut mettre en marche deux réacteurs et demi de 900 MW. Vous savez que cette sensibilité électrotechnique est une malheureuse caractéristique française : nous avons la moitié de la sensibilité électrotechnique de l’Europe. Si on baisse cette valeur-là par une politique d’efficacité énergétique, de transfert vers des usages beaucoup nobles de l’électricité et vers d’autres énergies, on retrouvera une marge de manœuvre. Dans notre scénario, nous redescendons cette consommation maximale sur l’ensemble du réseau aux alentours de 60/70 GW, donc bien en dessous des records que vous connaissez, qui sont à 110 GW » (Thierry Salomon).

Les caractéristiques françaises du mix électrique ne sont donc pas si favorables qu’annoncées, dans la mesure où l’importance de la pointe électrique requiert la mise en marche de moyens de production thermiques fortement émetteurs de gaz à effet de serre.

Mezzo voce, Denis Baupin tente d'accréditer l'idée que le chauffage électrique est plus polluant que les autres options. Comme je l'avais remarqué, il n'en est rien, au contraire, le chauffage électrique provoque relativement peu d'émission de CO₂. J'avais estimé qu'il était responsable de 15% des émissions de CO₂ dus au chauffage des logements, alors que la part de marché du chauffage électrique est autour de 33%. Denis Baupin fait ici usage d'une technique bien connue qui consiste à insister sur des évènements relativement rares — les pointes de demande — pour ignorer la situation moyenne. Cette situation moyenne est forcément bonne, puisque les émissions globales du système électrique français sont parmi les plus basses au monde rapportées à la production.

On peut certes souhaiter que les pompes à chaleur se développent: elles permettent déjà que le chauffage électrique soit pratiquement imbattable en termes d'émissions rapporté au service rendu. Cependant, cela ne dit rien quant à la proportion d'énergie nucléaire souhaitable. Après tout, les écologistes disent que c'est le chauffage électrique qui force à conserver nombre de centrales à combustible fossile. Son déclin devrait donc plutôt entraîner la diminution de la part des énergies fossiles que celle du nucléaire.

La mise au point de business models pour l’efficacité énergétique, en s’inspirant par exemple des dispositifs existant chez nos voisins, constitue néanmoins aujourd’hui une priorité pour la réalisation d’objectifs volontaristes. La réflexion devra aboutir rapidement afin d’accélérer la maîtrise de la consommation énergétique et notamment un rythme de rénovations thermiques encore loin d’être suffisant. À défaut, il pourrait être tentant de présenter la prolongation de tout le parc nucléaire comme une option qui s’imposerait. Ce serait toutefois une solution de facilité qui priverait la France d’une véritable transition énergétique. Le jeu en vaut pourtant la chandelle tant les scénarios produisent des effets très positifs sur l’emploi.

Malheureusement pour Denis Baupin, il y a peu de rénovations par rapport à ses espérances parce que les prix de l'énergie ne sont pas assez élevés. Pour en avoir plus, il faudrait augmenter fortement le prix de l'énergie en France — et pas seulement de l'électricité! — ce qui fait qu'au total, les Français dépenseraient plus. Non seulement, ils paieraient plus cher pour leur électricité — et le reste — comme le montre l'exemple allemand, mais ils devraient aussi payer ces fameuses rénovations.

On ne peut aussi que se demander ce que Denis Baupin compte faire des 33% de logements chauffés à l'électricité. Ces logements n'ont souvent aucune arrivée de gaz, l'électricité est donc la seule façon de les chauffer, à moins d'engager des dépenses pharaoniques. De plus, comme on l'a vu, ils provoquent relativement peu de pollution, notamment d'émissions de CO₂. Proposer un état final qui lui paraît favorable est une chose, encore faudrait-il proposer une façon réaliste d'aller de la situation actuelle à cet état final. C'est pourquoi il n'est pas sérieux de présenter comme probables des scénarios où le chauffage électrique n'existerait plus; au contraire, la consommation d'électricité par habitant en France restera durablement plus élevée qu'ailleurs.

Bref, Denis Baupin fait reposer son plaidoyer pour le scénario qui a sa préférence sur des faux-semblants voire des mensonges, ignore totalement la situation actuelle et les difficultés pour parvenir à la situation qui a sa préférence. Le reste de son rapport est peut-être excellent, mais sa justification du scénario qui a sa préférence laisse plutôt penser que c'est une redite de la commission d'enquête sénatoriale d'il y a 2 ans, en pire!

22 septembre 2013

De la réduction de la consommation d'énergie finale de 50% d'ici 2050

Vendredi dernier, François Hollande a annoncé son objectif de voir la consommation finale d'énergie — celle payée par le consommateur final — divisée par 2 d'ici 2050. Je suis fort sceptique que cet objectif puisse être réalisé et certain qu'il est néfaste, ce qui ne doit pas surprendre mes lecteurs réguliers.

Pour bien comprendre à quel point cet objectif est irréaliste, il faut se rappeler que, dans le scénario central du gouvernement allemand, il n'est prévu qu'une baisse de 40% (tableau 1 p7). À ceci, il faut ajouter que la population est attendue en baisse d'un peu plus de 10% (tableau 2-2, p80); en conséquence, la baisse de consommation d'énergie finale par habitant est d'environ 1/3. En France, il est communément admis que la population augmentera d'environ 10% d'ici 2050, l'objectif présidentiel se traduit par une baisse de 55% de la consommation par habitant. L'Allemagne a décidé de s'embarquer vers un modèle où l'essentiel de son énergie proviendrait de sources renouvelables et a exclu de recourir au nucléaire, ce qui limite les quantités disponibles — quoique 15% d'importations d'électricité soient par exemple prévues. Cette simple comparaison devrait amener à avoir des doutes sérieux sur l'éventuelle réflexion qui a précédé cette annonce, ou alors sur les scénarios allemands.

Les sources ne sont pas bien difficiles à trouver, le fameux débat, dont on a dit pis que pendre ici-même, fournit tout de même quelques documents dont un résumant les scénarios considérés. On y voit p8 la liste des scénarios qui correspondraient plus ou moins à l'objectif présidentiel, leurs supporters rassemblent essentiellement des associations écologistes, l'ADEME, ainsi que le gestionnaire du réseau de gaz — point qui peut étonner quand on sait qu'il doit être question de réduire les émissions de gaz à effet de serre. Le groupe de scénarios "Sobriété" est représenté entre autres par le scénario négaWatt où il s'agit d'abord d'être contre le nucléaire et de tout faire pour l'éviter. (On peut lire ma critique de scénario,celle de Sauvons le Climat, ainsi qu'une critique de la partie «biomasse»). Le groupe de scénarios "Efficacité" compte notamment l'ADEME (critique personnelle & celle de Sauvons le Climat, publiées avant que les documents complets ne soient rendus publics). Ces scénarios ont pour caractéristiques communes une contrainte importante placées sur les citoyens: impossible de se déplacer comme on le souhaite, le secteur des transport est soumis à des limitations draconiennes pour quelqu'un vivant en 2013. Des hypothèses bizarres sont faites, ainsi point de développement des deux-roues à moteur pour l'ADEME d'ici à 2030, alors qu'avec la forte hausse du prix du pétrole, ils s'étaient quelque peu développés. Il n'y a pas d'étalement urbain, la surface habitable par habitant est constante — elle a augmentée d'un tiers entre 1984 et 2006 (p129) —, ce qui implique un zonage très strict et des problèmes pour les jeunes générations, les vieux ayant tendance à rester dans leurs grands logements une fois les enfants partis. Bref, les prix élevés de l'immobilier sont garantis dans ce type de scénario. On mange aussi suivant les préconisations de la FAO, c'est à dire nettement moins de viande et plus de petits pois. Dans le même esprit, le système électrique est équilibré de façon quasi-magique en utilisant de fortes doses de sources fatales intermittentes. Il semble ainsi que la manip' qui permet au système électrique d'être équilibré dans le scénario de l'ADEME, c'est qu'un filtre passe-bas limite les fluctuations de l'éolien en mer (p206 du document technique de l'ADEME). On peut dire que c'est un cocktail détonnant d'ingénierie sociale et d'hypothèses audacieuses sur les sources mobilisables, dont rien ne dit que les citoyens et les entreprises les acceptent et les mettent en œuvre.

Pour donner une idée de la contrainte à placer sur la consommation d'énergie, on peut se tourner à nouveau vers l'Allemagne. Comme on le sait, les prix de l'électricité pour les petits consommateurs ont fortement augmenté sous l'effet de l'introduction de la Stromsteuer et de l'explosion de la taxe «renouvelables». Ils sont passés de 14 cents/kWh en 2000 à 26 cents/kWh en 2012 (source: BDEW, p41), soit presque une multiplication par 2. Dans le même temps, la consommation d'électricité par les ménages et le secteur tertiaire, impactés de plein fouet par la hausse des prix, a augmenté de 7% (Source: AG Energiebilanzen p30). En France, les prix sont passés de 12 à 14 cents/kWh et la consommation a augmenté de 25% pour un périmètre comparable. On voit que la consommation d'électricité ne répond que faiblement aux hausses de prix, par ailleurs tous les nouveaux objets ou presque en utilisent. Or, la production d'électricité est fortement contrainte dans les scénarios préférés du Président Hollande. Un rationnement n'est donc pas à exclure.

On pourrait penser que, comme ces déclarations portent sur un terme éloigné où François Hollande aura 96 ans, ces déclarations n'engagent à rien. Malheureusement, elles ont probablement une importance certaine, au contraire. Estimer que la consommation finale va baisser de 50% d'ici 2050 a des conséquences sur les investissements à faire aujourd'hui: pas besoin de capacité électrique pilotable supplémentaire, par exemple. Or, il s'avère que si la croissance repartait, il est fort possible selon RTE qu'on ne puisse éviter un black-out lors des hivers 2016 et 2017. Il faut aussi prendre en compte le fait que construire des centrales électriques, des lignes haute tension, des réseaux de chaleur, tout cela prend du temps et de plus en plus, à cause des consultations qui ne cessent de s'allonger pour les projets d'infrastructure. Si le gouvernement, forcément impliqué dans ces décisions, sous-estime gravement la demande, une pénurie est inévitable car le temps manquera pour construire les infrastructures nécessaires. En fait, estimer que ces déclarations n'ont aucune importance, c'est penser que les transitions énergétiques sont rapides et qu'on peut facilement changer de direction à tout moment. Rien n'est plus faux: historiquement, les nouvelles sources d'énergies ne se sont imposées que lentement, sur plusieurs décennies. Des pays de taille raisonnable comme la France peuvent aller plus vite, mais cette prégnance du long terme reste: dans le secteur électrique, la construction du parc nucléaire qui domine la production d'électricité a été décidée il y a maintenant 40 ans, sa réalisation a pris 20 ans pour l'essentiel. Il en va de même pour le chauffage: de nombreuses maisons restent chauffées au fioul alors que ce dernier n'est plus compétitif au vu des cours actuels, les chaudières gaz à veilleuse sont restées longtemps sur le marché — et sont sans doute toujours en usage — alors que celles à allumage électronique sont plus économiques au total. Il est donc sans doute de bon ton de prévoir une marge sur la consommation d'énergie: il est tout de même nettement plus simple de s'abstenir de construire quelque chose dont on n'a finalement pas besoin que de s'agiter en toute hâte parce qu'une pénurie s'est révélée.

De même, se reposer sur des technologies n'ayant aucune application actuellement, même sous la forme de prototypes est dangereux. Ces installations sont très populaires car parées de toutes les vertus, elles bénéficient en quelque sorte de la prime au rêve: ces installations ont pour principal avantage que personne ne les a vues en vrai ni n'a payé pour. On trouve dans ce genre d'infrastructure le stockage de l'électricité ou, dans un autre registre, les réacteurs au thorium. Il apparaît ainsi que le stockage le plus facile de l'électricité peut se faire via la production de chaleur, aussi connue sous le nom de chauffage électrique. Il semble que malheureusement, l'intersection de l'ensemble des supporters des énergies intermittentes et des supporters du chauffage électrique est vide. Même pour les installations qui n'existent qu'à l'état de prototypes ou connaissant un fort développement, rien n'assure qu'on pourra les déployer à plus grande échelle. Des limites fortes existent aussi pour les énergies renouvelables. Par exemple, 40% du maïs américain et 14% du soja servent à produire de l'éthanol pour une proportion dans l'essence aux USA de 10% seulement. En Allemagne, les cultures destinées à l'énergie représentent déjà 17% de la surface agricole utile. De l'autre côté, le 21e siècle a surtout vu le retour du charbon comme source importante d'énergie, y compris en Europe. Cela veut dire qu'il vaut mieux partir pour diminuer les émissions de CO₂ avec des technologies qui ont déjà fait en grande partie leurs preuves (nucléaire, réduction de la consommation des moteur automobiles…) et qui ont encore une grande marge de progression, quitte à intégrer les nouveautés par la suite, plutôt que de faire le pari de l'apparition d'une technologie miracle.

Au fond, il me semble que cette déclaration confirme que les mauvais traits de la politique énergétique de François Hollande que je craignais dès l'hiver 2011. Il fait des déclarations, en partie pour faire plaisir à ses alliés écologistes, en partie parce qu'il a été convaincu, mais leur réalisation concrète est hautement improbable: l'effort à réaliser est inouï. Un effort comparable à celui de l'Allemagne correspondrait, compte tenu des évolutions démographique, à une baisse limitée à 20% de la consommation d'énergie finale, ce qui correspond aux scénarios écartés. Appliquée telle qu'annoncée, la politique ne laisse aucune marge de manœuvre, sauf à prévoir de rater la cible en termes d'émission de CO₂. Il se trouve qu'on ne peut pas non plus écarter ces déclarations d'un revers de main, car l'approvisionnement en énergie de la France de 2050 se décide en partie aujourd'hui.

5 juin 2013

Delphine Batho raconte n'importe quoi

Alors que le débat organisé par le gouvernement sur l'énergie tire à sa fin et que la CRE publie un rapport qui suggère d'augmenter fortement les tarifs de l'électricité, Delphine Batho donne une interview au Figaro, intitulée Consommer moins d'énergie fabriquera de la croissance. On ne peut que regretter qu'elle y dise en grande partie n'importe quoi.

Elle nous déclare donc, dès la première question, que la nouveauté, c'est que l'investissement dans la réduction de la consommation d'énergie fabriquera de la croissance. Il y a deux façons de comprendre cette phrase, qui mène à deux impasses différentes. La première, c'est que les investissements dans les économies d'énergie permettent de diminuer la quantité d'énergie nécessaire pour créer un 1€ de PIB. En d'autres termes, il s'agit de gains de productivité, qui n'ont absolument rien de nouveau. En 1851, Jevons avait déjà constaté qu'en fait la consommation totale d'énergie augmentait de ce fait dans son livre The Coal Question. La deuxième, c'est que grâce à ces investissements, on aura à la fois croissance et baisse de la consommation d'énergie. Il y a de fortes raisons d'en douter: la croissance économique s'est historiquement toujours accompagnée d'une croissance de la consommation d'énergie (comme on peut le constater là). Il faudrait pour cela que les gains de productivité soient supérieurs à l'effet de rebond, ce qui suppose entre autres une nette accélération des gains de productivité ou que les nouvelles activités dépensent très peu d'énergie, ce qui est très peu probable, toute activité économique se basant sur une transformation de l'existant. Bref, soit D. Batho a découvert un des faits les plus anciennement connus en économie, soit elle tient des propos dont la réalisation est très peu probable.

La donnée du chiffre de 43% d'économie d'énergie dans l'appareil de production en France en est l'exemple parfait: une telle économie d'énergie est peut-être techniquement réalisable, mais elle peut être économiquement néfaste. Pour qu'elle soit bénéfique, il faut que l'investissement nécessaire coûte moins que les dépenses d'énergie évitées. Or c'est là toute la question des économies d'énergie: dans des secteurs concurrentiels, les entreprises ont intérêt à minimiser leurs coûts, ne serait-ce que pour survivre. C'est ainsi qu'on a vu les dépenses énergétiques pour produire une tonne d'aluminium ou d'acier se réduire. Mais si ces investissements ne se font pas, c'est bien souvent qu'ils ne sont pas rentables. Et ils le sont d'autant moins que l'énergie est bon marché, vanter ces possibilités d'économies est donc contradictoire avec le fait de se plaindre de la hausse structurelle du coût de l'énergie. Les mêmes remarques valent aussi pour les particuliers: les investissement pour réduire la consommation du chauffage ne sont rentable qu'à partir d'un certain niveau de prix, lorsque les remboursements d'emprunts sont moins lourds que les dépenses évitées. En fait cela signifie que le pouvoir d'achat est sans nul doute inférieur à celui qui prévalait avant la hausse des prix de l'énergie qui s'est produite depuis 2005.

La ministre nous gratifie ensuite d'un magnifique mensonge. Elle affirme qu'en Allemagne, le kilowattheure y est 87 % plus cher qu'en France, mais grâce aux économies d'énergie sous toutes leurs formes, la facture du consommateur est en moyenne moins élevée. On peut déjà tracer l'origine de ce mensonge: j'en ai déjà parlé au moment où un sénateur Vert a remis le rapport de sa commission d'enquête. Tout part d'une enquête statistique réalisée en 2005 — nous sommes en 2013 — dans tous les pays européens via un suivi de ménages. Cette enquête rapporte des résultats surprenants quant à l'énergie. Tellement que ces résultats ne collent absolument pas avec les résultats qu'on peut tirer des comptes nationaux, et que Global Chance, pas vraiment connue pour ses positions favorables à la politique énergétique française, reconnaît que la facture des Allemands est supérieure à celle des français. J'avais à l'époque tiré le graphe ci-dessous des données de comptes nationaux tels qu'on pouvait les extraire d'Eurostat: Dépenses énergies pour les logements en 2010 On y voit clairement que les dépenses par habitant sont plus faibles en France qu'en Allemagne, que ce soit globalement en incluant toutes les sources d'énergie, qu'en prenant en compte la seule électricité. Comme je ne peux imaginer que D. Batho n'ait pas été correctement briefée sur la question par son administration, il ne reste que l'hypothèse du mensonge.

L'interview se poursuit avec l'inévitable question de Fessenheim, où la ministre se propose de diminuer autoritairement le PIB de la France en fermant une usine rentable. Elle justifie la fermeture de Fessenheim par l'ouverture de la centrale de Flamanville. Mais la construction de l'EPR de Flamanville a été lancée pour faire face à l'augmentation de la demande en électricité. À cause de la crise, la croissance de la demande a été plus faible que prévu, car la chute de la consommation des industries a masqué la hausse continue de la consommation de la part des particuliers et des petites entreprises de services. Mais si la chute de l'industrie s'arrête, la hausse de la demande d'électricité reprendra. À tel point que RTE prévoit un manque de capacité pour les pointes extrêmes de consommation à partir de 2016. L'autre justification est la dépendance au nucléaire et au parc standardisé français. Le problème est alors qu'on ne voit pas bien la différence entre produire 50% et 75%: en cas de défaillance généralisée, la pénurie d'électricité serait extrêmement grave. La seule solution est alors descendre encore plus bas! Elle affirme enfin que nous n'avons pas vocation à faire moins de nucléaire pour faire plus de CO₂. Or il s'avère que les simulations sérieuses montrent qu'en fait une baisse du nucléaire se traduira forcément par une hausse des émissions de CO₂.

Sur la question du gaz de schiste, D. Batho traite le gaz d'énergie du XIXᵉ siècle, alors que l'expansion du gaz date de la deuxième moitié du 20ᵉ siècle, entre 1965 et 2011, la consommation a été multipliée par plus de 5; la consommation a augmenté de presque 50% ces 15 dernières années. gaz_conso_1965-2011.jpg À la question suivante, pourtant, cette énergie datée trouve grâce à ses yeux, puisqu'elle va empêcher les centrales au gaz de fermer! Elle annonce aussi un statut spécial pour les gros consommateurs industriels et des mesures de compétitivité pour eux. On pardonnera les faibles mortels qui ont du mal à comprendre comment les deux déclarations sont conciliables. L'interview se termine sur la reprise du leitmotiv comme quoi le diesel est un problème de santé publique: comme il fallait s'y attendre, la hausse des taxes à venir sera justifiée par des raisons de santé publique inexistantes et non par les véritables raisons, qu'il n'existe aucune raison à cet avantage et qu'une hausse des taxes est une excellente façon de faire baisser les consommations de carburants.

Pour conclure, ce n'est pas cette interview qui va me faire changer d'avis sur la politique du gouvernement en matière d'énergie ni sur Delphine Batho. Il faut dire que la ministre est confrontée à des demandes contradictoires, au milieu desquelles il est difficile de surnager. Vouloir limiter la hausse des prix de l'énergie, grandement déterminés sur des marchés mondiaux, est impossible, surtout quand en plus, on subventionne les énergies renouvelables comme le solaire et l'éolien, plus chère que le parc de production existant. De même, réduire la part du nucléaire s'accompagnera selon toute probabilité d'une hausse des émissions de CO₂ dans la production d'électricité. Elle se retrouve à condamner le gaz à une question avant de lui trouver de nombreuses vertus à la suivante. Tout ceci montre bien que le fameux débat n'a rien éclairci, comme prévu, et que la politique de ce gouvernement est minée par des cadeaux idiots aux Verts et des promesses intenables sur les prix de l'énergie. Les mensonges et les demi-vérités sont alors la seule issue de la communication politique.

16 avril 2013

L'électricité, l'avenir du chauffage (2e épisode)

Après avoir regardé la situation présente du chauffage électrique en France, qui n'a rien d'une horreur écologique, au contraire, je vais me tourner vers la question de l'avenir. En effet, si la situation présente est bonne, c'est largement dû aux politiques menées par le passé, parfois très lointain comme quand il s'est agi de construire des barrages. La question de savoir si ajouter encore du chauffage électrique est la chose à faire, notamment en ce qui concerne les émissions de CO₂.

Quid du futur?

Si pour l'eau chaude sanitaire, il reste sans doute de la place la nuit pour que le bilan carbone soit largement positif, pour le chauffage électrique la situation est différente puisque tout le potentiel nucléaire et hydraulique installés sont utilisés en hiver. On a pu aussi constater que la construction de centrales nucléaires n'est plus tout à fait une spécialité locale. Pour arriver à faire un bilan des émissions probables en cas de hausse de consommation via le chauffage électrique, il faut faire quelques hypothèses sur les moyens de production qui vont servir pour la couvrir.

Une autre étude de l'ADEME s'est essayée à cet exercice, pour conclure à un contenu marginal en CO₂ de 500 à 600g/kWh. Cependant, cette étude faisait l'hypothèse que l'électricité circule sans contrainte sur tout le réseau européen, hypothèse qui est grossièrement fausse. Si c'était vraiment le cas, EDF aurait tout intérêt à augmenter la disponibilité de son parc nucléaire de façon importante en été. EDF n'aurait aussi aucune raison d'arrêter ses centrales nucléaires pendant les vacances de Noël lorsque le vent souffle. C'est pourtant ce qu'on a constaté pas plus tard que pour les congés de fin 2012. Comme la construction de lignes THT prend énormément de temps et fait partie des projets d'infrastructures les plus impopulaires, il est en fait plus réaliste de faire l'hypothèse que toute consommation supplémentaire sera couverte par de nouveaux moyens construits en France.

Il semble que la situation sur d'éventuels moyens de production supplémentaires soit la suivante:

  • L'éolien et le photovoltaïque sont subventionnés et la puissance installée augmente de ce fait. Pour d'évidentes raisons, le photovoltaïque ne sert à rien pour le chauffage.
  • Pas de centrale nucléaire nouvelle à l'horizon. Le charbon et le fioul semblent, en France, se diriger vers la sortie suite à des directives européennes.
  • Le gaz est le moyen de production fossile de choix, appelé pour couvrir ce qu'on ne veut pas ou ne peut pas couvrir avec le reste.

Pour les besoins de cette estimation, je fais l'hypothèse que le surcroît de production serait couvert par entre un tiers et un quart d'éolien et le reste de gaz. L'éolien ne peut pas tout couvrir du fait de son intermittence. Cela conduit à des émissions pour tout kWh de chauffage supplémentaire comprises entre 240g et 270g: le gaz est compté comme émettant 360g/kWh. Pour être équivalent à un chauffage au gaz en termes d'émissions de CO₂, il faudrait alors que la consommation finale d'électricité pour le chauffage soit limitée entre 75 et 80% de celle d'un logement au gaz. Comme en France, il existe un rapport moyen de 2.58 entre l'énergie primaire et finale pour l'électricité, cela correspond à une limite en énergie primaire quasiment 2 fois plus élevée pour l'électricité.

C'était en gros la logique qui prévalait avant le changement de réglementation thermique de 2012. Par exemple, la réglementation de 2005 prévoyait les limites suivantes: rt2005.jpg Il s'avère que la RT2005 s'est révélée très favorable au chauffage électrique puisqu'entre 2006 et 2008 plus de 70% des logements construits étaient dotés d'un chauffage électrique (cf Bilan prévisionnel 2012 de RTE, p9). La situation s'est depuis inversée avec la RT2012 qui prévoit une limite uniforme en énergie primaire quelque soit le type d'énergie mais variable selon les zones géographiques. RT2012.jpg

L'expérience de la période 2006-2008 semble donc montrer qu'il est possible que l'électricité soit économiquement compétitive même si on veut qu'elle n'émette pas plus de CO₂ au m² que le gaz. Le coût modique des radiateurs permet de dépenser plus en isolation. Le problème principal est en fait d'éviter le charbon dans la production d'électricité, or il n'est plus question de construire de nouvelles centrales au charbon en France, mais bien de fermer les plus vieilles, construites dans les années 60 et 70.

Le miracle de la pompe à chaleur

Comme mentionné plus haut, la RT2012 a mis fin à la domination du chauffage électrique dans le neuf, pour le moment du moins. Avec le ratio primaire/final de 2.58 pour l'électricité, il suffirait à une centrale au gaz d'avoir un rendement d'environ 45% pour que le chauffage électrique par effet joule soit plus efficace en termes d'émissions de CO₂ qu'un chauffage utilisant une chaudière murale. Or, il s'avère que les centrales au gaz peuvent atteindre des rendements de 60%, le coefficient d'émissions de RTE suppose d'ailleurs un rendement de l'ordre de 55%. Le problème c'est qu'au bout d'un moment, il devient plus rentable d'installer une chaudière murale et le circuit d'eau chaude qui va avec que d'isoler encore plus, à supposer que ce soit encore possible.

Une autre question qui peut se poser est peut-on émettre moins de CO₂ en se chauffant uniquement à l'électricité, à isolation comparable à un chauffage au gaz, mais en brûlant uniquement du gaz pour produire d'électricité? Encore une fois, la réponse est oui, en utilisant une pompe à chaleur. On s'aperçoit bien qu'avec les conditions données dans la question, il est impossible d'y arriver en dissipant l'énergie électrique dans un radiateur par effet joule: le second principe de la thermodynamique et les réalités de construction imposent au rendement d'une centrale au gaz d'être bien inférieur à 100%. Mais ce même principe n'empêche pas la réalisation d'une machine thermique qui permettrait de prendre de la chaleur dans un milieu «froid» pour la mettre dans un milieu «chaud».

C'est l'idée de base de la pompe à chaleur, dont tout le monde ou presque possède un exemplaire sous la forme d'un réfrigérateur. Le principe est en général le suivant:

  1. on fait s'évaporer un liquide, le fluide calorifique, dans un milieu «froid», ce qui a pour effet de transférer de la chaleur de ce milieu froid vers le liquide puisqu'il faut fournir de l'énergie pour vaporiser un liquide.
  2. on compresse le gaz obtenu, ce qui le chauffe aussi. C'est le moment où on a besoin d'énergie mécanique, apportée en général par l'électricité. Ce compresseur permet aussi de faire circuler le fluide calorifique dans le système, sans quoi il ne se passerait rapidement plus rien.
  3. au contact du milieu «chaud», le gaz se condense. C'est possible car même si la température du milieu chaud qui entoure le gaz (le tuyau qui le contient en fait) est plus élevée que celle du milieu froid, la pression est maintenant plus élevée. Cette fois-ci, le gaz transfère de l'énergie au milieu environnant.
  4. le liquide va ensuite dans un détendeur, ce qui a pour effet de refroidir le liquide en même temps que sa pression chute. Le cycle peut recommencer.

La pompe à chaleur doit disposer de fluides calorifiques pour fonctionner de façon pratique, avec des changements d'états judicieusement placés en température et en pression. L'avantage principal de la pompe est qu'on peut extraire de l'énergie d'un milieu déjà froid — ce qui permet la réfrigération — pour la mettre dans un milieu déjà chaud — ce qui permet un effet de levier pour le chauffage. Cet effet de levier est appelé le coefficient de performance ou COP pour reprendre l'acronyme anglais.

Une chaudière murale à condensation a un rendement d'environ 110% PCI — GDF n'oublie pas ce fait et facture en conséquence des kWh PCS qui incluent en sus la chaleur de condensation de l'eau créée par la combustion du gaz! —, ce qui veut dire qu'un système centrale gaz plus pompe à chaleur devient plus performant en termes d'émissions de CO₂ qu'une chaudière si le COP est supérieur à 2 en moyenne sur l'année.

L'office fédéral de l'énergie suisse a publié une note de questions-réponses en collaboration avec le lobby des pompes à chaleur local. En Suisse, les pompes à chaleur sont devenues populaires ces dernières années, si on en croit les statistiques sur le sujet: la part de marché atteint presque 10%. Il ressort notamment du document de l'OFEN le tableau suivant (p7): copa_suisse.jpg On voit que le COP de 2 est dépassé de façon large pour les nouvelles constructions dans tous les cas et de façon un peu moins nette pour les rénovations. On note aussi que des COP de 4 sont dans l'ordre des choses avec des pompes à chaleur basés sur un système géothermique, où on récupère la chaleur du sol via une circulation d'eau. Le système centrale à gaz et pompe à chaleur est alors 2 fois meilleur en termes d'émissions de CO₂ — et donc de consommation de gaz — que la chaudière murale.

Des esprits chagrins me rappelleraient sans nul doute qu'on peut aussi faire tourner une pompe à chaleur avec du gaz. Mais on s'aperçoit vite que plus on produit d'énergie dite mécanique, plus le système est efficace car c'est là que la pompe à chaleur fournit le plus d'énergie. Or, les moteurs classiques on un rendement de l'ordre de 30%, la moitié du rendement d'une bonne centrale au gaz. Lorsque le COP atteint 4, une production d'électricité seule suffit alors à garder l'avantage — sachant qu'on peut aussi faire de la cogénération.

Évidemment, le gaz n'est pas le seul moyen de produire de l'électricité. Si on y ajoute de l'éolien — à la mode en ce moment —, du nucléaire — nettement moins à la mode — et de l'hydraulique, mais qu'on exclut le charbon, le tableau devient totalement en faveur de l'électricité. Les petits calculs ci-dessus s'appliquent d'ailleurs très bien au biogaz qui est avant tout … du méthane, comme le gaz naturel. Bref, les pompes à chaleur sont sans conteste le meilleur moyen de limiter les émissions de CO₂. Ce n'est pas pour rien que dans un scénario allemand 100% renouvelable, pour compléter des éoliennes au facteur de charge surgonflé, le chauffage des habitations ne s'effectue uniquement à l'aide de pompes à chaleur et que rien ne provient de chaudières murales (p23).

Le problème de genre de système réside dans les coûts d'investissement et de fonctionnement. Contrairement à une chaudière murale reliée au réseau de gaz, les coûts d'investissements dans une pompe à chaleur et le réseau électrique sont nettement plus élevés. Et il faut en plus payer les salariés qui s'occupent de faire fonctionner la centrale. Pour répondre à une demande très saisonnière, une installation qui ne demande que peu d'entretien et fonctionne «toute seule» présente des avantages économiques certains.

Conclusion

Il semble donc bien que, contrairement à ce qu'assènent souvent les écologistes, le chauffage à l'électricité soit celui qui préserve le plus notre environnement. En France, la politique passée a fait qu'il existe un parc nucléaire important, doublé d'un parc hydro-électrique. Cela a rendu le chauffage électrique à simples radiateurs efficace sur le plan des émissions de CO₂ grâce à une combinaison avec une isolation renforcée. Les dernières réglementations thermiques interdisent de fait cet arbitrage en plaçant la barre trop haut: il devient financièrement plus intéressant d'utiliser une chaudière à gaz. Cela montre l'inanité d'une réglementation qui se base uniquement sur l'énergie primaire: en voulant minimiser les consommation d'énergie primaire, on n'atteint pas forcément le minimum d'émissions de CO₂. C'est logique: si on veut minimiser les émissions de CO₂, il faut libeller les normes en termes d'émissions de gaz à effet de serre.

C'est d'autant plus dommage que les pompes à chaleur — qui fonctionnent principalement à l'électricité — sont de fait le mode de chauffage qui est le plus prometteur. Cependant, il est à craindre que des réglementations se basant uniquement sur les consommations d'énergie primaire ne permettent pas leur développement. Des calculs d'ordre de grandeur se basant sur les technologies actuelles montrent pourtant qu'en combinant les pompes à chaleur avec les modes de génération de l'électricité qu'on peut raisonnablement envisager de construire en France, le nucléaire, le gaz et l'éolien, on obtient ce qui est sans doute une façon de se chauffer qu'on peut à la fois déployer à grande échelle et compter parmi les plus bénignes pour le climat. On ne peut que se demander pourquoi la réglementation n'encourage pas plus ce qui est d'ores et déjà la 4e source d'énergie renouvelable en France.

15 avril 2013

L'électricité, l'avenir du chauffage (1er épisode)

Chacun a sans doute déjà entendu dire que le chauffage électrique était un scandale et qu'il a été un succès en France grâce à une alliance inattendue entre technocrates partisans du nucléaire et pubards de génie. Une réponse à leurs arguments a déjà été formulée, mais elle est basée sur de vieilles données.

Les opposants au chauffage électrique avancent principalement 3 arguments contre le chauffage électrique: qu'il est inefficace sur le plan énergétique, qu'il émet plus de CO₂ que les autres formes de chauffage et enfin qu'il met en danger la sécurité d'approvisionnement en électricité en créant des pics de consommation très importants. Si ce dernier argument est vrai, le deuxième est faux et le premier n'a en fait pas vraiment d'importance.

Le faux-semblant du gaspillage dû à l'électricité

Pour arriver à dire que le chauffage électrique gaspille de l'énergie, les opposants prennent en compte le processus de fabrication de l'électricité. En effet, avant de nous vendre des produits énergétiques finis qui servent aux particuliers, les industriels partent de matières brutes et perdent une partie du contenu énergétique utilisable dans cette transformation. La plupart des centrales électriques sont des machines thermiques, ce qui fait que leur rendement est sévèrement limité par le second principe de la thermodynamique. Ce rendement change aussi suivant les technologies utilisées et l'âge de la centrale. C'est ainsi que les centrales nucléaires françaises ont un rendement d'un tiers, alors que les centrales à gaz dernier cri peuvent atteindre les 60%.

Pour compter l'énergie techniquement récupérable au départ dans la matière première, on parle d'énergie primaire; pour compter l'énergie effectivement livrée aux clients finals, on parle d'énergie finale. L'énergie finale ne dit pas forcément quelle est la forme la plus utile d'énergie, elle signale juste qu'on est arrivé en bout de chaîne commerciale et que quelqu'un a donc payé pour cette énergie. L'énergie primaire, elle, ne convoie pas du tout le même concept, elle sert surtout à savoir qu'elles sont les matières premières utilisées. Les contempteurs du chauffage électrique comptent bien sûr en énergie primaire quand ils affirment qu'il est inefficace.

Or, la comptabilité en énergie primaire ne dit rien de la difficulté à mettre cette énergie à notre service, ni des autres inconvénients qui s'y rattachent, qui sont les vraies questions qui se posent à une société humaine. En effet, l'énergie est abondante dans l'univers et sur terre — on entend d'ailleurs souvent les contempteurs du chauffage électrique déclarer qu'il faudrait couvrir de panneaux solaires une petite partie de la surface terrestre pour assouvir l'ensemble des besoins de l'humanité —, le problème est de pouvoir en disposer quand et où nous en avons besoin. Cette difficulté à en disposer est généralement traduite dans le prix de vente de l'énergie finale, qui regroupe les salaires et les rentes qu'il a fallu verser pour se la procurer. Parfois, quand il existe une taxe sur la pollution, le prix rend compte de certains inconvénients. Dans le cas de l'électricité, on peut constater que son prix est environ 2 fois plus élevé que celui du gaz, par exemple. Et que c'était pire dans le passé. prix_energies.jpg

Si le chauffage électrique a rencontré un certain succès ces 30 dernières années, c'est donc qu'il permettait de consommer … moins. Le prix supérieur de l'électricité est partiellement compensé par une consommation facturée moindre, état de fait acté par les différentes normes de constructions de bâtiments qui se sont succédées depuis le choc pétrolier et qui obligent les logements chauffés à l'électricité nouvellement construits à consommer moins d'énergie finale que leurs homologues utilisant des combustibles fossiles. De plus, le chauffage par simples radiateurs coûtait peu en investissements de départ, compensé par une isolation renforcée.

Et le CO₂?

Un autre reproche des contempteurs du chauffage électrique est qu'il rejette plus de CO₂ que les autres formes de chauffage. La logique est la suivante: certes, le nucléaire est une production décarbonée, mais il produit tout le temps, ce n'est donc pas lui qui fournit l'électricité du chauffage, nécessaire uniquement en hiver, mais les centrales à combustible fossile. Comme le rendement n'est pas de 100%, le chauffage électrique ne peut qu'émettre plus de CO₂ qu'un chauffage au gaz, par exemple. En prime, alors que le charbon n'est plus utilisé pour chauffer des habitations, des centrales au charbon sont toujours en service en France. Or, les centrales au charbon émettent quasiment 1kg par kWh d'électricité produite contre environ 200g par kWh de gaz facturé.

Cependant, comme le montrent les graphes suivants extraits du bilan de RTE de décembre 2012, les centrales à combustibles fossiles ne sont pas les seules à voir leur production augmenter en hiver. prod_mensuelles_par_secteur.jpg Comme on peut le constater les centrales à combustible fossile produisent très peu lors de la belle saison, leur production augmente d'environ 4 à 5TWh lors des mois d'hiver normaux par rapport à cet étiage bas et les mois d'une rigueur exceptionnelle, comme le mois de février 2012, voient une production augmentée de 7TWh. Mais dans le même temps, la production nucléaire augmente de 10TWh entre l'hiver et l'été et la production hydraulique voit aussi sa production augmenter d'environ 1 à 2 TWh. On constate donc que l'augmentation de la production des moyens décarbonés est donc 2 fois supérieure à celles des centrales à combustible fossile. Comme il peut rester un doute à cause de la forte variabilité des émissions de CO₂ suivant les moyens appelés, il est intéressant de faire un calcul plus détaillé.

Il se trouve qu'en 2005, une étude de l'ADEME a estimé le contenu carbone de chaque kWh électrique suivant l'usage qui en était fait. Elle donne la valeur moyenne de 180g/kWh pour le chauffage électrique. Les émissions de CO₂ associées au kWh moyen étant stables depuis une dizaine d'année autour de 60g/kWh, l'expansion du chauffage électrique ne paraît pas non plus avoir d'effet néfaste et son contenu carbone est sans doute lui aussi resté stable depuis 2005. Les documents qui servent à calculer le bilan carbone estiment les émissions du gaz à environ 200g/kWh et celles du fioul à 300g/kWh. On voit donc qu'en France, utiliser un kWh d'électricité ou de gaz provoquent l'émission d'à peu près la même quantité de CO₂. Mais comme on l'a rappelé plus tôt, les logements chauffés à l'électricité sont plus économes.

On peut même quantifier cela. Pour commencer, l'électricité chauffe un gros tiers des logements actuellement contre un peu moins de la moitié pour le gaz et 15% pour le fioul, ses principaux concurrents. En passant, le graphique suivant (tiré de ce document, p28) montre, en sus de l'essor du chauffage central, que les 40 dernières années n'ont pas seulement été un âge d'or pour le chauffage électrique mais aussi pour le chauffage au gaz. Ce dernier partage certaines caractéristiques communes avec le chauffage électrique: pas de mauvaises odeurs et pollution fortement diminuée, distribution sans effort par un réseau d'adduction. repartition_mode_chauffage.jpg Par ailleurs, un tableau pioché dans cet autre document de l'ADEME (p45) permet de connaître la répartition de l'énergie consommée pour se chauffer, en dehors du bois. On voit que le chauffage électrique consomme seulement 18% de l'énergie consacrée au chauffage alors qu'il représente 35% des logements. chauffage_energie.jpg Du côté des émissions de CO₂, la performance du fioul est très médiocre, alors que la performance des réseaux de chauffage urbain est à remarquer. Il faut dire qu'ils sont souvent alimentés par l'incinération des ordures, du bois ou encore la géothermie. On voit aussi que le chauffage électrique n'est certainement pas une horreur de ce point de vue. emission_CO2_chauffage.jpg

Mais ce n'est pas tout. Le chauffage des locaux n'est pas le seul usage où on a besoin de produire de la chaleur. À part la cuisine qui représente une faible partie de la consommation énergétique des ménages, il y a la production d'eau chaude. Elle aussi a beaucoup augmenté depuis les années 70s; il paraît aujourd'hui incongru de ne pas pouvoir prendre une douche tous les jours chez soi. Dans ce domaine, l'électricité a acquis une position encore plus forte que pour le chauffage, comme on peut le voir ci-dessous (source Bilan Carbone, Tome Énergie §2.6.2.4, p53): ECS_PdM.jpg Une nouvelle fois, en termes de consommation d'énergie finale, il semble que le chauffage à l’électricité soit plus économe. ECS_EFinale.jpg Et la note de l'ADEME attribue une émission de CO₂ de 40g/kWh à la production d'eau chaude sanitaire par l'électricité: il faut dire que cette consommation a lieu le plus souvent en heures creuses tout au long de l'année, là où le nucléaire est archi-dominant dans la production d'électricité française. En conséquence, les émissions de CO₂ sont très basses. On peut aussi noter l'excellente performance des réseaux de chaleur. ECS_CO2.jpg

Enfin, on peut voir la répartition des émissions de CO₂ pour ces usages thermiques. On constate que l'électricité et les réseaux de chaleur ne compte que pour 15%, les combustibles fossiles utilisés directement pour 85%. C'est dû à la fois au prix de l'électricité qui force à l'économiser plus que le gaz, au rendement de 100% du chauffage électrique — une fois passé le compteur, il n'y a pas de pertes pour un usage en chaleur — alors que le chauffage au gaz est toujours handicapé par la présence de chaudières peu efficaces (veilleuses…) dans une bonne partie du parc de logements. Emissions_thermiques_logements.jpg

Conclusion

On peut constater que le chauffage électrique n'a rien eu d'hérétique jusqu'ici en France. L'argumentation se basant sur un prétendu gaspillage dû au passage par l'électricité passent allègrement sur le fait qu'une chute d'eau ou une bise bien fraîche n'ont jamais réchauffé personne et que tout le monde n'a pas la chance d'avoir un réacteur nucléaire à la maison.

Les performances en termes d'émissions de gaz à effet de serre sont tout à fait honorables par rapport à ce qui se faisait à la même époque dans les logements chauffés autrement. Bien sûr, à la suite du durcissement des normes de construction, les logements chauffés au gaz nouvellement construits sont meilleurs de ce point de vue que les logements chauffés à l'électricité construits dans les années 70. Dans le deuxième épisode, je regarderai quelles sont les perspectives.

10 janvier 2013

Un peu de comptabilité: quel coût pour le courant produit par l'EPR de Flamanville?

En décembre dernier, EDF a annoncé que l'EPR en construction actuellement à Flamanville coûterait encore plus cher que précédemment estimé, avec un coût prévu de 8G€ (en euros de 2007) soit environ 8.5G€ en euros de 2012 (c'est-à-dire en prenant en compte l'inflation). Cette annonce a suscité une révision des estimations de coûts du courant produit, comme celle de Bernard Laponche, de Global Chance, qui donne une fourchette de 100 à 120€/MWh. Cette estimation sert depuis au Monde de référence à confronter aux déclarations des politiques.

Cependant, ce genre de calculs est notoirement dépendant des hypothèses prises. Souvent ces estimations se servent de conventions, qui ne sont pas forcément réalisées ou qui mènent à des conséquences surprenantes. À partir du rapport de la Cour des Comptes de l'an dernier, on peut essayer de se faire une idée de ce que recouvrent ces estimations.

Les coûts d'exploitation

Dans son rapport, la Cour donne un coût d'exploitation du parc actuel de 22€/MWh (p55), hors démantèlement, stockage des déchets et avec une facture d'assurance très faible grâce au cadre légal actuel. L'EPR est censé avoir un meilleur rendement thermodynamique que le parc actuel, cela ferait gagner 0.5€/MWh produit. Le facteur de charge — le rapport entre la production réelle et le maximum possible dans l'année — est aussi annoncé à 90% comme meilleur que pour la moyenne du parc français — environ 75% — et plus proche des standards internationaux. Ce genre de performance est réalisée à l'étranger sur des réacteurs plus anciens et le meilleur rendement permettra à l'EPR d'être pratiquement tout le temps en tête de l'ordre de mérite du parc thermique: il y a donc de bonnes chances que le facteur de charge soit bien de 90%. Ce qui devrait entraîner une baisse de 15% de tous les autres coûts, soit environ 2.5€/MWh produit.

Le nouveau réacteur permettra sans doute aussi des économies sur le personnel, en diminuant le nombre de personnes requises. Cependant, il est difficile de se faire une idée sur les achats à l'extérieur pour assurer la maintenance. On est par contre à peu près sûr que les coûts des fonctions centrales et des impôts seront les mêmes en termes absolus. D'un autre côté, EDF envisage la mise en place de personnels et de moyens devant intervenir en cas d'accident nucléaire, ce qui ne sera pas gratuit. Pour fixer les idées, prendre l'hypothèse que les coûts baisseraient au total de 3€/MWh produit doit donner un ordre de grandeur correct.

Pour ce qui est du démantèlement, EDF a fait établir des devis qui donnent un coût d'environ 300€/kW (p110), le site de la NRC donne des montants de l'ordre de 400M€ pour des réacteurs de 900MW. On peut donc prévoir que le démantèlement devrait coûter quelque chose entre 500M€ et 1G€. Comme le réacteur est prévu pour produire environ 750TWh, l'ordre de grandeur du coût de démantèlement est de 1€/MWh. Les Cour chiffre le coût du retraitement et du stockage des déchets à environ 2€/MWh (p272). Au doigt mouillé, j'estime qu'une assurance du risque nucléaire coûterait 1€/MWh si les plafonds de responsabilité étaient réévalués.

La Cour donne aussi le montant des investissements de maintenance pour le parc actuel: 1.7G€ soit environ 4€/MWh. Ce montant était promis à une forte augmentation, les centrales devant être rénovées pour les amener à 60 ans de service, elles doivent aussi subir des travaux visant à améliorer leur sûreté suite à l'accident de Fukushima. Cependant, la décennie 2000 a été l'occasion de profiter d'un parc en bon état et de limiter ces investissements. Sur la durée de vie de l'EPR, je vais prendre une valeur de 2€/MWh, car la centrale est prévue pour 60 ans, il y aura donc sans doute moins de dépenses de maintenance et de rénovation; c'est cependant une estimation très grossière. Cela dit, au total, les coûts d'exploitation doivent tourner autour de 25€/MWh.

La rémunération du capital

De la même façon qu'un salarié ne vient pas travailler sans salaire, il est difficile d'attirer des investisseurs sans leur promettre qu'ils vont gagner de l'argent. C'est pourquoi il faut aussi compter une rémunération du capital dans le coût de toute production. Il est particulièrement important dans le cas d'industries capitalistiques comme le nucléaire.

Avant d'aborder la question du niveau de la rémunération, il existe plusieurs techniques pour estimer la rémunération du capital. On peut résonner par analogie avec des instruments financiers existant par ailleurs. La première façon est de considérer l'investissement comme une obligation remboursable in fine. Dans ce cas, il faut amortir linéairement l'investissement et verser des intérêts constants au cours de la durée de vie de l'installation. C'est un mode de calcul qui permet de calculer le prix minimal du courant qui va assurer l'équilibre comptable. Pour arriver à l'équilibre comptable, le capital ne doit rien rapporter — ce qui n'est pas vraiment une incitation à investir — et la dette être remboursée intérêts inclus.

Pour calculer le coût de l'électricité du parc nucléaire actuel en tenant compte d'une rémunération — strictement positive — du capital, la Cour des Comptes considère l'investissement réalisé comme un emprunt immobilier. Un emprunt immobilier consiste à verser des annuités constantes, dont une partie chaque année va au remboursement du capital. Ce capital remboursé ne porte plus intérêts et chaque année, la proportion de capital remboursé augmente dans l'annuité versée. Si on calcule l'annuité en fonction du capital investi et du taux d'intérêt, on se rend compte qu'il y a une équivalence avec une notion souvent utilisée en finance, la valeur actuelle nette. La valeur actuelle du flux de trésorerie que représente les intérêts annuels escomptés au taux d'intérêt payé est égale au capital investi au départ.

Cette remarque est importante car la valeur actuelle a quelques propriétés bien connues. Elle a des implications en termes de décision: seuls les projets ayant une valeur actuelle nette positive devraient être poursuivis. Ensuite, plus le taux d'intérêt est élevé, plus la vision est à court terme: à cause de la décroissance exponentielle en fonction du temps, le futur éloigné compte pour des clopinettes, comme on peut le voir sur le graphe ci-dessous. C'est d'ailleurs à court terme que la rémunération du capital a lieu dans un emprunt immobilier ... puisque le capital est surtout remboursé à la fin. Ce qui veut aussi dire que même si la durée de vie est de 60 ans, l'industriel peut se décider juste en ayant des assurances raisonnables sur les 10 à 20 ans qui viennent. Mais c'est aussi pour ça que dans les projets industriels, les sociétés sont obligées réglementairement de prévoir un fonds permettant de démolir l'usine, sans cela, aucun besoin de se préoccuper de ce qu'elle devient au moment de la construction. VAN.jpg

Par ailleurs, la construction prend du temps, il faut prendre en compte le fait que le capital investit dort en partie. Il faut donc prendre en compte des coûts de ce fait, ce qui augmente le capital réellement investi au delà des 8.5G€ donnés par EDF. Pour mes calculs, je considère que le capital est investi par annuités constantes au cours de la construction.

Quel coût du capital?

Le capital peut être classé en 2 formes classiques: la dette et les capitaux propres. La dette se caractérise par le fait que la rémunération est fixée à l'avance par contrat, le créancier a alors une certaine assurance de ce qu'il va gagner. Les capitaux propres appartiennent aux actionnaires qui ne se voient pas promettre de rémunération particulière. On comprend donc qu'avant d'investir, les actionnaires voudront être mieux rémunérés pour assumer un risque supplémentaire. L'EPR est un exemple du genre de risques que peuvent avoir à assumer les actionnaires: hausse du coût des investissements, du coût d'exploitation, retard du chantier, prix de vente de la production plus bas que prévu, etc.

Pour estimer le coût de l'électricité, il faut donc considérer le coût moyen du capital. Dans son rapport, la Cour des Comptes prend le taux moyen qu'EDF utilise sans trop se prononcer sur sa validité (cf p338 du rapport). Il est de 7.8% hors inflation, soit un taux facial de presque 10%. La Cour trouve par contre qu'appliquer ce taux aux intérêts intercalaires est excessif et applique alors un taux de 4.5% réel. Cela peut s'expliquer par le fait que la construction ne recouvre qu'une partie des risques du projet, que la rémunération du capital couvre déjà en partie les risques de retard et de dépassement de budget, et que si une entreprise s'engage dans un projet capitalistique, c'est qu'il n'y en a peut-être aucun autre qui ait un rendement équivalent. En passant, la Cour ne répond pas à la question de savoir quelle a été le rendement réel de la construction du parc nucléaire actuel, ce qui a quand même une certaine importance.

Si on regarde les comptes d'EDF, on voit que sa dette est d'environ 40G€ et ses capitaux propres de 35G€ (p4 de cette saine lecture). On peut constater que les capitaux employés par EDF sont composés à moitié de dette et à moitié de capitaux propres, même si des variations autour de cette répartition sont constatées. EDF nous dit aussi que le taux moyen facial sur sa dette est de 4.1%. Ce qui veut dire que le taux pris par la Cour des Comptes mène à un rendement des capitaux propres de 16%. C'est tout de même beaucoup pour une entreprise en situation de monopole de fait et à l'activité régulée. C'est pourquoi en plus de la valeur Cour des Comptes, prendre des valeurs inférieures pour la rémunération du capital peut donner une image des coûts plus proche des conditions de financement réelles.

J'ai donc calculé les coûts associés à différentes hypothèses:

  • Le coût donné à l'origine. L'EPR fut donné comme coûtant 3.3G€. Le calcul est fait pour un coût du capital de 8%, une construction de 4 ans — contre 4 ans et demi prévus initialement, facteur de charge de 90%. Aujourd'hui Areva affirme que l'EPR de série coûterait 60€/MWh. Avec ces hypothèses, cela conduit à un coût d'un réacteur de 5G€, relativement cohérent avec le coût de 10G£ prévus au Royaume-Uni pour la construction de 2 nouveaux réacteurs.
  • Le prix du courant nécessaire pour arriver à l'équilibre comptable. Contrairement aux autres calculs, ce prix n'est pas à réévaluer tous les ans de l'inflation. On peut constater qu'EDF va certainement perdre de l'argent avec un EPR à 8.5G€. L'électricité vaut en effet actuellement environ 50€/MWh pour une production permanente.
  • Le rendement de 6% donne le coût si on considère que le coût moyen du capital est de 6% en sus de l'inflation au lieu des 8% pris par la Cour des Comptes. Cela correspond à une rémunération des fonds propres de 12%, plus raisonnable à mon sens.
  • Le rendement de 8% reprend le calcul de la Cour des Comptes avec le coût du capital donné par EDF.
  • Le dernier calcul donne le coût avec un facteur de charge abaissé à 75% comme pour le parc actuel. Cela fait aussi remonter le coût d'exploitation.

couts.jpg

quelques conclusions

Il est à peu près certain qu'EDF va réaliser une perte comptable avec l'EPR de Flamanville. En prenant les hypothèses de la Cour des Comptes sur le rendement du capital, je trouve un coût compris entre 90 et 110€/MWh suivant le facteur de charge. Si un coût moyen du capital plus faible est choisi, le coût de l'électricité baisse assez rapidement. Il est aussi assez remarquable que les opposants principaux à cette nouvelle centrale endossent des demandes élevées de rentabilité du capital et une approche financière court-termiste, contrairement à ce que leur discours laisse penser par ailleurs.

6 septembre 2012

Politique énergétique et réalités du réseau électrique

Chaque année RTE, filiale d'EDF et propriétaire du réseau haute tension, met à jour son bilan prévisionnel, dont l'édition 2012 vient d'être publiée sur son site web. Comme l'année dernière, et malgré la baisse de la consommation constatée, RTE prévoit toujours un risque accru et significatif de défaillance électrique. Malgré un ton factuel et diplomatique, il permet aussi de percevoir les incohérences de la politique énergétique française, caractéristique qui risque malheureusement d'empirer sous la présidence de François Hollande, du fait de promesses malvenues.

Le problème de l'approvisionnement électrique

Comme le signale le document (p89), l’apparition d’une puissance manquante à l’horizon de quatre à cinq ans est une constante des différentes éditions du Bilan Prévisionnel: personne ne souhaite investir trop puisque cela ferait perdre de l'argent. Cependant, la vague de froid de l'hiver dernier montre que ce genre d'exercice n'est pas vain. Cette vague de froid était supérieure en intensité à celle prévue dans le scénario qui ne prévoit que les évènements extrêmes à l'échelle d'une décennie. Au mois de février dernier, la pointe enregistrée a dépassé les valeurs prévues dans les scénarios de RTE, y compris ceux présentés dans ce document. Les importations ont été très élevées à certains moments, avec un maximum de 9GW le 9 février, proche du maximum possible.

Les causes de ce manque sont connues. La consommation d'électricité est toujours sur une pente de long terme croissante, malgré la rupture que constitue la crise et les mesures prises pour augmenter l'efficacité énergétique. En conséquence, RTE prévoit que la pointe "décennale" va continuer à augmenter pour dépasser les 100GW après 2014 dans le scénario central. Les pics de consommation électrique sont principalement déterminés par la température extérieure qui provoque un besoin de chauffage plus important: lors de la vague de froid de février, RTE estime que 40% de la puissance appelée était due au chauffage électrique (p35). L'essor du chauffage électrique est toutefois freiné en ce moment par la nouvelle réglementation thermique 2012: cette réglementation défavorise nettement le chauffage électrique hors pompes à chaleur, ce qui réduit notoirement la compétitivité de ce mode de chauffage à cause du coût de la pompe à chaleur. Mais les usages comme l'informatique sont toujours en très nette croissance, ce qui va pousser à la hausse la pointe totale. De l'autre côté, les baisses de demande sont surtout à prévoir en cas de crise économique: l'importance de l'industrie, notamment de l'industrie lourde, ne cesse de baisser à cause de la recherche constante d'efficacité et encore plus à cause de la crise qui a stoppé nombre d'usines. En tout, RTE prévoit une hausse lente des pointes dans tous les scénarios sauf celui qui prévoit une crise économique durable.

De l'autre côté l'offre voit se développer l'éolien et le solaire, mais disparaître les centrales à combustibles fossiles. Si le solaire ne contribue que faiblement aux besoins lors de la pointe, l'éolien a une contribution lors des épisodes froids. En général, lors des vagues de froid sur la France, l'anticyclone qui en est la cause n'est pas centré sur notre pays, ce qui fait que le vent souffle ... au moins un peu. Mais cette contribution est très variable comme on peut le voir ci dessous (graphe p72, que j'ai annoté) contrib_eolien.jpg Si on voit bien l'intermittence sur ce graphe, on ne voit aucune corrélation entre consommation et production. Entre les 2 jours de consommation maximale, on voit que la production éolienne varie du simple au double, en 24h. De plus, si on regarde le retour d'expérience de RTE sur la vague de froid, on s'aperçoit que les importations (p12) et le prix (p14) ont été maximaux le 9 février, juste au moment d'un trou de vent (p10). Si l'éolien apporte une contribution, elle est foncièrement aléatoire et ne remplace pas vraiment une centrale classique.

Les centrales classiques sont, elles, atteintes par la limite d'âge, en quelque sorte. Les directives européennes anti-pollution vont entraîner la fermeture de nombre de centrales au charbon — 3.6GW sur 6.8 — et au fioul — 4GW sur 5.3. Des centrales à cogénération vont fermer, les subventions se terminant. En face de cela, quelques centrales au gaz se sont confirmées, mais pas suffisamment pour compenser (p79). capa_fossile.jpg Comme en plus la crise a fait s'effondrer les prix des permis d'émission de CO₂, le charbon est redevenu très compétitif, ce qui ne va pas inciter à la construction de centrales au gaz. Les centrales à combustibles fossiles voient aussi leur rentabilité entamée par les énergies intermittentes comme l'éolien. Pour couronner le tout, RTE prévoit que la capacité d'importation sera limitée à 4GW, en grande partie pour la même raison: la mise à la retraite de centrales.

Au total, RTE prévoit un manque de puissance de 1.2GW pour remplir son objectif en 2016, en baisse par rapport à ce qui était prévu l'an dernier (2.7GW), en partie du fait de la conjoncture économique. Pour 2017, le manque est de 2.1GW. Évidemment, on peut songer que des travaux seront sans doute faits soit pour construire des turbines à gaz, soit pour rénover des centrales au fioul pour combler ce manque. Mais on ne peut s'empêcher de penser que fermer la centrale de Fessenheim (1.8GW) n'est sans doute pas la meilleure façon d'assurer l'approvisionnement en électricité de la France.

Les conséquences du développement des renouvelables

Un encart p17 livre des informations très intéressantes en liaison avec le développement des renouvelables. Tout d'abord, RTE nous dit que ce développement va coûter 1G€ pour raccorder l'éolien au sol et la même somme pour connecter 3GW d'éolien en mer. Comme l'éolien en mer est déjà horriblement cher, on ne peut que se demander si c'était une bonne idée que d'allouer des lots aux prix proposés.

RTE nous signale aussi le projet allemand d'expansion du réseau. Celui-ci demande la construction de 4400km de lignes THT, dont 1700km de lignes THT 400kV classiques et 2100km de lignes à courant continu. Le tout pour un coût de 20G€ sur les 10 prochaines années. Mais il y a un hic: construire une ligne THT demande 10 ans actuellement du fait des procédures et de l'opposition des sympathisants d'un certain parti politique. Pour ce qui concerne la France, RTE dit qu'adopter une politique diminuant la part du nucléaire nécessiterait de doubler les interconnections sur 20 ans, pour un coût de 7G€, sachant que la vitesse de construction actuelle est très insuffisante. Ces 20 dernières années n'ont vu la construction que d'environ 1/3 des capacités d'exports de la France et certains projets, comme l'interconnexion France-Espagne, ont suivi un chemin de croix.

Un autre encart p85 nous informe aussi des évolutions commerciales et technologiques dues aux renouvelables. C'est ainsi qu'en Allemagne, où le nucléaire remplissait une offre de base fixe au cours de la journée, les réacteurs ont été modifiés pour fonctionner comme en France: avec une possibilité de modulation pour faire face aux périodes de faible consommation. On y dit aussi que dans la plupart des pays européens, la principale contrainte nouvelle posée par le développement des énergies renouvelables est celle du surplus d'offre lorsque la production renouvelable est forte. Dit autrement, on ne sait pas quoi faire de cette électricité fatale à certains moments et elle dégrade la rentabilité des équipements qui assurent réellement la sécurité d'approvisionnement. On peut par exemple s'interroger sur l'opportunité de produire beaucoup d'électricité à midi en plein mois d'août lorsque la consommation en France est pratiquement au minimum de l'année et de la payer à un prix exorbitant, sachant qu'en plus tous les pays européens sont proches de leur maximum de production au même moment.

Les conséquences de la baisse à 50% de la part du nucléaire

RTE nous propose aussi un certain nombre de scénarios à long terme dont un prend en compte la projet de faire baisser à 50% la part du nucléaire dans la production d'électricité. Tout d'abord, p29, RTE nous montre qu'il y a une excellente corrélation entre croissance économique et évolution de la demande d'électricité. On s'aperçoit aussi p84 que la consommation d'électricité ne dépend finalement pas tellement du prix: les prix allemands sont maintenant 75% plus élevés qu'en France pour les particuliers, alors qu'ils étaient nettement plus proches en 2000, l'évolution de la consommation n'a pas du tout suivi le même chemin. Par contre, la dépression en Espagne a réduit la consommation d'électricité. Une conclusion s'impose: une baisse de la consommation d'électricité est provoquée par une baisse du niveau de vie.

Le graphe de la p146 permet de résumer les différents scénarios: mix_elec_fr_50pc.jpg On constate que quoiqu'en dise RTE, le «nouveau mix» laisse penser que le niveau de vie des Français serait alors proche d'une situation de crise prolongée, même si le solde exportateur absorbe une bonne part de la différence avec le scénario médian. Dans ces conditions, il n'est pas dit que l'idée de payer plus pour le réseau et les moyens de production pour une production très comparable à l'actuelle soit très populaire. Finalement, on paierait plus pour exactement la même chose! On remarque aussi, une fois de plus, que la barre noire représentant la production d'origine fossile est la plus épaisse dans ce scénario «nouveau mix». Et, évidemment, la consultation du résultat des simulations ne laisse aucun doute: ce scénario prévoit des émissions de 30Mt de CO₂ contre 24Mt dans le scénario «consommation forte» et 27Mt en 2011. De même, si jamais on s'avisait de respecter à la lettre le programme de François Hollande — qui proposait d'atteindre cette proportion en 2025, les émissions seraient de 40Mt. Cette hausse des émissions par rapport à l'année 2011 est due au besoin de faire fonctionner plus de centrales au gaz pour pallier l'intermittence de l'éolien et du solaire. Il est difficile de considérer cette issue comme souhaitable: on paierait donc plus cher pour autant d'électricité et plus d'émissions de CO₂ qu'aujourd'hui, sans compter les difficultés d'approvisionnement en gaz.

Pour conclure, on voit donc que la politique française en matière énergétique est face à certaines contradictions. Le modèle économique des installations à combustibles fossiles qui assurent réellement l'équilibre entre l'offre et la demande est durablement affecté par l'éolien et le solaire. Ces énergies sont plus chères mais bénéficient d'un traitement favorable sans aucune contrepartie en termes de disponibilité. Comme la production française d'électricité est déjà largement décarbonée, l'intérêt des renouvelables dans la production d'électricité est clairement douteux, mieux vaudrait investir ailleurs. On voit aussi que les pouvoirs publics ont concentré leurs moyens sur ces énergies, au lieu de s'attacher à la sécurité d'approvisionnement. Bien au contraire, les politiques proposent des mesures qui vont en sens contraire comme des fermetures de centrales nucléaires. Mais en plus, on s'aperçoit que remplacer le nucléaire par des renouvelables va aboutir à l'effet inverse de l'effet recherché: faire baisser les émissions de CO₂. L'idéologie est décidément mauvaise conseillère.

3 août 2012

Débattre sans a priori

Dans le rapport de la commission sur le coût de l'électricité, l'auteur du rapport proclame son attachement à un débat sans a priori sur la question du nucléaire et d'en étudier tous les aspects. Bizarrement, ce chapitre se limite aux questions de vieillissement du parc, des déchets radioactifs, des risques d'accidents et de leurs coûts. Tout aussi curieusement, le stockage d'énergie par électrolyse de l'eau n'envisage comme source d'énergie que les renouvelables intermittents.

Toujours dans un esprit ouvert, on nous présente 3 scénarios de production électrique qu'on peut résumer grâce aux 3 graphes servant à les présenter. Scénario Sobriété Scénario Intermédiaire Scénario nucléaire Le premier scénario, dit «sobriété», propose de sortir du nucléaire le plus rapidement possible en se reposant pour une bonne part sur les énergies renouvelables intermittentes, solaire et surtout éolien. Le scénario «intermédiaire» propose une division par 2 de la production nucléaire à horizon 2050. Le troisième, dit «nucléaire nouvelle génération», propose d'augmenter légèrement la production nucléaire au niveau actuel et d'augmenter la production totale d'électricité de 150TWh — soit environ 25% de la production actuelle.

On s'aperçoit donc que l'auteur n'envisage pas que la production nucléaire augmente encore beaucoup, ni même une forte augmentation de la production d'électricité provenant de sources décarbonées. Pourtant, le bilan énergétique de la France pour 2010 montre qu'on a consommé pour 1500TWh de combustibles fossiles en 2010 (p34). Comme il faut diviser cette consommation par un facteur 4 au moins pour cause de réchauffement climatique, remplacer une part substantielle des énergies fossiles par des sources non carbonées est sans doute une nécessité. Or, les sources dont on peut augmenter la production permettent principalement de produire de l'électricité. Certes, aucun scénario précis n'a peut-être été présenté par un des intervenants, mais au moins un, Jean-Marc Jancovici, était favorable à une telle issue.

Dans ce cadre, les 2 autres scénarios paraissent extraordinairement restrictifs puisqu'ils feraient a priori porter tout le poids de la sortie des énergies fossiles sur des économies d'énergie auxquelles ils rajoutent la nécessité de se priver d'une part au moins de l'énergie nucléaire actuellement disponible. Le premier scénario est aussi très surprenant. Il est dit dans le texte qu'il faudrait compter sur un développement important du stockage: des ressources importantes devraient être consacrées à la recherche et à la mise en oeuvre d'infrastructures de stockage d'énergie. Or le développement sur l'électrolyse de l'eau ne laisse envisager qu'un rendement extrêmement faible, inférieur à 35% ce qui grèverait fortement l'intérêt du stockage dans un tel scénario où l'énergie serait sérieusement rationnée. On ne voit pas aussi quelle importance aurait le stockage d'énergie sur le graphique. L'aspect stockage est aussi ignoré quand il s'agit de passer au chiffrage des coûts.

Un autre point attire l'attention: en regardant bien, ce premier scénario est celui où la production d'origine fossile est la plus importante. Dans le texte, on dit aussi que ce scénario suppose la construction de nouveaux équipements de production d'électricité à partir de sources d'énergie renouvelable mais aussi très probablement, du moins tant que les technologies de stockage ne sont pas matures, de centrales à gaz. Il s'agit d'une part de compenser l'intermittence des sources d'énergie renouvelable, d'autre part de fournir une électricité de complément si le rythme de développement de celles-ci n'est pas suffisant. Dit autrement, cela ne pose pas vraiment de problème aux tenants de ce scénario que les émissions de CO₂ ne soient pas minimisées. En clair, le problème du réchauffement climatique est moins important que le risque pris avec le nucléaire. C'est une position étonnante, puisque le stockage de l'énergie peut remplir exactement les fonctions que remplissent actuellement, en France, les combustibles fossiles dans la production d'électricité: faire face aux périodes de forte consommation et aux inattendus. Ce scénario devrait donc être celui de la vertu énergétique, celui où les combustibles fossiles sont totalement éliminés.

On ne surprendra personne en disant que, dans sa conclusion , le rapporteur Vert de la commission annonce que ce premier scénario a sa préférence. On peut donc en déduire les priorités qu'ont les Verts: sortir du nucléaire est plus important qu'éviter le réchauffement climatique, pourtant considéré comme porteur de bouleversements considérables de la nature par le consensus scientifique. Vraiment, pour débattre du nucléaire ou, plus exactement, de sa sortie, il ne faut avoir aucun a priori ni aucun tabou.

1 août 2012

Leçon d'enfumage

La commission sur le coût de l'électricité a rendu un rapport qui a été à juste titre dénoncé comme relevant de la pure idéologie écologiste ailleurs. Mais leur argument massue, que le consommateur français paie plus au total pour son électricité que ses voisins malgré des prix bas, est basé sur un tableau très probablement faux.

Le rapport consacre en effet un développement aux prix de l'électricité en Europe. Il commence par constater que le prix de l'électricité est bien moins élevé en France que partout ailleurs en Europe de l'Ouest. Il faut aller chercher la Grèce, la Finlande ou les pays de l'est pour trouver des prix équivalents. Avec un coût d'un peu plus de 140€/MWh à fin 2011 pour les particuliers, les prix français sont très compétitifs et n'ont pas suivi la hausse des prix causée par le choc pétrolier d'après 2004 comme ailleurs en Europe.

Mais cela n'arrête pas l'auteur, qui nous donne ensuite à voir le tableau suivant: Tableau des dépenses énergétiques avec données fausses On constate que selon ce tableau les ménages français ont la facture d'électricité la plus élevée d'Europe et une facture totale énergétique en ligne avec celle des pays du nord de l'Europe pourtant moins bien lotis du point de vue du climat.

Mais ce tableau est trompeur pour deux raisons au moins. La première, c'est que les données du tableau source d'Eurostat sont exprimées en parité de pouvoir d'achat. C'est sans doute mineur, mais avoir recopié directement ces données puis avoir confondu euros nominaux et parité de pouvoir d'achat n'augure rien de bon. La deuxième, c'est que depuis 2005, les prix des énergies fossiles, celles qui complètent le budget ont subi une forte augmentation des prix. En 2005, le prix moyen du baril de Brent était d'environ 60$, en 2010 de 80$, en 2011 de 100$. L'impact sur les prix du gaz et du fioul sont certains, il doit donc aussi y avoir un impact sur la facture finale.

Ce tableau a aussi — et c'est le vrai problème — toutes les chances d'être faux. On peut s'en rendre compte en partie dès le tableau suivant. Ce tableau-là donne le résultat des calculs de Global Chance, en se basant sur les prix du premier semestre 2011. Et là, surprise: la facture annuelle par ménage n'est plus que de 670€/an environ, en comptant 2 personnes par ménage. Le passage des euros nominaux aux parités de pouvoir d'achat ne peut expliquer une telle différence. On constate aussi que la facture d'un ménage allemand est aussi nettement plus élevée que celle d'un ménage français, contrairement à ce que laissait penser le tableau précédent.

Pour essayer de savoir si cette suspicion est justifiée, on peut se reporter à l'enquête de l'INSEE sur la consommation des ménages. À l'aide des tableaux proposés, on peut calculer que la facture moyenne d'électricité était d'environ 662€ par ménage en 2005. Un nouvelle fois, c'est bien loin des 852€ proclamés par le tableau devant donner les dépenses de consommation par énergie. La même source montre que les dépenses annuelles d'énergie dans les logements — le tableau d'Eurostat ne compte que cela — sont probablement inférieures à 1200€ par ménage: la somme du gaz, de l'électricité et du fioul donne environ 1175€.

On peut aussi procéder à partir des données d'Eurostat. On peut y trouver les données de population, de taille des ménages, une base de données sur l'énergie avec les consommations énergétiques classées par types, un prix typique pour le gaz et l'électricité. La commission fournit les prix du fioul. On trouve alors les résultats suivants, sachant que la précision n'est pas excellente du fait du mode de calcul. Dépenses énergies pour les logements en 2005 Dépenses énergies pour les logements en 2010 On peut voir que loin d'avoir la facture globale par habitant la plus élevée, la France se place plutôt bien. On remarque aussi que la hausse de la facture a été limitée par rapport à d'autres pays car les prix de l'électricité ne sont pas, en France, indexés sur les cours du pétrole.

Tout ceci ne serait pas très important si les opposants au nucléaire ne faisaient pas de l'argument de la facture totale un argument bizarre: que la forte consommation d'électricité, causée par des prix bas, fasse que la facture totale soit en fait relativement élevée. C'est un argument bizarre car il fait l'impasse sur les investissements qu'il faut faire pour moins consommer mais atteindre un même résultat: ces investissements sont notoirement inutiles financièrement lorsque les prix de l'énergie sont bas. Mais même en regardant la facture globale, on constate que la France est plutôt bien lotie. La cause, en fait, est bien connue: les logements chauffés à l'électricité le sont de façon efficace, à cause justement du prix élevé de l'électricité par rapport au gaz et au fioul; pour le reste, les gains d'efficacité ne sont souvent pas extraordinaires à prestation égale, ce qui fait que la demande d'électricité ne dépend pas beaucoup de son prix. Bref, l'argument de la facture totale relève de l'enfumage total de la part des anti-nucléaires.

7 juillet 2012

L'échec de la concurrence dans le domaine énergétique

Il y a quelques jours Le Monde publiait un article qui revenait sur le peu de succès des opérateurs alternatifs aux monopoles de fait dans la fourniture du gaz et de l'électricité, GDF et EDF. On peut retirer de l'article qu'aller voir la concurrence représente en fait peu d'intérêt — à peine quelques pourcents sur la facture dans le meilleur des cas — à cause de la prééminence de coûts régulés encore forts présents et de la compétitivité de l'électricité nucléaire. Les perspectives d'avenir tracées à la fin semblent considérer que cet état de fait va durer à moins qu'une tarte à la crème prenne subitement de l'importance: que des clients paient pour être au service des producteurs pour recevoir des conseils sur comment mieux consommer.

Il me semble qu'il est important de revenir sur les raisons probables de cet échec et de le comparer avec le succès de l'ouverture à la concurrence des télécoms.

Les raisons du succès de la concurrence dans les télécoms

Au début des années 90, l'UE a décidé d'ouvrir les marchés des télécoms à la concurrence. Dans un premier temps, cela a concerné les minutes de communication. On pouvait alors choisir un opérateur qui facturerait moins cher les minutes de communication. Cela reposait en fait, au départ, sur la capacité des opérateurs alternatifs à acheter en gros les minutes de communication puis de les revendre au détail, sans être encombré par les dépenses de personnel de France Télécom. La liberté de tarification de France Télécom sur le marché de gros était réduite de façon à ce que les concurrents puissent s'installer, un peu à la manière dont comptent agir les autorités communautaires sur le marché de l'énergie. Mais, moins de 20 ans plus tard, cet aspect est marginal sur le marché des télécoms: le véritable succès vient d'ailleurs, de profonds changements technologiques.

Le premier changement qu'on peut nommer est l'arrivée à maturité des technologie de transport de l'information par fibre optique. Au début des années 90, ce n'était pas vraiment une nouveauté, le principe était connu depuis 20 ans, mais les progrès ont été si rapides, tant dans les matériaux que dans les techniques de modulation et de multiplexage, que le coût de transport de l'information est devenu nettement plus intéressant. Les fibres sont maintenant incomparablement transparentes, il faut faire parcourir de l'ordre de 15 à 20km pour que le signal perde la moitié de son intensité. Les techniques de modulation ont permis d'augmenter le débit sur un seul canal, les techniques de multiplexage ont permis de multiplier les canaux sur une seule fibre. Il est aussi relativement facile de déployer un réseau de fibre optique: on peut suivre des axes déjà bâtis comme les autoroutes, les voies de chemin de fer; il n'y a pas de grands travaux de BTP à mener, il s'agit en général d'une simple tranchée à creuser sur le bas-côté avec des guitounes pour réamplifier le signal de loin en loin. On peut aussi installer les lasers nécessaires au fonctionnement des canaux au fur et à mesure des besoins, ce qui limite le coût d'investissement initial. Il n'y a aussi aucune opposition au déploiement de ce réseau vu sa faible empreinte. Bref, il est devenu possible de transporter de grandes quantités d'informations sur grandes distances, à un coût raisonnable, sans grandes difficultés d'installation. Cela a permis à de nouveaux entrants de construire leur propre réseau qu'ils ont pu rentabiliser en quelques années.

Le deuxième changement est l'arrivée de l'ADSL. Cette technologie permet d'utiliser le réseau existant pour faire passer nettement plus d'information. Ce réseau étant déjà largement amorti et régulé pour la phase téléphonie classique, cette technologie est peu coûteuse. Le plus dur est d'arriver à ce que des firmes autres que le monopole aient accès au répartiteur pour y installer leurs équipements. Le développement concomitant d'Internet permet d'avoir une demande pour ce type de technologie: finalement, les clients sont prêts à payer plus pour un nouveau service. Les nouveaux arrivants peuvent aussi proposer des services combinés avec Internet, téléphone illimité & télévision: de toute façon le coût marginal de l'octet échangé est pratiquement nul, il s'agit surtout de convaincre les clients de payer les coûts d'investissement dans un premier temps.

Le troisième changement est la téléphonie mobile. Avec la téléphonie mobile, plus besoin de construire un réseau filaire local puisqu'on utilise des bornes radio. Ça permet d'introduire de la concurrence parce qu'installer des bornes radio est moins cher que de construire ce réseau local. Le réseau à longue distance est, lui, construit grâce à la fibre optique. Une nouvelle fois, on apporte un service supplémentaire aux clients, qui sont prêts à payer pour. Les téléphones portables sont devenus des objets communs sans qu'on ait forcé qui que ce soit. Avec les offres à 2€/mois, les offres mobiles sont devenues bien plus compétitives que les offres filaires si on veut «juste» téléphoner. Installer des bornes téléphoniques est devenu un peu plus compliqué dernièrement à cause d'hurluberlus, mais ils ont arrivés trop tard pour empêcher le décollage d'une invention qui est indéniablement profitable à la société.

Au final, la libéralisation des télécoms a été un succès grâce à l'apparition de nouveaux services rendus possibles par des changements technologiques. Cela ne veut pas dire que les sociétés ne formeront pas des oligopoles peu concurrentiels à l'avenir — comme le montre l'exemple de la téléphonie mobile avant l'arrivée de Free ou l'ADSL ailleurs qu'en France — mais qu'en phase de changement technologique, la concurrence peut accélérer les choses et répandre des technologies de façon très rapide. Mais ça ne marche bien que si les clients sont prêts à payer pour ces fameux services supplémentaires. On peut aussi voir que la question des tarifs du téléphone a presque disparu de l'agenda récurrent des politiques: personne ne hurle contre les hausses de tarifs, on constate plutôt des baisses de prix à service constant sous la pression du changement technologique. La demande pour les nouveaux services suffit à rentabiliser rapidement les investissements comme le montre le cas de Free, l'intervention publique est relativement limitée et souvent très technique.

Le cas de l'énergie

Les cas du gaz et de l'électricité sont très différents.

Le gaz est un type d'énergie dont on aimerait se passer pour cause de manque de ressources et d'ennuis climatiques. On n'attend pas non plus de rupture technologique dans le transport du gaz. Investir dans le réseau n'est donc pas forcément très intéressant. Il y a par contre des nouveautés dans la production, avec les gaz non conventionnels qui pourraient résoudre les problèmes d'approvisionnement ... mais aggraver le problème du réchauffement climatique s'ils ne font que s'ajouter aux ressources existantes. Une certaine opposition est aussi apparue contre ce mode de production. L'extension du réseau d'électricité, notamment à haute tension, rencontre une opposition intense de la part de ceux qui habitent à proximité. Impossible donc d'étendre ce réseau sans planification ni implication forte de l'état. Là non plus pas vraiment de rupture technologique en vue: les supraconducteurs ne sont pas spécialement bon marché. Contrairement aux télécoms, il n'y a pas à attendre grand chose de ce côté. La distribution de gaz et d'électricité reste pour l'essentiel et pour le futur prévisible un monopole naturel. C'est d'ailleurs pensé comme tel: les réseaux de transport de gaz et d'électricité sont considérés comme des monopoles naturels à réguler séparément du reste. Pour ce qui est des réseaux locaux, ils sont vus comme les réseaux d'adduction d'eau: des réseaux à concéder — ou pas — qui ne sont rien d'autre qu'une juxtaposition de monopole naturels locaux.

Les fournisseurs finaux pourraient penser procéder comme pour les minutes de téléphone: acheter en gros et vendre au détail, en voulant profiter de moindres frais d'organisation pour être plus compétitif que le monopole naturel. Malheureusement, cette voie est aussi largement barrée: alors que le coût marginal d'une minute de téléphone est très proche de 0, ce n'est pas le cas du m³ de gaz ou, en général, du kWh d'électricité. Les gains d'échelle sont donc fondamentalement limités. On se retrouve rapidement à devoir demander l'intervention de l'état, face à laquelle le monopole en place peut montrer que ses coûts marginaux sont bien réels. On se retrouve au bout du compte avec une tarification qui ressemble plus ou moins à ce qui présidait avant avec la facturation des coûts moyens. Ce n'est donc pas un hasard si on a vu apparaître l'ARENH, prix et conditions diverses fixés par l'état pour l'électricité nucléaire qu'EDF doit vendre à ses concurrents.

L'autre voie serait de vendre des services supplémentaires. Mais on voit mal quels services nouveaux sont permis par la fourniture d'électricité et vraiment demandés par les clients. On parle beaucoup des smart grids dans ce domaine. Cependant les fournisseurs finaux n'installeront sans doute pas les nouveaux compteurs: il faut s'assurer de la compatibilité mutuelle des équipements et les temps d'amortissement sont plutôt comparables avec des activités de réseau. Ils se contenteront donc des services. Ils proposeraient aux clients de moins consommer: on voit mal ce qu'ils apporteraient de plus que les services d'un architecte ou d'un artisan faisant des travaux chez soi. On voit aussi mal comment ils se rémunèreraient différemment d'un architecte dans ce cas: après les travaux, les volumes vendus diminueraient. Pour le gaz, c'est le service qui semble possible, vu que la diminution de la consommation est l'objectif officiel. Pour l'électricité, les choses sont un peu différentes: là, les smart grids prennent un tour plus orwellien. Il s'agirait de déplacer la consommation pour éviter les pointes ou carrément pallier aux insuffisances de production, qui sont plus ou moins regroupées sous l'appellation consommer mieux. On se doute que s'il s'agit de ne pas pouvoir regarder le match de foot sur son écran plat, le client risque de ne pas être convaincu par l'amélioration. Il faut donc disposer de consommation qu'on peut déplacer et actuellement, il s'agit essentiellement du ... chauffage électrique. Ce point est d'ailleurs parfois pris en compte par certains scénarios "100% renouvelables". C'est aussi l'idée qui fonde le tarif heures pleines - heures creuses en France. On note toutefois une certaine différence entre les désirs des promoteurs du consommer mieux et la réalité que semble devoir impliquer le concept. Étant donné l'opposition au chauffage électrique dans certains milieux politiques et la faisabilité du reste, il me semble que cette idée de vendre des services supplémentaires soit vouée à rester d'une ampleur limitée.

Si on veut une concurrence dans le domaine de l'énergie, la question des prix de production — donc des moyens — semble donc incontournable.

La vexante question des prix et des coûts de production

Lorsqu'on se tourne vers la question de la production, on s'aperçoit qu'en fait, sur ce sujet, il n'y a jamais eu de monopole légal de la production tant de gaz que d'électricité. La seule production significative de gaz sur le territoire français a été le gaz de Lacq. La conséquence a été que dans le Sud-Ouest, le réseau de distribution de gaz est organisé autour de l'ancien gisement et toujours détenu par l'exploitant de celui-ci, Total, qui l'a hérité d'Elf. Ce gisement ne suffisant pas à satisfaire les besoins français, on a procédé à des importations. De toute façon, le gaz étant une énergie régionale et substituable au pétrole, les prix de la matière première sont déterminés sur les marchés internationaux. Et pour l'Europe, la tendance semble être à la hausse des prix. En effet, l'exploitation des gisements de la Mer du Nord décline, actuellement lentement, mais ce déclin s'accélèrera après 2020-2025. La Russie a déjà du mal à fournir toutes les quantités demandées. Faire venir du gaz par méthanier coûte relativement cher à cause du processus de liquéfaction qui est gourmand en énergie. Enfin, le gouvernement français a interdit — pour l'instant du moins — d'exploiter d'éventuels gisements de gaz de schiste. Face à cette contrainte sur les volumes à consommer, la demande ne faiblit pourtant pas, le gaz étant de plus en plus employé à la place du charbon pour produire de l'électricité car il pollue moins et s'adapte mieux au contexte réglementaire et politique européen. Le gaz est aussi de plus en plus demandé dans les pays d'Asie. Le prix de l'énergie étant un sujet majeur de la politique, les différents gouvernements s'acharnent à ignorer ces réalités et cherchent à bloquer les prix, sans égards pour les conséquences. Dans ce contexte, on voit mal comment pourrait se développer la concurrence: l'ancien monopole est forcé de proposer des tarifs inférieurs aux prix qu'imposeraient les marchés internationaux. Pourquoi quitter le fournisseur qui propose les prix les plus bas et sera le dernier à augmenter ses tarifs?

Pour ce qui est de l'électricité, de même, il n'y a jamais eu de monopole de production. L'exemple le plus frappant est celui de la Compagnie Nationale du Rhône qui a échappé à la nationalisation après la Libération. Ainsi en est-il aussi d'autres barrages. Reste qu'EDF pouvait connecter les centrales un peu comme bon lui semblait, mais avec l'ouverture à la concurrence, les risques de discrimination ont disparu. Aujourd'hui, le problème vient qu'à peu près tous les moyens neufs de production ont un coût moyen du kWh produit supérieur aux prix du marché: personne n'a donc vraiment envie d'en construire sans subvention, ou qui conduit ceux qui s'y sont risqués à la faillite. Ce problème est amplifié en France par l'importance du parc nucléaire: comme le prix de l'électricité nucléaire ne dépend que marginalement du prix du minerai, les prix de vente aux particuliers, fixés par l'état, ont faiblement varié par rapport à d'autres pays comme le montrent les graphes ci-dessous. prix_elec_ttc.jpg prix_elec_ht.jpg Les prix hors taxes reflètent le plus fidèlement les prix du parc déjà installé au début des années 2000: on voit qu'EDF échappe à la hausse généralisée à partir de 2005 du fait de sa faible dépendance aux combustibles fossiles. Comme c'était rappelé dans l'article du Monde, les autres producteurs ne peuvent pas rivaliser avec le parc nucléaire. Ce n'est pas seulement dû à l'amortissement du parc, mais aussi au fait que tous les concurrents commenceraient par construire des centrales demandant des investissements moindres: difficile pour un nouvel arrivant de dépenser plusieurs milliards d'euros avant de se constituer une clientèle.

Cette importance des investissements dans l'industrie électrique se retrouve aussi dans le modèle imposé par la Commission. Pour empêcher que le monopole en place n'interdise l'entrée de concurrents, elle a poussé pour que la facturation de la production d'électricité se fasse en fonction du prix spot et a entravé les contrats à long terme. Dans le cas contraire, il aurait suffi à EDF de faire signer des contrats à long terme aux industriels pour enlever tout espoir de développement à la concurrence. De ce fait, pour minimiser les risques, le mode de production privilégié sera celui qui nécessitera le moins de nouveaux investissements et dont le coût marginal sera donc proche du coût total. Cela permet de passer assez facilement les hausses de tarifs aux clients — puisque le coût marginal se reflète dans le prix spot — et d'éviter les risques de pertes en capital. Cet état de fait est très bien expliqué dans ce papier de William Nuttal. Le seul point qui peut perturber cet attrait du gaz est qu'il y a besoin d'une corrélation entre le prix du gaz et de l'électricité, qui a tendance à disparaître lorsque le parc nucléaire est important. Une autre conséquence de la libéralisation est la faible planification pour remplacer les moyens de production existant et leur utilisation maximale: investir représente un risque conséquent et un coût à faire assumer par les clients. Et après de longues années, quand vient le temps de remplacer de vieilles centrales, par peur du black out, on voit le gouvernement anglais changer quelque peu de position.

À la suite du contre-choc pétrolier et la mise en exploitation du gaz de la Mer du Nord, le gaz est devenu très compétitif au Royaume-Uni, d'autant que les sources locales de charbon se sont taries. Tant ce prix intéressant que les faibles besoins en investissements ont fait que le Royaume-Uni tire aujourd'hui presque 50% de son électricité de turbines à gaz à la suite de la libéralisation du secteur de l'électricité. À la fin des années 90 et du début des années 2000, les spécialistes du gaz expliquaient que les CCGTs étaient la moins chère des façons de produire de l'électricité, ce qu'on peut voir sur les graphes de prix: les pays spécialisés dans le gaz ont les prix HT les plus bas au début des années 2000. On comprend bien alors le bénéfice que voyait la Commission à libéraliser le secteur: on pouvait voir là une source de baisse de prix. Depuis, les choses ont quelque peu changé et, même s'il en émet moins que le charbon à énergie égale, les émissions de CO₂ dues à la combustion du gaz le rendent indésirable à terme. Le méchant monopole EDF a donc vu le choix du nucléaire dans les années 70 payer de nouveau quand sont réapparues, après 2005, des circonstances similaires au choc pétrolier ayant présidé à ce choix.

En plus de cela, les prix TTC montrent que l'action des états n'est pas neutre non plus: certains états affichent une forte différence entre les prix HT et TTC, notamment l'Allemagne. On aura reconnu les pays qui se sont lancé dans une politique de productions renouvelables. Comme elles sont fort chères et que leurs production ne sont pas corrélées à la demande et très intermittentes, personne ne les construirait sans subventions. Le mode de subvention choisi est la vente à un prix garanti. Aucune concurrence n'est donc possible: tous les producteurs vendent à ce prix garanti, l'état lève la même taxe sur tous les particuliers quelque soient les fournisseurs finaux. Ces modes de production partagent avec le nucléaire le fait d'être des industries à coûts fixes qui se prêtent très bien aux contrats à long terme ou aux tarifs régulés, des modes de rémunération plutôt centrés sur le coût moyen que le coût marginal. Et c'est pourquoi, en Allemagne, des voix se font entendre pour que les règles changent et que la Commission change de position sur la question de la tarification pour favoriser les renouvelables.

Quelques conclusions

Le projet de libéralisation de l'énergie reposait au fond sur une situation de fait qui a depuis changé: le faible prix des combustibles fossiles et notamment du gaz. Mais comme l'approvisionnement en gaz se fait plus incertain et que les préoccupations climatiques occupent, au moins officiellement, le devant de la scène, l'intérêt est devenu clairement douteux. À ce moment, dans les années 90, la technologie de la turbine à gaz semblait devoir s'imposer définitivement et elle est très adaptée à un marché libéralisé: faible investissement, coût dirigé par le prix du combustible.

Malheureusement, le fait que le prix de l'énergie soit un sujet récurrent du débat public empêche, au moins en France, de suivre les soubresauts du prix du gaz imposés par les marchés financiers. Aucun concurrent ne peut s'implanter: l'ancien monopole est forcé de mener une politique de prix bas, voire de vendre à perte en période de forte hausse. Pour ce qui est de l'électricité, on comprend bien que dès lors que le nucléaire, et surtout les centrales de Génération II déjà construites, devient extrêmement compétitif, seuls les moyens subventionnés sont construits. On voit donc mal sur quoi se jouerait la concurrence et on voit même des industriels demander à payer pour assurer l'avenir du nucléaire et se protéger contre la prévisible hausse des prix. Autrement dit, les évolutions du prix des combustibles fossiles ont fait redevenir la production d'électricité ce qu'elle fut dans les années 70: une activité qui ressemble énormément à un monopole naturel.

3 mai 2012

Le corner énergétique

Hier soir, après avoir chacun de leur côté s'être posés en rassembleurs, les deux candidats présents au second tour de l'élection présidentielle se sont livrés à un débat au ton vindicatif. Parmi les sujets discutés figurait l'inévitable sujet du nucléaire civil.

J'ai déjà évoqué ici à plusieurs reprises l'accord entre les Verts et le PS ainsi que la politique énergétique du candidat Hollande pour en dire tout le mal que j'en pense. Durant le débat François Hollande a confirmé ce qu'on pouvait penser de sa volonté de baisser la contribution du nucléaire à 50% de la production d'électricité: il s'agit d'un plan de fermeture des centrales à 40 ans. Il a aussi, par ses propos désignant Fessenheim comme situé en zone sismique, repris en presque totalité l'argumentation des écologistes, ce qui conduit en fait à légitimer leur position: il faut sortir du nucléaire.

En effet, rien n'impose de fermer les centrales nucléaires au bout de 40 ans. Les Américains ont prolongé la vie de 70 de leurs 104 réacteurs à 60 ans. EDF a des plans similaires, ils sont de notoriété publique: on en trouve par exemple de nombreuses traces dans le rapport de la Cour des Comptes sur le nucléaire. La Cour passe d'ailleurs très près de recommander l'allongement de la durée de vie des centrales, remarquant que plus l'exploitation perdure, moins les coûts par MWh sont élevés (p284). Elle remarque aussi que l'absence de décision conduira à la prolongation des centrales et que le prolongement des centrale va entraîner un plan d'investissement important, mais nettement moins qu'un renouvèlement, quelque soit la technologie choisie. D'ailleurs, si les centrales devaient toutes fermer à 40 ans, l'intérêt d'investir pour prolonger la durée de vie des centrales diminue: les investissements devraient se rentabiliser sur une durée nettement plus courte. Il n'y a en fait quasiment qu'un seul élément irremplaçable: la cuve du réacteur dont on ne connaît pas la durée vie maximale.

Contrairement à ce qu'affirme François Hollande, il y a d'autres centrales situées dans une zone sismique comparable à Fessenheim. Fessenheim est situé dans le nord du département du Haut-Rhin. Comme on peut le voir sur la carte officielle du risque sismique, cette zone est en risque «modéré», comme l'ensemble de la vallée du Rhône. Et dans la vallée du Rhône, il y a moult sites nucléaires: les centrales de Bugey, St Alban, Cruas, Tricastin, le site de Marcoule. La centrale du Bugey est aussi la deuxième centrale la plus vieille en France, on voit donc quelle sera la cible suivante des écologistes. En écartant les zones sismiques avec un risque modéré, François Hollande empêche la construction de centrales dans une zone à la fois parmi les plus peuplées et aussi parmi les plus industrialisées donc parmi les plus grosses consommatrices. Cela va donc grandement simplifier le transport de l'électricité. On imagine aussi sans peine avec quelle bienveillance François Hollande verra l'industrie chimique, très présente aussi dans la vallée du Rhône, donc menacée par les séismes.

Se rejoignant sur ce point, les 2 candidats ont chanté les louanges des énergies renouvelables. Cependant, celles-ci ne peuvent pas remplacer le nucléaire: ce qu'on peut encore construire, ce sont des éoliennes et des centrales solaires. Non seulement, ces sources d'électricité sont parfois hors de prix, mais elle ne garantissent en fait aucune production ou presque: on peut voir grâce aux données d'exploitation, que ce soit au niveau français ou européen, la garantie est de moins de 5%. Comme dit dans une analyse statistique, publiée sur un site tenu par un Danois et riche de données, la production éolienne agrégée ne peut être considérée comme une source fiable d'électricité.

Les candidats font aussi profession de diminuer les consommations de combustibles fossiles et de ne pas exploiter le gaz de schiste et autres hydrocarbures non-conventionnelles. Comme ceux-ci sont en fait la seule alternative au nucléaire à moyen terme et sans doute à long terme, on aboutit à une impossibilité pratique. Sarkozy s'en sort grâce à son soutien au nucléaire, mais ce dernier requiert de fonctionner la plupart du temps pour être rentable. Hollande, lui, s'est placé dans un corner dont on voit mal comment il pourra se sortir. Cela dit, il se dit favorable à un TIPP flottante, ce qui favorise donc implicitement la consommation de pétrole, le type de combustible fossile le précieux car liquide et le premier qui viendra à manquer, mais pour une taxation de la consommation d'électricité croissante en fonction de la consommation, première mondiale, qui frappera donc la principale source d'énergie décarbonée en France.

On arguera qu'il lui suffira de se renier comme tant d'autres. Mais en reprenant pour lui-même des arguments simples — et faux — produits de longue date par les écologistes, il a légitimé leur discours. En le faisant avec force lors du débat télévisé d'avant le second tour, il a donné à cette position une certaine solennité. La situation de Mitterrand en 1981 était très différente: il allait hériter de nombreux chantiers de centrales nucléaires en cours, ce qui résolvait le problème de la production d'électricité en France; les diverses crises des changes ont de toute façon rapidement dissuadé de se reposer sur des importations coûteuses de combustibles fossiles. Cette prise position est donc sans doute l'exemple le plus frappant du déni qui remplit le discours politique français: en déformant la réalité, les dirigeants politiques se placent dans un corner dont il est impossible de sortir sans se renier, et placent donc le pays dans une impasse dont il sera extrêmement difficile de sortir.

12 mars 2012

Le séisme du Tohoku, un an après

Un an après que le séisme exceptionnel de magnitude 9 et le tsunami qui l'a suivi ont frappé la côte nord du Japon, les commémorations sont l'occasion de faire un bilan pour les médias de par le monde.

Sur un site spécialisé dans le sujet, une mise à jour du bilan nous apprend que le séisme et le tsunami ont fait 19000 morts et disparus. Un graphique montre l'évolution des bilans; après une augmentation rapide dans les premiers jours, la diminution du nombre de disparus, non compensée par la découverte de cadavres a conduit à réviser les estimations à un niveau bien plus bas que les presque 30000 morts initialement craints. En fait, le tsunami est responsable de l'écrasante majorité des décès: plus de 94%! Un des premiers facteurs explicatifs de décès est l'âge: plus de 75% des morts avaient plus de 50 ans, 56% plus de 65 ans. Fatalement, quand on regarde la carte de répartition des morts, on voit qu'ils sont tous ou presque sur la côte, mais sont relativement étalés. Le tsunami a frappé la côte sur plus de 200km. Sur le terrain, la dévastation due au tsunami est impressionnante, on peut en voir un exemple sur cette vidéo d'Onagawa avec des bâtiments en béton renversés et un brise-lame à l'entrée de la baie qui a disparu, sous l'effet d'une vague de presque 15m.

Les dégâts matériels sont répartis de façon plus dispersée. Les dommages s'étendent plus à l'intérieur des terres et jusqu'à Tokyo au sud. Cependant, les dégâts sont moins définitifs à l'intérieur des terres que sur la côte, le tableau de répartition entre les différentes catégories montre qu'il y a proportionnellement bien plus de bâtiments détruits qu'endommagés là où le tsunami a frappé. Au total, 400k bâtiments sont détruits et au total 1.2M ont été suffisamment endommagés pour être répertoriés. Pour les bâtiments, on constate quand même que les dommages sont plus équilibrés entre secousse et tsunami, une partie des bâtiments endommagée étant condamnée à la destruction. Il y a en conséquence de nombreux déplacés, environ 320000, dont la moitié environ est apparemment due à la catastrophe de Fukushima.

Ces destructions se traduisent par un bilan économique: les conséquences directes sont estimées à plus de 300G$ et les indirectes à plus de 550G$. Ces bilans incluent la catastrophe de Fukushima qui apparemment représente environ 20% des dégâts économiques.

Pour la catastrophe de Fukushima, il se confirme de plus en plus que les dégâts y sont essentiellement matériels. Le blog {sciences²} de Libération en donne avec sa série un bon aperçu. Il part d'une présentation de l'IRSN où on voit que la radioactivité due aux rejets a été divisée par 5 dans les 3 premiers mois, la décroissance se poursuivra plus lentement, le césium 134 ayant une demi-vie de 2 ans, le césium 137 de 30 ans, laissant certaines zones significativement contaminées. Mais personne n'a été exposé à une dose mortelle, et seuls une centaine de travailleurs ont reçu une dose supérieure à 100mSv, à partir de laquelle des effets commencent à être notés sur le long terme. L'expert de l'IRSN admet que l'essentiel des dommages humains est l'évacuation: une catastrophe nucléaire ne se représente pas nécessairement par un nombre de morts mais par l’évacuation brutale et l’abandon de territoires. La presse anglo-saxonne est parfois la plus directe: les radiations ne sont pas le problème n°1. Et c'est sans doute ce qui a amené l'association des casseurs d'atomes à publier une vidéo où des chercheurs donnent leur sentiment, très positifs du point de vue radiologique. Techniquement, on s'est aussi aperçu que la centrale n'avait pas certains dispositifs qui auraient permis d'amoindrir les dégâts et a ignoré les avertissements de l'AIEA. Les réacteurs plus récents ont, eux, survécu au tsunami. Cela montre que le risque est maîtrisable et c'est pourquoi l'industrie nucléaire est loin d'être morte. Mais cela n'empêche évidemment pas les anti-nucléaires de soigneusement éviter de parler du bilan dans leurs éditoriaux.

Au final, le séisme du Tohoku a montré que les plus grosses catastrophes pouvant toucher l'homme sont toujours les catastrophes naturelles. Les catastrophes causées par la main de l'homme sont en général de moindre importance et, au contraire, la technique lui permet d'engranger d'énormes gains de confort et de durée de vie. Le bilan est limité à moins de 20000 morts grâce en partie aux normes anti-sismiques japonaises et les accidents nucléaires ont bien peu d'effets comparés aux alternatives.

16 février 2012

Très professionnel

Pour clôturer le série sur le scénario envisagé par l'OPECST à long et très long terme, un dernier billet sur la motivation de la baisse de la part du nucléaire semble s'imposer. L'office, qui fait du développement de technologies de stockage un impératif de la validité de son scénario, n'est pas précisément animé par des d'anti-nucléaires patentés. Par exemple, Christian Bataille a donné son nom à une loi sur la gestion des déchets de l'industrie du nucléaire, ses interventions publiques montrent qu'il est favorable au développement de cette industrie.

La justification avancée est que la population peut se liguer rapidement contre l'énergie nucléaire:

La vitesse avec laquelle la population, en réaction à l’accident de Fukushima, s’est coalisée, par l’entremise des autorités locales, contre le redémarrage de tout réacteur arrêté, conduisant à une extinction accélérée du parc nucléaire, jusqu’à une interruption complète probable de toute production nucléaire à l’horizon de l’été 2012, montre le risque de s’en remettre pour une part trop importante à cette source d’électricité. (...) L’exemple japonais invite à ne « pas mettre tous ses œufs dans le même panier ».

Ce brusque retournement peut alors mettre en péril un équilibre patiemment construit, amener, comme au Japon, à des coupures ou à des réductions drastiques de la consommation, à engager des dépenses de combustibles fossiles supplémentaires ainsi que des investissements dans de nouveaux moyens de production d'électricité énormes mais non anticipés. Bref, cette préoccupation est légitime, puisqu'en démocratie, tenir compte de l'avis des citoyens est une nécessité.

Le réponse à cette préoccupation est par contre étonnante. Le constat que l'électricité nucléaire est le seul moyen aujourd'hui connu qui produise de l'énergie à la demande en quantité suffisante pour un pays comme la France amène l'office à maintenir peu ou prou le parc nucléaire. Seul vient le faire diminuer les inévitables énergies renouvelables à la mode, éolien en tête, qu'il compte au final faire seconder par des systèmes de stockage. Ce n'est qu'après 50 ans que le parc amorcerait une décrue grâce à la baisse des coûts et la généralisation de ces systèmes de stockage. Mais à cette époque, après 2050, il semble que l'opportunité de recourir rapidement à la seule source mobilisable rapidement, les combustibles fossiles, sera pratiquement interdite, les stocks ayant fortement diminué ou leur usage fortement découragé. Si donc le public devait réclamer à cor et à cri le remplacement de l'énergie nucléaire, quelles seraient les options?

De façon plus cynique, on ne peut que remarquer que, quand le nucléaire représente la majeure partie de la production, on ne peut s'en passer sauf à renoncer à utiliser l'électricité. Au contraire, quand il ne représente que 25 ou 30%, il est possible de faire appel aux moyens de pointe en permanence pour combler une bonne part de la production manquante, à condition bien sûr d'avoir assez de combustible.

L'argumentation révèle aussi une faillite du débat public en France. Il n'y a en effet pas tant de «paniers» d'énergie où mettre ses œufs. À cause des besoins de nourriture, la biomasse ne peut que représenter qu'une fraction des besoins en énergie d'un pays comme la France. L'éolien et le solaire photovoltaïque sont des sources intermittentes et obligent donc à des investissements extraordinaires dans le stockage si on veut s'appuyer uniquement sur eux. Les combustibles fossiles sont une solution qui fonctionne, et d'ailleurs, difficilement remplaçable dans les transports. Mais si on veut éviter de rejeter du CO₂, il faut diminuer leur consommation, les stocks sont aussi limités. Le nucléaire quant à lui est une solution, y compris à long terme avec les réacteurs à neutrons rapides, mais n'est pas économiquement adapté aux productions de pointe. De fait, il semble que si on veut garder un coût raisonnable de l'énergie, l'alternative se résume à: combustibles fossiles ou nucléaire? Où est la diversification possible?

La perception du danger du nucléaire parmi la population est aussi largement exagérée, surtout quand on la compare au premier concurrent dans la production d'électricité: le charbon. Ce n'est pas tant que le nucléaire ne connaisse pas d'accident. Mais tous les moyens de production d'énergie emportent leur lot de dangers, ainsi par exemple du couvreur qui installe des panneaux solaires. Mais le nucléaire permet de produire de grandes quantités d'énergie, nécessite de peu de matériaux et permet aussi de fuir lorsque les choses tournent mal. Le charbon, quant à lui, entraîne, de la mine aux fumées émises, des conséquences importantes sur la santé. Et c'est ainsi qu'on s'est amèrement plaint ailleurs que le charbon ne fasse pas l'objet de plus d'attentions.

L'utilisation du nucléaire s'accompagne d'une image de transgression. Le rapport de l'OPECST illustre aussi cela: en Allemagne, l'exploitation du lignite engloutit des villages et modifie profondément le paysage. Dans son compte rendu de visite en Allemagne, Christian Bataille qualifie les techniques de réaménagement de l'environnement de très professionnelles (Tome 2 p42), comme si, finalement, il y avait une sorte de fatalité dans l'exploitation du lignite en Allemagne et que la seule chose qu'on puisse y faire, c'est de réparer de façon professionnelle, contrairement au nucléaire où tous les dommages sont inacceptables même s'ils sont avant tout matériels. Lorsque des accidents se produisent dans l'exploitation des combustibles fossiles, personne n'en demande la mise à l'arrêt définitive. Cet aspect transgressif du nucléaire est largement le fonds de commerce du mouvement écologiste. Mais si jusqu'à la fin des années 70, le mouvement écologiste était largement noyé par la demande de plus de confort et une certaine confiance dans le progrès technique pour assouvir cette demande et ainsi améliorer la condition humaine, depuis, le rapport de forces s'est largement inversé. Les écologistes sont ainsi parvenus à obtenir l'interdiction de fait des OGMs en France. Sur cette question comme celle du nucléaire, les politiques, ou au moins ceux qui ont une présence médiatique, ne se sont pas bousculés pour défendre ces techniques.

Et c'est ainsi que l'office se voit mis face à un dilemme: la population est favorable à des moyens de production qui ne rempliraient en rien ses besoins, est hostile à des technologies qui agissent de façon très peu visible, est gagnée par une idéologie hostile au progrès technique, il ne veut pas non plus favoriser le réchauffement climatique. Dans ce cadre, il est impossible ou presque de recommander que la part du nucléaire reste à un haut niveau ou même que le parc se développe. Mais alors la seule alternative consiste à plaider pour un ensemble de technologies intermittentes dont on stocke le produit, au prix d'investissements et de coûts d'exploitations qui s'avèreront sans nul doute délirants. Ces moyens de stockage ressembleront aussi à ces bonnes vieilles techniques dont tout le monde peut se faire une idée, l'hydraulique et la chimie. Et si jamais un accident arrive, on pourra réaménager de façon très professionnelle.

13 février 2012

Le scénario de l'OPECST

L'OPECST termine son rapport sur l'avenir sur la filière nucléaire par l'énonciation de 3 scénarios, dont un seul est véritablement décrit en détail (Tome 1 p65 sq). Ce scénario s'appuie massivement sur des énergies renouvelables et des systèmes de stockage de l'électricité, il prévoit une décroissance de l'importance du parc nucléaire, surtout dans la deuxième partie de ce siècle. C'est aussi un scénario qui permet de ne pas augmenter a priori les émissions de CO₂ causées par la production d'électricité et de les éliminer d'ici la fin du siècle. Cependant, il souffre de quelques défauts qui font douter de son réalisme.

Le scénario est principalement décrit par la part d'électricité produite via le nucléaire. Il s'agit plus vraisemblablement de la part de la consommation finale, la présence significative des systèmes de stockage fait que la production totale sera forcément plus élevée qu'aujourd'hui: à la production «primaire» viendra s'ajouter une production «secondaire». À la fin du rapport figure aussi un graphe de la puissance installée de réacteurs nucléaires, le texte comprenant un scénario de remplacement des différentes générations de réacteurs. Puissance nucléaire installée selon l'OPECST

L'OPECST prévoit donc que le nucléaire représentera 50% de la production pour 50GW installés en 2050 et 30% de la production pour 30GW installés en 2100. On peut donc évaluer les productions à ces époques, en faisant l'hypothèse que le facteur de charge reste identique à celui d'aujourd'hui, environ 75%. On trouve une production de 660TWh en 2050 et en 2100 contre en gros 550TWh aujourd'hui, ce qui représente une hausse de 0.5%/an entre aujourd'hui et 2050 et une stabilité ensuite. L'OPECST prévoit donc que la production d'électricité sera quasiment stable ces 40 prochaines années et totalement stable après 2050. Comme l'office prend la peine de donner la puissance installée et la trajectoire de remplacement du parc actuel, ce n'est pas juste pour raisonner à production constante. On l'a déjà dit, l'hypothèse de la production et de la consommation stables d'électricité n'est pas raisonnable. La conséquence directe de la stabilité de la production est que l'électricité ne jouera aucun rôle ou presque dans la réduction de la consommation des combustibles fossiles en France. Adieu donc les rêves de grands parcs de voitures électriques, tout devra se faire via des économies de consommation des combustibles fossiles. Ce qui risque, vu qu'il faut les diviser par 4, d'être techniquement impossible et extrêmement impopulaire, car nécessairement accompagné de taxes substantielles.

Le scénario de l'office est entièrement fondé sur la disponibilité des systèmes de stockage, c'en est même une condition de sa validité. L'office fait cependant des hypothèses très optimistes sur l'efficacité du stockage. Il déclare (p67): Avec un taux de charge moyen de 20%, une capacité éolienne de 50GW s’appuyant sur un système de stockage d’énergie pourra alors se substituer à une production de 10 GW en base. Sachant que les centrales — nucléaires — qui tournent en base ont un taux de charge de 75%, cela veut dire que le système combiné éolien + stockage a une efficacité équivalente. L'expérience qu'on a d'ores et déjà de l'éolien montre que le stockage devra subvenir à la consommation finale à hauteur des 2/3. Ce qui veut dire que l'efficacité du cycle de stockage devra être supérieure à 70%: aujourd'hui seul le pompage remplit cette condition et il ne faut pas attendre des miracles de son développement. Ce qui fait que la capacité éolienne à installer est sous-estimée de façon assez large.

Cette stratégie ne fait pas grand chose non plus pour éliminer les émissions de CO₂ causées par la production d'électricité. Pour cela, l'office semble miser sur la biomasse ... qui sera sans doute aussi sollicitée par ailleurs pour remplacer les combustibles fossiles puisque l'électricité ne jouera pas ce rôle. Comme le développement de la biomasse est tout aussi limité, on risque donc de continuer à utiliser des combustibles fossiles pour la pointe, alors que justement, le stockage avait la possibilité de les éliminer.

L'office espère aussi que les subventions aux énergies renouvelables cesseront après 2020. On est en droit d'en douter pour au moins deux raisons. La première, c'est qu'actuellement, ce sont sans doute les meilleurs sites qui sont en train d'être équipés. Les autres sites présentent sans doute un rendement financier inférieur, ce qui sera toujours le cas après 2020. Il y aura alors de fortes chances que le prix des renouvelables sur ces sites soit toujours supérieur aux coûts des autres sources, amenant à devoir prolonger les subventions bien au delà de 2020. C'est ainsi qu'aujourd'hui, à 130€/MWh garantis sur 20 ans, il ne s'est toujours présenté personne pour construire des champs d'éoliennes en mer. L'appel d'offres gouvernemental semble accepter des offres allant au moins jusqu'à 170€/MWh, pour une fin d'installation en 2020. Il est peu probable que ce type d'installations ait rejoint dans 10 ans ne serait-ce que le prix de l'éolien terrestre actuel. La deuxième raison, c'est qu'à cause de leur intermittence voire — pour le solaire photovoltaïque — de leur corrélation inverse à la demande, ces énergies rendent un service inférieur aux sources commandables actuelles. Cela se traduit par la nécessité du stockage. Et si, justement, il doit y avoir des installations de stockage capables d'absorber les surplus des énergies renouvelables, cela voudra dire qu'il y a une situation de surproduction impliquant des prix plus bas que la moyenne. Lors des périodes de forte production, il y a de bonnes chances que les prix de l'électricité soient très bas voire nuls comme mentionné dans l'étude de Pöyry, ce qui grèvera la rentabilité des énergies renouvelables.

De l'autre côté, le scénario de l'office s'efforce de ne pas profiter à plein du potentiel de l'énergie nucléaire. L'EPR de Flamanville paraît ainsi devoir rester un exemplaire unique pendant 15 ans, de façon à bien perdre de l'expérience dans la construction de centrales nucléaires, une cause probable de l'allongement des délais et de l'explosion des coûts. Mais de façon moins anecdotique, l'office ne voit le premier réacteur commercial à neutrons rapides — Gen IV sur le graphe — ouvrir qu'à partir de 2060 et la puissance installée plafonner à 30GW, donnant, avec les stocks actuels d'uranium, 10 000 ans de production possible avec cette filière. Comme l'office propose de continuer à utiliser le nucléaire actuel pendant pratiquement autant de temps qu'il a été utilisé en France, ces stocks ne peuvent qu'augmenter. Le caractère constant de la production d'électricité nucléaire favoriserait aussi l'apparition du stockage, en diminuant la capacité nécessaire des usines et donc les coûts d'investissement.

Pour le dire clairement, l'office semble faire de grands efforts pour trouver un moyen de diminuer la part du nucléaire dans la production d'électricité. Il ignore pour cela les effets sur les autres secteurs de consommation d'énergie qui sont les principaux émetteurs de CO₂ en France. Le discours public insiste beaucoup sur la réduction nécessaire de ces émissions, même si on peut se demander si ce n'est pas pour amuser la galerie. Le scénario prévoit aussi implicitement des investissements supérieurs à ce qu'il pourraient être avec le nucléaire et fait des hypothèses très optimistes sur les coûts, les subventions futures et l'efficacité des systèmes de stockage. Cependant, il prend en compte le temps de développement des différentes technologies et une partie de la contrainte posée par les émissions de CO₂ et la raréfaction des ressources fossiles. C'est ce qui fait que malgré ses défauts, c'est sans doute, jusqu'à présent, le meilleur travail provenant du monde politique sur la question. On peut donc prédire que les politiques énergétiques continueront à se distinguer par leur inefficacité.

12 février 2012

Perspectives de la filière nucléaire française

À l'occasion de son rapport sur l'avenir de la filière nucléaire en France, l'OPECST a invité les acteurs de la filière actuelle et les instituts de recherche à s'exprimer. Les auditions sur la filière telle qu'elle est aujourd'hui donnent des informations sur certains coûts actuels, l'audition sur la recherche sur la Génération IV. Cela permet de de se faire une idée des enjeux et de la situation particulière de la France.

Les centrales nucléaires sont des cas particuliers des centrales thermiques, dont le principe de base est de transformer de la chaleur en force mécanique puis en électricité. Dans les centrales nucléaires, on utilise une réaction de fission auto-entretenue comme source de chaleur au lieu de brûler un combustible à base de carbone. Une réaction de fission produit environ 200MeV, soit un peu plus de 23GWh/kg de matière fissionnée. La fission est donc environ un million de fois plus énergétique que la combustion, ce qui explique que les volumes de matière en jeu soient nettement réduits et que le prix de l'uranium en tant que tel ne compte pas beaucoup dans le coût de l'électricité produite. Selon le rapport (Tome 1 p28), les importations annuelles d'uranium naturel sont de 8000 tonnes pour un coût de 200M€. À titre de comparaison, en 2010 selon le bilan énergétique de la France, la France a importé 511TWh de gaz naturel, soit l'équivalent de 340 millions de tonnes de méthane. Le gaz naturel est vendu à environ 20€/MWh, ces importations ont donc coûté 10G€. Même si l'uranium doit être enrichi pour être utilisé dans les centrales, les coûts dus à la matière première sont nettement plus bas que pour les combustibles fossiles.

Les coûts de construction, par contre, sont nettement plus élevés. La construction du réacteur EPR de Flamanville est estimée à 6G€. Cela dit, les réacteurs EPR en construction en Chine coûteraient 3.5G€ et tiendraient les délais: la construction est aujourd'hui plus avancée à Taishan qu'à Flamanville malgré une construction commencée 2 ans plus tard. Les coûts salariaux en Chine sont certes nettement moins élevés qu'en France, mais la rapidité de construction des centrales nucléaires en Chine est largement due à l'expérience acquise ces dernières années, alors qu'en France, la dernière centrale ouverte (Civaux) a vu ses travaux débuter à la fin des années 80.

Le rendement de conversion de la chaleur en électricité dans les réacteurs actuels est d'environ un tiers, ce qui fait que pour produire 1GW pendant un an, il faut fissionner environ 1 tonne de matière. Comme cette matière fissile est essentiellement composée d'uranium 235, on a besoin de beaucoup plus d'uranium qu'une tonne. L'uranium 235 ne représente que 0.7% de l'uranium présent sur Terre, on en perd lors de l'enrichissement et il est impossible de tout consommer, la réaction de fission finissant par s'interrompre quand la concentration en noyaux fissiles est trop basse. Cela fait que pour fissionner 1 tonne de matière, on a besoin d'environ 150t d'uranium naturel. En retraitant l'uranium «usagé» et en récupérant le plutonium comme en France, on arrive à faire descendre le besoin à 130t (Tome 2 p139). Il serait intéressant de réduire ce besoin: d'une part l'uranium appauvri s'accumule sans qu'on n'en fasse rien et d'autre part, au rythme actuel d'exploitation, les réserves dureraient environ 80 ans, moins longtemps que les réserves de charbon.

Si le nombre de neutrons émis lors de la fission de l'uranium 235 ne permet pas d'espérer faire mieux que le bilan actuel, le plutonium en émet pratiquement 3 et si on ne ralentit pas les neutrons — «modère» dans le jargon de la physique nucléaire —, le ratio fission/capture s'améliore. Dans ce cas, on peut espérer renouveler régulièrement la matière fissile aux dépens de la matière «fertile», dont fait partie l'uranium 238, qui constitue plus de 99% de l'uranium naturel. Dans ce cas, on consomme tout l'uranium, toujours au rythme de 1 tonne par GW et par an. Utiliser le cycle uranium/plutonium est très intéressant pour un pays comme la France: à cause du programme nucléaire, le stock accumulé se monte à environ 300 000 tonnes d'uranium appauvri (Tome 2 p139) et 300 tonnes de plutonium (p140). La France dispose là, en quelque sorte, d'une mine tout à fait spéciale, puisque le matériau y est disponible, quasiment prêt à être utilisé, et qui se remplit au fur et à mesure de l'exploitation des réacteurs actuels.

Les réacteurs à neutrons rapides présentent toutefois des inconvénients, outre leur coût plus élevé. L'impératif de ne pas (trop) ralentir les neutrons et de limiter les pertes interdit de recourir à l'eau comme fluide caloporteur, et de se tourner vers des éléments plus lourds — donc des métaux —, absorbant peu les neutrons tout en étant liquides autour du point de fonctionnement du réacteur entre 300°C et 600°C. Cela limite en fait le choix au sodium ou au plomb. Les réacteurs au plomb ont été éliminés à cause des problèmes de corrosion. Le sodium présente l'inconvénient de réagir violemment avec l'oxygène de l'air et avec l'eau, d'où l'idée d'utiliser un gaz inerte comme l'azote ou le CO₂ pour faire tourner la turbine. Il est aussi opaque, contrairement à l'eau utilisée dans les réacteurs actuels ce qui pose des problèmes d'inspection en cours d'utilisation. Du fait d'une certaine expérience en la matière, la France a choisi de concentrer se recherche sur les réacteurs au sodium. L'autre problème, c'est que la moindre probabilité de fission avec les neutrons rapides amène à une plus grande concentration d'éléments fissiles que dans le combustible actuel, ce qui renforce la radiotoxicité du combustible. Il faut aussi accumuler suffisamment de plutonium pour pouvoir démarrer un cycle fermé, une fourchette de 16 à 20 tonnes d'inventaire total — dans le réacteur et dans la filière de retraitement — pour un réacteur de 1GW (p140) est donnée, ce qui donne un inventaire d'à peu près 1000 tonnes pour remplacer le parc actuel de réacteurs à eau. Par contre, ce type de réacteurs pourraient être refroidis à l'arrêt par la convection naturelle, le talon d'Achille des réacteurs à eau actuels. Cela a déjà été démontré sur de petits réacteurs.

En conclusion, il semble que le nucléaire ait, contrairement à ce que laissent entendre les écologistes, des perspectives d'évolution très intéressantes avec la quasi-fermeture du cycle de l'uranium. Un pays comme la France qui a accumulé de grandes quantités d'uranium se retrouverait avec les réacteurs de génération IV avec au moins 1000 ans de réserves sur son territoire. Cela devrait constituer une raison impérative de continuer la recherche dans ce domaine qui ne semble pas devoir déboucher sur des applications à grande échelle avant 2040. Pour véritablement lancer ces réacteurs, le plus simple est encore de continuer à faire fonctionner des réacteurs à eau qui créent du plutonium en fonctionnement. L'addition de sécurités supplémentaires a fait augmenter le prix des centrales, mais une partie des coûts constatés à Flamanville est sans doute due à la perte d'expérience suite à l'arrêt de construction de centrales. Même avec ces coûts augmentés, le nucléaire reste compétitif et semble toujours être la seule source d'électricité qui ne produit pas de CO₂, qu'on peut commander et dont on peut augmenter la production pour de nombreuses années encore.

PS: merci aux administrateurs et aux contributeur de laradioactivite.com pour le contenu de leur site, très complet sur nombre de sujets touchant à la radioactivité et à l'énergie atomique!

29 janvier 2012

Stocker l'électricité

L'OPECST a rendu en décembre dernier un rapport — en 2 tomes— sur l'avenir de la filière nucléaire et plus généralement la génération d'électricité en France. Le premier tome présente ce que retient l'office des auditions et de ses déplacements, ainsi que sa conclusion sur le futur de la production d'électricité en France. Le deuxième tome compile l'ensemble des auditions menées. Ce rapport est l'occasion de passer en revue un certain nombre de sujets qui ont été évoqués lors des auditions de l'office et aussi de donner mon avis sur les conclusions de ce rapport.

Actuellement, il est difficile de stocker de l'électricité dans des quantités significatives ou dans un laps de temps dépassant quelques secondes. On est donc obligé de passer par des intermédiaires. Actuellement, seul le stockage dans des lacs de barrage remplit un rôle significatif dans la production d'électricité. Son utilisation requiert la présence de montagnes pour un usage le plus performant, et il existe une limite à l'acceptabilité des lacs de barrage, la montagne étant aussi habitée et fréquentée par des êtres humains, souhaitant voir aussi des vallées non noyées par des lacs. La montée en puissance de l'éolien et du solaire, moyens intermittents et hors de notre contrôle de production d'électricité, renforce la tentation de trouver des moyens de stocker cette énergie. Sans ces moyens de stockage, le complément est amené à être assuré, pour des raisons essentiellement économiques, par des énergies fossiles qu'il s'agit justement d'éviter d'utiliser.

Le rapport de l'OPECST aborde deux moyens: l'hydro-électricité et le stockage «chimique».

L'hydraulique

Comme produire de l'électricité à partir de lacs de barrage est une des formes les moins technologiquement avancées et les moins chères, la plupart des sites intéressants pour y installer des barrages sont occupés. Ceux qui sont libres ont un intérêt touristique et il est aussi légitime que les habitants souhaitent conserver une partie des vallées sans lac. En Europe, il existe peut-être encore des possibilités en Suisse et en Autriche, mais cela ne suffira pas face aux perspectives de développement des énergies renouvelables intermittentes. En France, sur 12GW de puissance pour l'ensemble des lacs de barrage, seuls environ 5GW sont disponibles pour le pompage.

Le stockage dans les barrages se base sur la gravité, les rendements sont bons, supérieurs à 70% sur l'aller-retour. L'énergie stockée est égale au produit de trois termes: l'accélération de la pesanteur, la masse d'eau stockée et la hauteur de chute. C'est pourquoi les sites montagneux sont les plus intéressants, on arrive à y créer des installations où la hauteur de chute vaut environ 1000m et où les volumes d'eau stockés dans la retenue peuvent dépasser la centaine de millions de m³. Dans le cas des stations de pompage, il faut en plus disposer d'une deuxième retenue en contrebas. Elle est souvent de capacité bien inférieure, de l'ordre de 10 fois moins, ce qui limite l'usage du stockage. Par exemple, le barrage de Grand'Maison a une retenue supérieure de 130M de m³, une hauteur de chute de 925m et une retenue inférieure de 14M de m³, ce qui limite le stockage à environ 37GWh.

Comme tous les sites de montagne sont équipés, on se tourne vers les sites marins, là où il y a des falaises. Un prototype a été construit sur l'île d'Okinawa. Le rapport reprend cette idée — tome 1 p58 sq , tome 2 p171 sq — avec un projet qu'a EDF à la Guadeloupe de construire une centrale du même genre. Le représentant d'EDF a donc présenté une centrale de 50MW, avec une capacité de 20h de fonctionnement continu — soit 1GWh — et une hauteur de chute de 50m. Ce qui veut dire que la retenue supérieure a une contenance d'environ 7M de m³, soit un lac de 35ha et profond de 20m ... le tout au sommet d'une falaise de 50m. Cette usine ne passera pas complètement inaperçue.

Le représentant d'EDF indique aussi qu'on pourrait installer 5GW de la sorte sur les côtes françaises (T2 p183), ce qui ferait donc une centaine d'usines. Le rapport est assez enthousiaste, puisqu'il déclare que les STEP marines constitueront une solution particulièrement bien adaptée pour la stabilisation de l’électricité produite par les parcs d’éoliennes offshore (T1 p59). Cependant, il y a quelques raisons de penser que les attentes seront déçues. Il n'existe ainsi aucun site équipable entre Quiberon et l'embouchure de l'Adour, ni de Perpignan à l'embouchure du Rhône. C'est assez gênant pour la stabilisation de la production des parcs offshores au large de l'embouchure de la Loire, l'appel d'offre gouvernemental y prévoyant déjà jusqu'à 750MW. Ensuite, les falaises sont souvent des espaces protégés et/ou fréquentés assidûment par les touristes. On peut ainsi citer le cap Fréhel, Étretat, le cap Fagnet ou le cap Blanc-Nez. Le problème n'est pas tant que d'arriver à en implanter quelques-unes, mais d'en implanter plusieurs dizaines. Ce qui fait qu'au lieu des 5GW vus par le représentant d'EDF, on aura sans doute 5 fois moins, alors que rien que pour le premier appel d'offre d'éolien en mer, il est prévu entre 2 et 3GW et que l'objectif d'ici 2020 est de 6GW.

La chimie et les carburants synthétiques

Le grand succès des combustibles fossiles tient à leur densité d'énergie qu'on peut dégager par combustion combinée à leur stabilité chimique par ailleurs. Par exemple, le méthane a un pouvoir calorifique d'environ 15kWh/kg, les carburants classiques donnant des résultats comparables. La plupart des carburants classiques se trouvant sous forme liquide, ils ne forment immédiatement pas des mélanges détonants, ils ne sont pas outrancièrement toxiques. Leur origine est la végétation préhistorique; le pétrole et le charbon mettent quelques centaines de millions d'années à se former. Dans l'optique de se débarrasser des combustibles fossiles, trouver des remplaçants ou de nouvelles façon de les fabriquer est donc extrêmement tentant et intéressant.

Certes, le rendement qu'on peut attendre d'une combustion est inférieur à ce qu'on peut attendre d'une technique comme les barrages, mais on gagne très nettement en compacité. Cela dit les CCGT atteignent des rendements de 60%. Leur forte puissance et leur coût raisonnable leur permettra d'être le moyen privilégié de production d’électricité à partir de la combustion de gaz. Dans le secteur des transports, les rendements peuvent monter jusqu'à 50%, mais le rendement moyen pour une voiture est plutôt de l'ordre de 20%. Là des piles à combustible et des batteries pourraient remplacer les moteurs à explosion, mais ces deux solutions ont leurs propres problèmes: coût très élevés et limites posées par les gisements de minerais.

Tous les procédés ayant en vue la fabrication de carburants synthétiques se basent sur la capture du CO₂ ou la création d’hydrogène. Le cas présenté à l'office repose sur les 2, de façon à absorber les excès de production d'électricité. Pour l'occasion, un représentant d'Areva, entreprise qui voit sans doute là l'occasion de se diversifier dans une activité avec de moindre risques politiques, vient présenter les travaux d'un GIE formé avec des spécialistes des gaz, Air Liquide et GDF-Suez (T1 p59 sq, T2 p173 sq). La marche suivie serait de capturer le CO₂ actuellement émis par les cimenteries puis de le transformer en méthane, puis en diméthyl-éther ou en éthanol. Il déroule une démonstration qu'il ruine à la fin en révélant que les prix donnés sont basés sur un rendement du capital ridiculement bas.

Le scénario d'usage a aussi de graves faiblesses: si on se base sur la capture de CO₂ par les usines pour fabriquer les carburants synthétiques, la consommation de combustibles fossiles sera diminuée mais non éliminée. D'une part, parce que la capture du CO₂ ne sera pas parfaite. D'autre part, l'utilisation par les automobiles des carburants synthétiques amène à ouvrir le cycle et à devoir se réapprovisionner en composés concentrés en carbone, c'est-à-dire en fait en combustibles fossiles. Il paraît en effet peu probable que capter le CO₂ atmosphérique soit viable, étant donné qu'il ne représente que moins de 0.05% en volume de l'atmosphère. On pourrait penser se baser sur des composés azotés, mais ils sont tous toxiques ou instables. Créer de grandes quantités d'hydrogène nécessite aussi de grandes quantités d'eau, créant une compétition pour son usage et incitant à placer les usines en bord de mer, en compétition avec de nombreuses activités économiques.

Tous ces procédés consomment de l'énergie, d'abord pour créer de l'hydrogène. L'électrolyse est un procédé bien maîtrisé, les rendements sont de l'ordre de 80% (exemple). Le problème de l'hydrogène est que c'est un gaz très difficile à liquéfier et finalement peu énergétique par unité de volume. Il faut donc consommer relativement beaucoup d'énergie pour le stocker soit pour le transformer en autre chose (comme du méthane). Si on admet que ces opérations supplémentaires ont un rendement total de 80%, et que le gaz est brûlé dans une centrale à cycle combiné, le rendement global atteint environ 40%, ce qui n'est pas terrible.

Quelles conséquences?

Il est intéressant de faire quelques calculs pour voir ce que donnent les procédés de stockage dans le cas où on voudrait se passer totalement de combustibles fossiles et se baser sur différents modes de production «primaire» — c'est-à-dire avant stockage — d'électricité. Les cas donnés ci-dessous sont simplifiés à l'extrême et amplifient les besoins de stockage. Je pense qu'ils donnent tout de même quelques informations intéressantes.

Commençons d'abord par supposer qu'on puisse, malgré les difficultés, se baser uniquement sur un stockage d'efficacité égale à 40% et que la production d'électricité «primaire» soit constante dans le temps avec des installation qui ont un facteur de charge de 70%. La consommation finale, elle, connaît deux états, un où la consommation vaut 30GW, l'autre où elle est de 90GW pour une moyenne de 60GW. Cela correspond à une consommation de 525TWh, 10% plus élevée que celle de la France. On trouve que la puissance «primaire» installée est d'environ 100GW, ce qui est une augmentation conséquente par rapport au cas français, où, en cumulant nucléaire et barrages au fil de l'eau, la puissance primaire installée ne produisant pas de CO₂ est d'environ 70GW. Elle reste cependant raisonnable. Les capacités pour le stockage le sont moins, puisqu'il faut les usines absorbent 40GW. Cela dit, le modèle à deux états ne correspond pas à la réalité, où la consommation reste en fait proche de 60GW une bonne partie de l'année, sauf au mois d'août et dans les périodes les plus froides de l'hiver. On bénéficie aussi d'un stockage «gratuit» avec les lacs de barrage qui se remplissent en grande partie grâce aux précipitations. Mais on peut voir que les coûts induits par une technique de stockage peu efficace ne sont pas mineurs, ce qui explique qu'on se soit limité à la solution efficace, le pompage, et encore dans des proportions de l'ordre de 1% de la production totale. Le complément est assuré par les centrales thermiques à combustibles fossiles.

Si on se tourne maintenant vers un moyen de production intermittent dont le facteur de charge moyen est de 25% mais dont la production évolue entre deux états, un où la production est de 70% de la capacité installée et l'autre où il n'y a pas de production. La consommation finale est estimée fixée à 60GW. Avec un rendement du stockage de 40%, les puissances à installer sont extraordinaires: plus de 400GW de capacité primaire, les installations de stockage doivent être capables d'absorber plus de 200GW, etc. Bien sûr, c'est une représentation caricaturale des énergies renouvelables intermittentes, mais il reste certain que ce type de source primaire entraîne plus de besoins de stockage et plus de besoins de production primaire, dans des proportions importantes.

Le dernier point à prendre en considération est que les installations de stockage doivent fonctionner à l'envers de l'économie en général: la nuit et en plein été car la moindre consommation à ces moments rend plus probable qu'on y ait des surplus d'énergie. Cela posera sans doute des problèmes sociaux si cette industrie est amenée à prendre une grande ampleur.

Pour conclure, avec les rendements des moyens actuels de stockage, il est illusoire de vouloir se passer de combustibles fossiles. Même si la recherche permettait de découvrir des moyens plus efficaces et plus faciles à généraliser, l'OPECST ne voit pas de déploiement à grande échelle avant une vingtaine d'années et on ne peut que lui donner raison. Le problème de la source primaire se pose aussi: une source intermittente et fatale oblige à prévoir plus d'investissements pour le stockage, car en plus de devoir faire à face aux variations de demande, il faut faire face aux variations de production. Les coûts pour les consommateurs sont donc nettement plus élevés, ce qui amène à douter de la compétitivité de systèmes basés sur de l'éolien et du solaire photovoltaïque, soutenus par des systèmes de stockage. La tentation sera grande de se reposer sur les stocks légués par le passé: les combustibles fossiles.

6 janvier 2012

Le principe de réalité et les éditoriaux du Monde

La publication par l'ASN de son rapport d'évaluation de la sûreté des centrales nucléaire française est de nouveau l'occasion de reparler dans la presse de la fabrication d'électricité à partir de la fission de l'uranium. Sans réelle surprise, l'ASN a annoncé qu'aucune centrale ne devait être fermée, mais que toutes devraient voir leur dispositifs de sûreté renforcés, ce qui va entraîner des dépenses d'investissement de la part d'EDF que l'entreprise évalue à environ 10G€.

Le Monde profite de l'occasion pour publier diverses tribunes sur le sujet. La première, quelque peu fouillis, écrite par un ancien vice-président de la Commission internationale des grands barrages et dont on peut donc subodorer qu'il est un ancien employé d'EDF, tente tant bien que mal de nous expliquer que le nucléaire est la seule énergie qui permet actuellement de fournir du courant de façon compatible avec la vie moderne tout en minimisant les rejets de gaz à effet de serre et les volumes de produits importés. La seconde, écrite par des opposants, tente de nous expliquer qu'on peut se passer du nucléaire sans se reposer sur les énergies fossiles. Les auteurs affirment qu'il n'est pas vraisemblable de penser qu'on remplacerait le nucléaire par du charbon, alors que c'est ce qu'on constate ailleurs, en Allemagne, par exemple: lorsque le couple nucléaire et hydroélectricité ne représente pas la plupart de la production, ce sont les diverses formes de charbon qui dominent ou, plus rarement, comme en Espagne, le gaz. Ils s'extasient aussi devant les performances de l'Allemagne en terme de consommation d'électricité: 27% de moins pour les usages spécifiques, sans nous dire que pour cela, il faut que le prix facturé aux particuliers soit 2 fois plus élevé. Enfin, l'électricité serait fournie par les inévitables énergies renouvelables intermittentes, le solaire et l'éolien, qui bénéficient apparemment pour l'occasion de dispositifs magiques de stockage qui ne coûtent rien ni en argent ni en énergie, un peu à la façon du scénario négaWatt dont on a déjà dénoncé l'irréalisme. La dernière, la plus sérieuse, tente une évaluation des coûts entraînés par la sortie du nucléaire. L'auteur, ancien directeur adjoint de la direction de l'environnement à l'OCDE, ce qui explique sans doute sa sympathie pour les données de sa filiale pour l'énergie, l'AIE. À partir d'hypothèses claires, il démontre que continuer à faire fonctionner les installations existantes, qui fournissent de l'électricité de façon fiable pour un coût marginal faible est le moyen le plus économique et, par là, le meilleur en termes de niveau de vie et d'emplois.

Mais surtout, en première page, le Monde publie un éditorial, titré Du culte de l'atome au principe de réalité. Le titre donne le ton: finalement, il y aurait eu un culte du nucléaire, mais ce seraient les opposants qui avaient raison, les technocrates nous cachaient tout, les risques étaient élevés et il y avait des coûts négligés. Cependant, il y a tout lieu d'en douter.

Tout d'abord, ces fameux X-Mines qui contrôleraient en secret le destin de la France ne sont que des ingénieurs sélectionnés pour l'encadrement. À la fin des années 60, puis à la suite du choc pétrolier, la France est confrontée à un dilemme: les réserves de charbon sont en voie d'épuisement rapide alors que la fabrication d'électricité reposait dessus, le pétrole est devenu subitement plus cher et surtout la fiabilité de son approvisionnement apparaît douteuse. Les responsables politiques ont donc demandé à ce qu'une solution technique soit apportée. Loin de vouer un culte à l'atome, les ingénieurs chargé de trouver des solutions ont passé en revue ce qui existait et ils ont constaté que la fabrication de l'électricité à partir de la fission d'uranium présentait d'excellentes caractéristiques: faible volume de combustible, ce qui permet de le stocker sur de longues durées, prévisibilité du prix à long terme puisque les coûts sont déterminés essentiellement par les investissement de départ et la masse salariale du site, faibles émissions de polluants et surtout alors de dioxyde de soufre, faible usage de terrains. Pour couronner le tout, la France maîtrisait déjà les techniques d'enrichissement, et une entreprise américaine était prête à nous vendre les plans d'une centrale. C'est ce qui explique le consensus pour s'équiper de réacteurs à une échelle industrielle et non une quelconque resucée du culte du veau d'or.

L'éditorial voit aussi les investissements pour améliorer la sûreté comme énormes. Cela montre surtout que les journalistes ont de graves difficultés avec les ordres de grandeur. En effet, un tel programme s'amortit au moins sur 10 ans. Les centrales nucléaires françaises produisent au moins 400TWh par an. En escomptant qu'un tel investissement de 10G€ doit rapporter 8% par an en plus de se rembourser, on peut calculer le surcoût par MWh: 4.5€. Ce type d'estimation permet de savoir de quels ordres de grandeur on parle, et force est de constater que cela représente bien quelques pourcents d'augmentation du prix de l'électricité.

Quant au démantèlement, peut-être auraient-ils pu consulter avec profit le site de la NRC, le régulateur américain de l'industrie nucléaire, et ses questions/réponses sur le sujet. Ils y auraient lu que le démantèlement d'un REP de 900MW coûte grosso modo 400M€ d'après les démantèlements menés à bien, ce qui après une utilisation de 40 ans représente un coût de 2€/MWh produit et encore moins après 60 ans. Cela n'empêchera pas ce même journal de s'étrangler lorsque la Cour des Comptes donnera le total pour les réacteurs français — sans doute de l'ordre de 30G€ si on compte les réacteurs de 1.3GW coûteront plus cher à démolir.

Plus généralement, on ne peut que constater que les données sur la plupart des problèmes que posent l'industrie nucléaire, l'information est disponible publiquement, sur le web. C'est ainsi que tous les réacteurs sont répertoriés dans une base de données où figure par exemple la production effectuée, RTE donne un historique horaire de la production pour les 6 dernières années, Eurostat fait le point tous les 6 mois sur les prix de l'électricité dans l'UE, l'AIE publie tous les ans des statistiques sur les émissions de gaz à effet de serre, l'UNSCEAR a publié des rapports de plusieurs centaines de pages sur les effets de la radioactivité sur la santé humaine en général, et sur l'accident de Tchernobyl en particulier. Toutes ces données pointent dans une seule direction: l'énergie nucléaire est une source d'électricité fiable, aux coûts tout à fait raisonnables qui ne rejette que des quantités infimes de déchets dans la nature en temps normal et dont les conséquences des accidents sur la santé, imputables aux radiations, sont mineures. Pour le dire autrement, c'est la meilleure façon de produire de l'électricité, à l'exception de l'hydraulique.

De tout ceci, on trouve des traces dans la presse. L'éditorial est bien obligé de remarquer que l'électricité est bien moins chère en France qu'en Allemagne pour les particuliers. Mais les conclusions sont toujours les mêmes: il faut tout remettre à plat alors que toutes les données sont disponibles pour qui veut bien prendre la peine de les chercher. L'éditorial dit vouloir un débat sur des bases rationnelles et en appelle au principe de réalité, mais fait l'impasse sur la masse de données accumulées et refuse de se livrer ne serait-ce qu'à des calculs d'ordre de grandeur. Parfois, il me semble que les mots n'ont pas le même sens dans la presse que dans le dictionnaire.

23 décembre 2011

Conséquences à long terme de Fukushima

Le 16 décembre, le gouvernement japonais a annoncé que la centrale de Fukushima Daiichi était en «arrêt à froid». L'eau à l'intérieur du réacteur est à moins de 100°C depuis septembre dernier, mais les problèmes techniques dans le traitement de l'eau et, certainement aussi, la prudence du gouvernement japonais ont retardé l'annonce officielle. Les rejets à l'extérieur de la centrale seront à l'avenir minimes; à partir de maintenant, il s'agira surtout de commencer à démolir la centrale, ce qui prendra du temps: à 3-Mile Island, on avait attendu 6 ans avant de récupérer la charge d'uranium qui avait partiellement fondu.

Dans la foulée, le gouvernement japonais a annoncé des modifications importantes pour les zones d'évacuation. Dorénavant, les zones ne seraient pas principalement basées sur la distance à la centrale, mais sur l'importance de la radioactivité. Les zones où la dose est inférieure à 20mSv/an seront habitables immédiatement, celles où elle est de moins de 50mSv/an devront subir des travaux de décontamination, celles où elle est supérieure à 50mSv/an resteront inhabitées. Des mesures de radioactivité ont été régulièrement effectuées, ce qui a permis l'élaboration d'une carte (si vous tombez sur une page semblant expliquer les précautions à prendre, après l'avoir lue attentivement, vous signifierez votre accord en cliquant, en bas de la page, sur le bouton de gauche marqué 同意する — «d'accord»).

La carte donne le débit de dose horaire, avec des intervalles donnés dans le cartouche à droite. On peut voir sur cette carte que les retombées sont concentrées sur un panache orienté vers le nord-ouest, une zone relativement peu peuplée, puisqu'il s'agit essentiellement de la chaîne de montagnes côtière. Il n'y a pas de données présentées pour les 10 premiers km autour de la centrale, mais on peut supposer que les retombées — et donc la radioactivité — y sont importantes et qu'elle sera pour la majeure partie inclue dans la zone inhabitée.

Pour effectuer son décompte de dose annuelle, le gouvernement japonais compte sur une personne qui passe 8h à l'extérieur, où le débit de dose est celui donné par les couleurs de la légende à droite et 16h à l'intérieur, où le débit est estimé à 40% de celui à l'extérieur. C'est ainsi qu'un débit de dose de 1µSv/h donne environ 5mSv/an. C'est ainsi que toutes les zones en nuances de bleu ou de vert pourront être réoccupées assez rapidement, la partie en jaune devant faire l'objet de travaux.

En regardant, les communes évacuées, on peut constater que les 3 communes les plus proches de la centrales (Futaba, Okuma et Namie) comptaient environ 40k habitants avant le séisme, que les communes dans la zone qui doit subir des travaux (Iitate, Katsurao, Tomioka) comptaient 20k habitants. À terme, ce sont donc la moitié des 80k évacués qui vont pouvoir revenir s'ils en ont le désir.

Quant aux personnes travaillant à la centrale, environ 100 personnes ont dépassé le seuil des 100mSv et 6 celui des 250mSv, les décès prévisibles de ce fait sont donc limités à quelques unités. Il n'y a pas eu d'autres décès liés à l'accident autres que les 2 noyades causées par le tsunami. Du fait de la distribution de pastilles d'iode et de la faible consommation de lait au Japon, les conséquences parmi la population seront limitées à l'évacuation.

Ainsi, on peut dire que l'accident nucléaire de Fukushima montre que l'industrie nucléaire ne présente pas un grand risque sanitaire pour les populations: les décès à prévoir sont minimes. Par contre, les mesures de précaution sont contraignantes et onéreuses avec l'évacuation, même temporaire, de dizaines de milliers de personnes en cas d'accident grave. Les dégâts économiques sont graves: les réacteurs sont chers à construire, un accident rend inutilisable celui qui en est victime et empêche au surplus de réutiliser le terrain pendant plusieurs dizaines d'années.

14 décembre 2011

Le mythe des énergies renouvelables bon marché

Dans le choix des différents moyens de production d'électricité à installer, les coûts de chaque solution jouent sans nul doute un grand rôle. À quoi bon gaspiller de l'argent? L'énergie nucléaire s'est imposée dans les années 70 comme la moins chère en France. En effet, la France avait épuisé ou presque ses réserves de charbon ce qui nécessitait d'en importer et donc de payer les coûts de transports associés. Comme le coût de l'uranium enrichi, aux cours actuels, entre pour une faible part dans le coût de production de l'électricité nucléaire, il est très intéressant de construire des centrales nucléaires, surtout dans un pays qui maîtrise l'ensemble des technologies nécessaires, comme la France. La pertinence de choix ne s'est pas démentie, comme nous le confirme tous les 6 mois Eurostat: la France est un des pays où l'électricité est la moins chère pour tous.

Dans leur lutte contre l'énergie nucléaire, les écologistes cherchent donc à montrer que l'énergie nucléaire n'est pas la moins chère. Mais comme il leur est difficile de faire directement de la publicité pour le charbon, le gaz ou encore le pétrole, qu'il est fort compliqué de plaider pour la construction de barrages dans un pays déjà bien équipé, il leur faut se limiter aux énergies renouvelables à la mode, à savoir le solaire photovoltaïque et l'éolien. C'est l'objectif de la tribune publiée dans Le Monde par un aréopage de militants provenant de diverses associations écologistes, titrée Assez de mythes : le nucléaire est plus cher que les énergies renouvelables.

Dès l'abord, ils commencent très fort: ils nous affirment que l'électricité est moins chère en France que dans la plupart des autres pays européens, (...) parce que l'Etat a longtemps subventionné le développement du parc nucléaire. Il est vrai que le solaire et l'éolien, eux, ne bénéficient pas et n'ont jamais bénéficié du soutien de l'état. Il n'y a pas de tarifs de rachat obligatoires. Il n'y a pas d'obligation d'achat de cette électricité par EDF. Enfin, il n'y a pas de taxe pour financer les surcoûts de ces énergies. EDF, quant à elle, n'a jamais porté la dette attachée à la construction des réacteurs, cette dette n'a jamais été remboursée par les factures des clients qui pourtant bénéficient depuis longtemps maintenant de tarifs parmi les plus bas d'Europe. Pour résumer, il semble que lorsque l'état fait construire par une entreprise sous son contrôle des installations rentables à des prix inférieurs à ceux qui se pratiquent ailleurs, c'est mal. Lorsque l'état taxe la population pour financer des moyens de production produisant à des prix nettement supérieurs à ceux du marché, c'est bien.

Les auteurs nous affirment aussi que le démantèlement n'est pas financé. Or des démantèlements complets ont déjà eu lieu aux USA, par exemple la centrale de Connecticut Yankee, pour des réacteurs semblables à la flotte actuellement déployée en France, des réacteurs à eau pressurisée (REP). Le régulateur américain, la NRC a donc une certaine expérience en la matière, elle cite des coûts de l'ordre de 400M$ pour des REP de 900MW. Si on compte que les réacteurs français de 900MW sont fermés au bout de 40 ans et ont produit 70% de ce qu'il était possible de produire et que le démantèlement coûte 400M€, le coût du démantèlement par MWh produit est de moins de 2€. Le prix de l'électricité nucléaire a été estimée par le gouvernement à 42€/MWh. Il semble donc probable que les provisions passées par EDF soient suffisantes.

Mais l'argument principal des auteurs porte sur le coût d'installation des différentes sources d'énergies. Ils comptent en termes d'investissement par watt nominal des différentes installations, qui ne représente que la puissance maximale. C'est pourquoi les auteurs disent à un moment qu'il faut normaliser pour prendre en compte l'intermittence, ou dit autrement, au moins pour prendre en compte l'énergie effectivement produite. On peut se dire que leur manière de compter n'est pas la meilleure. Cependant, un petit calcul peut donc se faire à partir des chiffres qu'ils donnent en prenant en compte l'énergie effectivement produite par le nucléaire, l'éolien et le solaire par rapport à la production théoriquement possible, c'est-à-dire en prenant en compte le facteur de charge.

  1. Pour le nucléaire, en 2010, le parc installé est de 63GW pour une production de 408TWh soit un facteur de charge de 73.8% (source Statistiques 2010 de RTE, p17). Si on redresse le coût donné par les auteurs, on obtient 4.93€/W.
  2. Pour l'éolien, RTE donne un facteur de charge de 23% (source: Bilan prévisionnel 2011 p71). Le coût devient alors 5.65€/W.
  3. Pour le solaire photovoltaïque, RTE a pris comme hypothèse un facteur de charge de 11% dans le Bilan prévisionnel. Le coût donné par les auteurs est donc de plus de 9€/W.

On peine donc à retrouver les conclusions des auteurs: le nucléaire est toujours moins cher. De plus, cette analyse ne prend pas compte la durée de vie des installations: 60 ans prévus pour l'EPR contre sans doute 20 ans pour les éoliennes, par exemple. Il faudrait donc non seulement payer plus cher à la première installation, mais aussi payer plus tard le renouvèlement pendant que le réacteur nucléaire continuerait à fonctionner. Quant au problème de l'intermittence, il n'est pas vraiment pris en compte par cette simple analyse du facteur de charge: l'éolien par exemple est totalement aléatoire, comme le montrent les compte-rendus mensuels de RTE. C'est-à-dire que durant un même mois, la puissance délivrée par les éolienne peut varier de 70% de la puissance maximale à 1% voire moins en quelques dizaines d'heures, sans relation avec la consommation. Il faut donc prévoir des moyens de production ou de stockage pour les remplacer lorsque le vent ne souffle pas. Vu que le facteur de charge de l'éolien est de 23%, les moyens de production de remplacement produisent 2 fois plus que l'éolien lui-même, de sorte que c'est plutôt l'éolien qui remplace ces moyens flexibles. La logique économique pousse à ce que ces moyens de productions soient des centrales thermiques à flamme, ou dit autrement, utilisant pour la plupart des combustibles fossiles. Ces moyens de productions ne sont pas nécessaires dans le cas du nucléaire, qui produit à la demande sans émettre de CO₂.

L'autre problème des moyens de production intermittents est de savoir s'ils produisent quand on en a besoin. Le solaire peut sans doute trouver à s'appliquer dans les zones proches des tropiques où, non seulement le facteur de charge est supérieur, mais aussi la production photovoltaïque s'accorde au moins en partie avec les besoins de climatisation. Ce n'est pas le cas en France, où la demande est minimale le 15 août et maximale les soirs d'hivers, lorsque le soleil est déjà couché. Quant à l'éolien, une présentation à partir des données de production de RTE montre qu'il ne pourrait être utile qu'en remplacement stochastique des moyens de production fossiles, ce qui n'est même pas assuré avec la production actuelle! Les statistiques de RTE montrent d'ailleurs que l'éolien semble surtout avoir remplacé du nucléaire entre 2005 et 2010. Les perspectives ne sont pas meilleures: augmenter les capacités de production de l'éolien ne fera que renforcer ces problèmes. Une étude du cabinet de consultant finlandais Pöyry avait montré que les prix de l'électricité serait réduits à 0 lors des pics de production éolienne. La part du nucléaire en France serait diminuée en faveur notamment d'une source obscure nommée "autres énergies renouvelables", sans doute la biomasse, mais la part des combustibles fossiles resterait la même. En clair, les conséquences seraient les suivantes: on aurait besoin de cultiver de grandes surfaces d'arbres à pousse rapide (peuplier, eucalyptus, pin) pour produire de l'électricité, on ne diminuerait pas les émissions de CO₂, les tarifs de rachat obligatoires de l'éolien seraient maintenus indéfiniment puisque lors des périodes de fortes production les prix seraient nuls, annihilant la rentabilité potentielle des ces installations, le prix aux clients, lui, augmenterait, en partie à cause de la volatilité accrue des prix de l'électricité.

Pour le dire clairement, il semble fort difficile de voir quels seraient les avantages économiques pour la société dans son ensemble de se payer une forte production d'origine éolienne ou solaire. Les problèmes de l'intermittence sont dantesques et, en plus même sans cela, les énergies renouvelables sont toujours plus chères. Dans le secteur de la production d'électricité, on ne peut en attendre aucune réduction des émissions de CO₂. Plutôt que d'investir dans ces moyens de productions inutiles, il serait sans doute plus efficace d'investir dans l'éviction du fioul dans le chauffage des habitations ou même du gaz, en faveur de chauffage électrique à base de nucléaire et de pompes à chaleur.

- page 1 de 2