10 janvier 2013

Un peu de comptabilité: quel coût pour le courant produit par l'EPR de Flamanville?

En décembre dernier, EDF a annoncé que l'EPR en construction actuellement à Flamanville coûterait encore plus cher que précédemment estimé, avec un coût prévu de 8G€ (en euros de 2007) soit environ 8.5G€ en euros de 2012 (c'est-à-dire en prenant en compte l'inflation). Cette annonce a suscité une révision des estimations de coûts du courant produit, comme celle de Bernard Laponche, de Global Chance, qui donne une fourchette de 100 à 120€/MWh. Cette estimation sert depuis au Monde de référence à confronter aux déclarations des politiques.

Cependant, ce genre de calculs est notoirement dépendant des hypothèses prises. Souvent ces estimations se servent de conventions, qui ne sont pas forcément réalisées ou qui mènent à des conséquences surprenantes. À partir du rapport de la Cour des Comptes de l'an dernier, on peut essayer de se faire une idée de ce que recouvrent ces estimations.

Les coûts d'exploitation

Dans son rapport, la Cour donne un coût d'exploitation du parc actuel de 22€/MWh (p55), hors démantèlement, stockage des déchets et avec une facture d'assurance très faible grâce au cadre légal actuel. L'EPR est censé avoir un meilleur rendement thermodynamique que le parc actuel, cela ferait gagner 0.5€/MWh produit. Le facteur de charge — le rapport entre la production réelle et le maximum possible dans l'année — est aussi annoncé à 90% comme meilleur que pour la moyenne du parc français — environ 75% — et plus proche des standards internationaux. Ce genre de performance est réalisée à l'étranger sur des réacteurs plus anciens et le meilleur rendement permettra à l'EPR d'être pratiquement tout le temps en tête de l'ordre de mérite du parc thermique: il y a donc de bonnes chances que le facteur de charge soit bien de 90%. Ce qui devrait entraîner une baisse de 15% de tous les autres coûts, soit environ 2.5€/MWh produit.

Le nouveau réacteur permettra sans doute aussi des économies sur le personnel, en diminuant le nombre de personnes requises. Cependant, il est difficile de se faire une idée sur les achats à l'extérieur pour assurer la maintenance. On est par contre à peu près sûr que les coûts des fonctions centrales et des impôts seront les mêmes en termes absolus. D'un autre côté, EDF envisage la mise en place de personnels et de moyens devant intervenir en cas d'accident nucléaire, ce qui ne sera pas gratuit. Pour fixer les idées, prendre l'hypothèse que les coûts baisseraient au total de 3€/MWh produit doit donner un ordre de grandeur correct.

Pour ce qui est du démantèlement, EDF a fait établir des devis qui donnent un coût d'environ 300€/kW (p110), le site de la NRC donne des montants de l'ordre de 400M€ pour des réacteurs de 900MW. On peut donc prévoir que le démantèlement devrait coûter quelque chose entre 500M€ et 1G€. Comme le réacteur est prévu pour produire environ 750TWh, l'ordre de grandeur du coût de démantèlement est de 1€/MWh. Les Cour chiffre le coût du retraitement et du stockage des déchets à environ 2€/MWh (p272). Au doigt mouillé, j'estime qu'une assurance du risque nucléaire coûterait 1€/MWh si les plafonds de responsabilité étaient réévalués.

La Cour donne aussi le montant des investissements de maintenance pour le parc actuel: 1.7G€ soit environ 4€/MWh. Ce montant était promis à une forte augmentation, les centrales devant être rénovées pour les amener à 60 ans de service, elles doivent aussi subir des travaux visant à améliorer leur sûreté suite à l'accident de Fukushima. Cependant, la décennie 2000 a été l'occasion de profiter d'un parc en bon état et de limiter ces investissements. Sur la durée de vie de l'EPR, je vais prendre une valeur de 2€/MWh, car la centrale est prévue pour 60 ans, il y aura donc sans doute moins de dépenses de maintenance et de rénovation; c'est cependant une estimation très grossière. Cela dit, au total, les coûts d'exploitation doivent tourner autour de 25€/MWh.

La rémunération du capital

De la même façon qu'un salarié ne vient pas travailler sans salaire, il est difficile d'attirer des investisseurs sans leur promettre qu'ils vont gagner de l'argent. C'est pourquoi il faut aussi compter une rémunération du capital dans le coût de toute production. Il est particulièrement important dans le cas d'industries capitalistiques comme le nucléaire.

Avant d'aborder la question du niveau de la rémunération, il existe plusieurs techniques pour estimer la rémunération du capital. On peut résonner par analogie avec des instruments financiers existant par ailleurs. La première façon est de considérer l'investissement comme une obligation remboursable in fine. Dans ce cas, il faut amortir linéairement l'investissement et verser des intérêts constants au cours de la durée de vie de l'installation. C'est un mode de calcul qui permet de calculer le prix minimal du courant qui va assurer l'équilibre comptable. Pour arriver à l'équilibre comptable, le capital ne doit rien rapporter — ce qui n'est pas vraiment une incitation à investir — et la dette être remboursée intérêts inclus.

Pour calculer le coût de l'électricité du parc nucléaire actuel en tenant compte d'une rémunération — strictement positive — du capital, la Cour des Comptes considère l'investissement réalisé comme un emprunt immobilier. Un emprunt immobilier consiste à verser des annuités constantes, dont une partie chaque année va au remboursement du capital. Ce capital remboursé ne porte plus intérêts et chaque année, la proportion de capital remboursé augmente dans l'annuité versée. Si on calcule l'annuité en fonction du capital investi et du taux d'intérêt, on se rend compte qu'il y a une équivalence avec une notion souvent utilisée en finance, la valeur actuelle nette. La valeur actuelle du flux de trésorerie que représente les intérêts annuels escomptés au taux d'intérêt payé est égale au capital investi au départ.

Cette remarque est importante car la valeur actuelle a quelques propriétés bien connues. Elle a des implications en termes de décision: seuls les projets ayant une valeur actuelle nette positive devraient être poursuivis. Ensuite, plus le taux d'intérêt est élevé, plus la vision est à court terme: à cause de la décroissance exponentielle en fonction du temps, le futur éloigné compte pour des clopinettes, comme on peut le voir sur le graphe ci-dessous. C'est d'ailleurs à court terme que la rémunération du capital a lieu dans un emprunt immobilier ... puisque le capital est surtout remboursé à la fin. Ce qui veut aussi dire que même si la durée de vie est de 60 ans, l'industriel peut se décider juste en ayant des assurances raisonnables sur les 10 à 20 ans qui viennent. Mais c'est aussi pour ça que dans les projets industriels, les sociétés sont obligées réglementairement de prévoir un fonds permettant de démolir l'usine, sans cela, aucun besoin de se préoccuper de ce qu'elle devient au moment de la construction. VAN.jpg

Par ailleurs, la construction prend du temps, il faut prendre en compte le fait que le capital investit dort en partie. Il faut donc prendre en compte des coûts de ce fait, ce qui augmente le capital réellement investi au delà des 8.5G€ donnés par EDF. Pour mes calculs, je considère que le capital est investi par annuités constantes au cours de la construction.

Quel coût du capital?

Le capital peut être classé en 2 formes classiques: la dette et les capitaux propres. La dette se caractérise par le fait que la rémunération est fixée à l'avance par contrat, le créancier a alors une certaine assurance de ce qu'il va gagner. Les capitaux propres appartiennent aux actionnaires qui ne se voient pas promettre de rémunération particulière. On comprend donc qu'avant d'investir, les actionnaires voudront être mieux rémunérés pour assumer un risque supplémentaire. L'EPR est un exemple du genre de risques que peuvent avoir à assumer les actionnaires: hausse du coût des investissements, du coût d'exploitation, retard du chantier, prix de vente de la production plus bas que prévu, etc.

Pour estimer le coût de l'électricité, il faut donc considérer le coût moyen du capital. Dans son rapport, la Cour des Comptes prend le taux moyen qu'EDF utilise sans trop se prononcer sur sa validité (cf p338 du rapport). Il est de 7.8% hors inflation, soit un taux facial de presque 10%. La Cour trouve par contre qu'appliquer ce taux aux intérêts intercalaires est excessif et applique alors un taux de 4.5% réel. Cela peut s'expliquer par le fait que la construction ne recouvre qu'une partie des risques du projet, que la rémunération du capital couvre déjà en partie les risques de retard et de dépassement de budget, et que si une entreprise s'engage dans un projet capitalistique, c'est qu'il n'y en a peut-être aucun autre qui ait un rendement équivalent. En passant, la Cour ne répond pas à la question de savoir quelle a été le rendement réel de la construction du parc nucléaire actuel, ce qui a quand même une certaine importance.

Si on regarde les comptes d'EDF, on voit que sa dette est d'environ 40G€ et ses capitaux propres de 35G€ (p4 de cette saine lecture). On peut constater que les capitaux employés par EDF sont composés à moitié de dette et à moitié de capitaux propres, même si des variations autour de cette répartition sont constatées. EDF nous dit aussi que le taux moyen facial sur sa dette est de 4.1%. Ce qui veut dire que le taux pris par la Cour des Comptes mène à un rendement des capitaux propres de 16%. C'est tout de même beaucoup pour une entreprise en situation de monopole de fait et à l'activité régulée. C'est pourquoi en plus de la valeur Cour des Comptes, prendre des valeurs inférieures pour la rémunération du capital peut donner une image des coûts plus proche des conditions de financement réelles.

J'ai donc calculé les coûts associés à différentes hypothèses:

  • Le coût donné à l'origine. L'EPR fut donné comme coûtant 3.3G€. Le calcul est fait pour un coût du capital de 8%, une construction de 4 ans — contre 4 ans et demi prévus initialement, facteur de charge de 90%. Aujourd'hui Areva affirme que l'EPR de série coûterait 60€/MWh. Avec ces hypothèses, cela conduit à un coût d'un réacteur de 5G€, relativement cohérent avec le coût de 10G£ prévus au Royaume-Uni pour la construction de 2 nouveaux réacteurs.
  • Le prix du courant nécessaire pour arriver à l'équilibre comptable. Contrairement aux autres calculs, ce prix n'est pas à réévaluer tous les ans de l'inflation. On peut constater qu'EDF va certainement perdre de l'argent avec un EPR à 8.5G€. L'électricité vaut en effet actuellement environ 50€/MWh pour une production permanente.
  • Le rendement de 6% donne le coût si on considère que le coût moyen du capital est de 6% en sus de l'inflation au lieu des 8% pris par la Cour des Comptes. Cela correspond à une rémunération des fonds propres de 12%, plus raisonnable à mon sens.
  • Le rendement de 8% reprend le calcul de la Cour des Comptes avec le coût du capital donné par EDF.
  • Le dernier calcul donne le coût avec un facteur de charge abaissé à 75% comme pour le parc actuel. Cela fait aussi remonter le coût d'exploitation.

couts.jpg

quelques conclusions

Il est à peu près certain qu'EDF va réaliser une perte comptable avec l'EPR de Flamanville. En prenant les hypothèses de la Cour des Comptes sur le rendement du capital, je trouve un coût compris entre 90 et 110€/MWh suivant le facteur de charge. Si un coût moyen du capital plus faible est choisi, le coût de l'électricité baisse assez rapidement. Il est aussi assez remarquable que les opposants principaux à cette nouvelle centrale endossent des demandes élevées de rentabilité du capital et une approche financière court-termiste, contrairement à ce que leur discours laisse penser par ailleurs.

4 décembre 2012

Le débat national sur la transition énergétique ou les conquérants de l'inutile

Delphine Batho, ministre de l'écologie, etc., a lancé le fameux débat sur la transition énergétique jeudi dernier. Cela a donné lieu à une offensive médiatique, puisque deux membres du comité de pilotage ont donné des interviews. Bruno Rebelle, ancien directeur de Greenpeace en France, a été interrogé par un média internet et s'est épanché sur son blog. Laurence Tubiana, ancienne négociatrice pour la France sur les problèmes climatiques, a fait de même dans Le Monde. Quant à la ministre, Les Échos sont allés lui poser quelques questions; elle s'est aussi exprimée sur Europe 1. En réponse, deux vétérans de ce genre d'exercice, Jean-Marc Jeancovici et Arnaud Gossement, ont déjà donné le fond de leur pensée sur leurs sites web respectifs.

Le communiqué ministériel mentionne une charte que le comité de pilotage devra faire respecter. Et c'est là que les problèmes commencent: comme le débat n'a pas de site internet propre et que ladite charte ne figure nulle part sur le site du ministère — en tout cas, je ne l'y ai pas trouvée — il faut aller ailleurs pour en prendre connaissance. On y lit, entre autres, que tout citoyen peut contribuer au débat national sur la transition énergétique, que ce soit en participant aux débats décentralisés ou en s’exprimant sur le site internet dédié: un lancement du site aurait sans doute été une bonne chose! On y lit aussi que l'organisation du débat est complexe avec moult comités, ce qui peut permettre au gouvernement de se livrer à un exercice de centralisme démocratique où il trouvera miraculeusement que ses idées sont partagées par une partie des comités.

Cette charte définit aussi les buts de ce débat. On s'aperçoit sans peine qu'il est déjà bien encadré par des décisions déjà prises et affichées comme irréversibles. Si toutes ces décisions étaient incontestables, comme celle de diviser par 4 les émissions de gaz à effet de serre d'ici 2050, cela ne poserait pas de problème. Mais parmi ces décisions, il y a la réduction de la part du nucléaire dans la production électrique et la fermeture de Fessenheim qui vont dans une direction directement opposée à la décision précédente. La charte dit aussi que le débat doit contribuer à définir la façon la plus pertinente écologiquement, la plus efficace économiquement et la plus juste socialement, de la conduire pour atteindre l’objectif retenu pour 2025, et, au delà, mettre l’économie et plus globalement la société française sur une trajectoire cohérente avec les objectifs de 2050. On ne peut que constater que tous ces objectifs ne sont pas forcément tous compatibles. Juste pour prendre un exemple, s'il s'agit de développer les énergies renouvelables, l'exemple allemand sur l'électricité montre qu'on voudra épargner l'effort aux grandes entreprises, mais qu'il tombera entièrement sur les particuliers et les petites entreprises. C'est sans nul doute efficace économiquement: les grandes entreprises énergivores sont très sensibles au prix de l'énergie. Mais par contre, ce n'est pas forcément juste socialement, surtout quand ça aboutit à faire subventionner ces grandes industries par des particuliers qui n'en peuvent mais!

On sent dans les réactions des 2 vétérans cités qu'ils sont un peu las et blasés. À les lire, il n'y a pas grand chose à attendre de ce débat, vu qu'un certain nombre de décisions dimensionnantes — idiotes ou pas — ont été déjà prises et que nombre de raouts du même genre ont eu lieu ces dernières années. On peut citer le Grenelle de l'Environnement, le rapport de la mission Énergies 2050, diverses missions de parlementaires, comme celle de l'OPECST sur le futur du nucléaire en France ou du sénat sur le prix de l'électricité, ou encore de très nombreux rapports publics, comme sur l'énergie dans les bâtiments ou la politique de soutien à l'éolien et au solaire photovoltaïque, les coûts du nucléaire, etc. Bref, ce n'est pas la documentation qui manque et on peut déjà, à mon sens, en retirer des choses sur la politique à mener. La lecture de ces document montre qu'on doit faire un très important effort d'économies d'énergie (isolation des bâtiments,…), d'efficacité énergétique et installer des moyens de production d'énergie décarbonée par ordre de prix et d'utilité. Un autre facteur de la lassitude des vétérans est sans doute que cette masse de documents n'a pas apaisé le débat sur les questions les plus passionnelles — le nucléaire au premier chef.

Malheureusement, on ne peut pas dire qu'on voit des signes positifs poindre à l'horizon sur aucun de ces fronts. Par exemple, Greenpeace a annoncé ne pas vouloir participer à ce débat tout comme Greenpeace avait refusé de participer à la mission Énergies 2050. Les interventions de la ministre laissent aussi penser que 6 mois au pouvoir n'ont pas suffi pour assimiler quelques idées ou encore des ordres de grandeur sur la question. C'est ainsi que l'interview aux Échos est titrée L'énergie est un levier de relance majeur. Dans le corps de l'interview, cette phrase est accolée à L'éolien offshore créera aussi beaucoup d'emplois, ce qui montre qu'elle n'a pas compris que l'énergie ne pouvait être un levier de relance que si elle était à un prix raisonnable. Sur Europe 1, elle a déclaré qu'il était possible de remplacer le nucléaire par des énergies renouvelables comme la biomasse, les hydroliennes, etc tout en abaissant les émissions de CO₂. Or, de fait, les ordres de grandeurs ne collent pas: les seuls scénarios où les émissions baissent quand même sont ceux où la consommation d'électricité baisse et où tout l'accent est mis sur des économies d'énergie, qui doivent couvrir à la fois baisse du nucléaire et réduction de la consommation des énergies fossiles. Comme on a déjà du mal, sauf crise économique, à réduire suffisamment vite la consommations de combustibles fossiles pour remplir l'objectif d'une division par 4 des émissions en 2050, la mission devient totalement impossible en réduisant la production du nucléaire. Dans leurs interviews Rebelle et Tubiana citent le modèle décentralisé où chacun serait producteur et consommateur, mais ce qu'on constate c'est que le développement du solaire et de l'éolien ont amené l'explosion du prix de l'électricité à cause du prix de ces énergies et au besoin de renforcer considérablement le réseau.

Le principal point positif que les 2 vétérans entrevoient, c'est que ce débat participe à l'information du public. Personnellement, je doute que ce soit ce débat améliore plus la situation que ce qui a déjà été fait en la matière. La plupart des gens n'ont pas le temps d'assimiler ne serait-ce qu'un résumé sommaire de toute la documentation accumulée sur le sujet. Ces grands débats publics ont pour caractéristique de passer inaperçus auprès du public. Quand ils accèdent à une certaine notoriété, ça peut être à cause d'une transformation en défouloir, comme pour le funeste débat sur l'identité nationale. Étant donné la complexité de la matière, j'ai assez peu confiance dans la presse pour informer les citoyens sur ce sujet! Par exemple, le chauffage électrique y est souvent décrit comme une gabegie, alors que les document du Bilan Carbone montrent qu'au contraire, le chauffage électrique est le mieux placé en termes d'émissions de CO₂. Pour ma part, je considère que ce débat souffre énormément des promesses inconsidérées de François Hollande, qui amènent à devoir courir un marathon en s'étant tiré une balle dans le pied au départ. Si on arrive simplement à éviter ou inverser des décisions calamiteuses, comme la diminution de la production nucléaire, le bilan de ce débat sera déjà bon!

25 novembre 2012

Les visions du futur de l'ADEME

L'ADEME a effectué un travail de prospective visant à montrer une façon d'atteindre les objectifs de réduction d'émissions de gaz à effet de serre que la France s'est fixée. Le Monde s'en est fait l'écho ainsi qu'une presse plus spécialisée. Les simples mortels semblent toutefois devoir se contenter de la synthèse (lien google), un document plus complet est sans doute adressé au gouvernement.

Ces scénarios ne se veulent pas forcément très réalistes, puisque dès l'introduction, on nous dit qu'ils sont volontaristes. Le président de l'ADEME, François Loos, déclare même dans une réponse à actu-environnement.com qu'à notre avis, la question du prix n'est pas le moteur de l'action. Étant donné la raison d'être de l'ADEME, les scénarios favorisent ouvertement les économies d'énergie et les énergies renouvelables.

Étant donné la longueur de mes élucubrations, une découpe suivant plus ou moins les secteurs abordés par l'agence semble s'imposer, avec les renvois associés:

Les bâtiments

La synthèse commence par aborder le cas des secteurs résidentiel et tertiaire, qui constituent 40% de l'énergie (finale) consommée. La synthèse de l'ADEME est utilement complétée par leur document sur les consommations des bâtiments. L'ADEME considère que la consommation d'électricité dite spécifique, c'est-à-dire en dehors de son usage pour le chauffage, est stable d'ici à 2030, tant dans les services que dans le secteur résidentiel. Cette tendance est prolongée jusqu'en 2050. Elle affirme que cela prend en compte l'apparition de nouveaux usages. C'est déjà en soi un objectif très difficile à atteindre: par exemple, le document sur les consommation des bâtiments montre que, dans le secteur résidentiel, la consommation d'électricité spécifique par m² a augmenté de 90% entre 1976 et 2010 et de 35% entre 1990 et 2010. Le nombre de logements a augmenté de 6M, soit d'environ un tiers entre 1990 et 2010. Au total, la consommation d'électricité spécifique a augmenté d'environ 80% en 20 ans. Si cette consommation n'augmentera pas ainsi ad infinitum, l'hypothèse d'une stabilité sur les 20 ans qui viennent est loin d'être assurée; en tout cas, cela paraît incompatible avec une croissance de 1.8%/an en moyenne.

L'ADEME prévoit la fin du chauffage à l'aide de dérivés du pétrole (fioul et GPL). Ce développement est logique: l'hypothèse que le maximum de production de pétrole soit dépassé d'ici 10 ou 15 ans est la plus probable. De plus, le chauffage au fioul — qui représentait 60% du parc de logements au début des années 70 (source, p28) — est en déclin constant depuis de nombreuses années. Le prix du kWh de fioul a dépassé celui du gaz, ce combustible a une image nettement moins propre que les alternatives. L'agence prévoit aussi un développement des réseaux de chaleur, seul vecteur dont la consommation augmente de façon nominale. On peut inférer du graphe de la page 5 que les logements chauffés au fioul le seront soit par des réseaux de chaleur, soit à l'électricité. Le chauffage électrique est profondément modifié puisqu'une bonne part des logements utiliseraient des pompes à chaleurs: 20% du parc de logements en 2030, l'électricité représentant un gros tiers du parc actuel. Les chaudières au gaz atteindraient un rendement proche du maximum physique (aux alentours de 110% du PCI) avec la généralisation des chaudières à condensation. À l'horizon 2050, un deuxième round de rénovation a lieu, avec des effets grosso modo similaires, sauf que tout ne repose plus que sur une meilleure isolation, vu que les systèmes de chauffage seraient déjà plus ou moins au maximum de rendement physique.

Les chauffe-eau solaires auraient toujours une contribution mineure. Ils ne servent qu'à produire une partie de l'eau chaude sanitaire, pour laquelle la consommation d'énergie est environ 6 fois plus faible que pour le chauffage. Comme il y a toujours besoin d'un système de complément, le système n'est pratiquement jamais rentable en France métropolitaine sans subvention. Autant utiliser ce système de complément en permanence, surtout que l'électricité a déjà une part de marché de presque 50% sur ce segment, avec un contenu carbone très faible (40g/kWh) du fait de l'asservissement au tarif heures pleines/heures creuses.

L'essentiel des économies d'énergie provient en fait du succès des pompes à chaleur ainsi que d'un programme très important de rénovation. Non seulement le nombre de logements rénovés est très important — par exemple 70% des maisons — mais, en plus, ces rénovations sont très importantes comme le montre la chute de la consommation par m². Le gros problème de ce type de programme est la faisabilité économique. Contrairement à ce qu'affirme le président de l'ADEME, les coûts ont un impact déterminant sur les décisions en matière d'installations de chauffage, du fait de l'importance de ce poste budgétaire pour les ménages, mais aussi du fait du coût des rénovations. À cause des problèmes d'agence, comme entre propriétaires et locataires, et des contraintes en termes de capacité d'endettement, il n'est même pas sûr que toutes les rénovations rentables se fassent. Les hypothèses macro-économiques sont alors primordiales. L'ADEME prévoit un prix du pétrole en 2030 pas très différent de celui de 2008 et 20% au-dessus du niveau de 2012 qui semble cohérent avec une disparition du fioul, déjà bien engagée aux prix actuels. Pour le gaz, aujourd'hui le prix livré aux clients résidentiels est d'environ 60€/MWh pour un prix de gros de 20€/MWh dans les hypothèses. Les hypothèses macro-économiques prévoient donc en gros un prix entre 80 et 90€/MWh en 2030 en supposant les coûts de réseau constants. Est-ce suffisant pour motiver les rénovations d'ampleur qu'appelle l'ADEME?

Je remarque aussi que l'ADEME se laisse aller à ce qui me semble être des lubies comme les bâtiments à énergie positive ou la micro-cogénération. Pour les bâtiments à énergie positive, cette énergie serait produite grâce à des panneaux solaires. Le maximum de production aurait donc lieu lors des minima de consommation de juillet & août, et la production serait nettement inférieure pendant des mois travaillés comme novembre et janvier. Pour ce qui est de la micro-cogénération, qui consiste à produire de l'électricité à l'aide de sa chaudière à gaz, quel peut en être l'intérêt lorsque le rendement de production de chaleur de la chaudière est proche du maximum physique? Le rendement de conversion en électricité ne sera pas fameux à cause des limites posées par le second principe.

Les transports

Dans ce domaine, l'ADEME prévoit que les efforts de règlementation vont porter leurs fruits et les consommations de carburants chuter. Les véhicules vendus en 2030 verraient en moyenne leur consommation divisée par presque 3. La consommation moyenne du parc serait réduite de 40%. Comme l'agence prévoit une hausse du transport de marchandises par la route, elle prévoit un changement d'usage des moyens de transports de personnes pour compenser. mode_transport_2030.jpg On peut y voir la haine des 2 roues motorisés de la part des pouvoirs publics: alors que la presse et d'autres mauvais esprits rendent compte d'une forte hausse de l'usage des scooters et autres motos, aucune hausse de la part de marché n'est prévue ces 20 prochaines années. Heureusement, le déferlement de la horde de barbares a été freinée par une règlementation opportune, alors que les Français avaient voté avec leur portefeuille lorsque le prix du pétrole avait atteint des records. Or, même si certaines motos consomment plus que certaines voitures récentes, les scooters 125 peuvent s'avérer nettement plus économiques. Un effort sur les moteurs, similaire à ce que font les constructeurs automobiles, pourrait renforcer ce trait.

À l'horizon 2050, l'ADEME prévoit que le parc automobile aura diminué d'un gros tiers grâce à la mutualisation des véhicules. Ils seraient aussi nettement plus économes, la consommation de carburants aurait diminué d'un facteur supérieur à 3. Bizarrement, les 2 roues motorisés voient leur part de marché augmenter alors qu'ils sont laissés de côté pour 2030. L'agence estime aussi qu'il serait alors possible de se passer de pétrole en se reposant sur du gaz — produit de façon de renouvelable de préférence. Ce serait possible grâce aux gains réalisés sur le chauffage au gaz. Pour le transport de marchandises, il est prévu que le trafic n'augmente plus par rapport à 2030, grâce à une rationalisation, complétée par un développement du transport par voie ferrée. Je remarque que c'est un vœu constamment exprimé mais jamais réalisé.

L'industrie

Pour l'industrie, l'ADEME est fortement contrainte par l'hypothèse de croissance économique. Elle impose un certain maintien d'industrie lourde, même si évidemment elle doit prendre en compte des évolutions dans la répartition de l'activité entre les divers secteurs industriels. Dans le domaine de l'industrie, un certain nombre d'activités sont déjà fortement incitées à économiser l'énergie par la forte compétition mondiale et par le poids de l'énergie dans les coûts et donc dans le prix des produits. C'est ainsi que des industries concurrentielles et développées depuis longtemps se voient affecter des gains par unité produite relativement faibles: sidérurgie, métaux non ferreux, etc. L'agence voit donc le gisement dans les industries où l'énergie représente une part plus faible des coûts de production, comme l'agro-alimentaire. À l'horizon 2030, cela produit une économie globale d'environ 10%. Mais à l'horizon 2050, alors qu'il est écrit qu'il s'agit d'une prolongation de tendance, les économies d'énergie atteindraient 20% par rapport à 2030!

Les questions principales en la matière sont celles de savoir si les hypothèses macro-économiques se réaliseront bien — en cas d'absence de croissance, une partie des industries disparaîtra — ou encore de savoir si certaines industries ne préfèreront pas aller là où le contexte énergétique est meilleur et moins contraignant.

Les sources d'énergie

Il s'agit surtout pour l'agence d'évaluer les gisements d'énergies renouvelables. Elle commence par étudier le cas du bois. Le bois est aujourd'hui la première source d'énergie renouvelable en France: en 2010, la consommation de bois a représenté presque 10Mtep. L'ADEME prévoit 18Mtep en 2030 et la même chose en 2050. Elle compte pour cela sur une plus forte exploitation des forêts françaises, puisqu'elle compte que l'équivalent de 75% de l'accroissement naturel de la forêt soit récolté chaque année contre 48% actuellement. Cela permettrait de plus que doubler la production de bois destiné à être brûlé et aussi d'alimenter un peu plus un circuit de récupération. Une critique du scénario négaWatt montre qu'un tel plan devrait s'accompagner d'une hausse notable du prix du bois. Par ailleurs, si le potentiel théorique de la forêt française n'est exploité qu'à moitié, c'est sans doute aussi qu'une partie importante des propriétaires de forêts n'ont pas envie de les exploiter pour le bois. Il n'est pas dit qu'une simple hausse du prix du bois les y incite suffisamment, car il y a d'autres usages pour une forêt.

Pour ce qui est du secteur de l'électricité, L'ADEME voit en 2030 les EnR produire 48% de l'électricité, le nucléaire 49% et seulement 3% à partir de centrales au gaz. En termes de puissance, elle voit 34GW d'éolien à terre et 12 en mer, 33GW de photovoltaïque, 32GW de nucléaire, 14GW de gaz (fossile), le reste étant soit non précisé (énergies marines ...) soit supposé quasiment constant (hydraulique). L'ADEME donne une production en baisse (environ 445TWh) des exportations stables (environ 45TWh) et une consommation (en incluant les pertes environ 400TWh). Cela représente une baisse de la consommation d'électricité de presque 20% par rapport à aujourd'hui, ce qui me semble très optimiste ou incompatible avec les hypothèses sur le PIB. C'est aussi très différent du scénario privilégié par RTE dans son bilan prévisionnel, dont on a déjà parlé. Autre particularité: si on se replace dans les conditions de la vague de froid de février dernier, moyennant quelques hypothèses, on arrive péniblement à une puissance produite en France de 80GW. Même en escomptant une capacité d'importation de 10GW, la puissance maximale prévue est donc bien inférieure aux 102GW atteints cette année. Inversement, certains jours du mois d'août, on peut s'attendre à un production des EnR intermittentes de l'ordre de 40GW avec le soleil au zénith; à l'heure actuelle, la pointe au mois d'août, aux alentours de midi, est d'environ 50GW, ce qui veut dire que l'essentiel du nucléaire serait à l'arrêt et qu'il y a un risque de surproduction si un jour est venté, les capacités d'exportation étant dépassées. Bref, l'ADEME affirme s'être basée sur des simulations heure par heure mais il semble que des hypothèses m'échappent.

La question qui n'est pas abordée dans cette synthèse est celle des coûts et du modèle économique. Si pour le bois, le modèle serait sans doute le même qu'aujourd'hui, il va de façon autre pour la production d'électricité: actuellement, les producteurs d'électricité renouvelable à partir de biomasse bénéficient des tarifs de rachat et produisent en base. Or le document de l'ADEME laisse penser que la production d'électricité à partir de biomasse devra avoir lieu quand l'éolien et le photovoltaïque feront défaut. De même en 2050, l'ADEME nous dit que des stations de pompage seront construites pour le stockage intersaisonnier. Vus la taille maximale du stockage (il faut compter 1km² pour stocker 10GWh) et le modèle économique (une STEP doit produire 1500h par an), l'utilité pour le stockage intersaisonnier du pompage est plus que douteuse à un coût acceptable! Le modèle de revenus collectés à l'exportation est aussi remis en cause: les exportations auront lieu surtout lors des pics de production renouvelable, ce qui va nécessiter de multiplier les lignes THT et de trouver des clients pour cette électricité produite de façon imprévisible à long terme. Le prix s'en ressentira forcément. On peut aussi simplement se demander si c'est vraiment utile de fermer la moitié du parc nucléaire français pour le remplacer par des moyens qui paraissent nettement plus chers. On pourrait aussi utiliser le nucléaire pour adoucir les hypothèses d'économies d'énergie.

L'ingénierie sociale

Le trait marquant du scénario de l'ADEME est surtout le nombre de prescriptions réglementaires et/ou normatives qu'on y lit. C'est ainsi que le régime alimentaire des français changerait pour se conformer en 2050 aux prescriptions de la FAO pour manger moins de viande mais plus de céréales et de fruits & légumes. Si le niveau de vie des français augmente — ce que l'ADEME prévoit — on se demande pourquoi ils mangeraient moins de viande. Si par contre il baisse, l'expérience montre que les prescriptions de la FAO ne sont pas le résultat le plus probable. Toujours dans le domaine de la nutrition, l'agence prévoit une réduction de 50% des aliments partant à la poubelle («pertes alimentaires évitables»). Je me demande comment cet objectif pourrait être tenu, surtout quand on voit quelles sont les conséquences de vouloir se rapprocher des préconisations standard en matière de nutrition.

Ces hypothèses normatives s'étendent partout, par exemple:

  • Les logements collectifs et les maisons se partageraient les nouvelles constructions à parité, alors que depuis les années 90 au moins le parc de logement est constitué à 56% de maisons (p27 du bilan énergie de l'ADEME). C'est sans doute l'hypothèse structurante pour arriver à stopper l'artificialisation des sols. Dit autrement, l'ADEME prévoit un renforcement du zonage, zonage qui n'est sans doute pas pour rien dans l'inflation immobilière de ces 15 dernières années.
  • Dans le domaine des transports, les moyens collectifs sont nettement favorisés. L'expérience de longues années de développement des transports en commun montre qu'ils ne remplacent pas la voiture. La novlangue administrative frappe d'ailleurs en ce domaine, puisque les moyens faisant appel à la force motrice de l'utilisateur sont appelés moyens de transports doux. Tout utilisateur régulier d'un vélo peut certifier que son usage n'a rien de tel.
  • Les moyens de partage de véhicules voient leur part de marché nettement augmenter. Le problème ici est que, si les voitures ne sont utilisées que 5% du temps, c'est que les moments d'utilisation sont très concentrés, pour aller au travail le matin, en revenir le soir, aller en vancances: pendant des laps de temps courts, la majeure partie de la population se déplace. Ce n'est pas en voyant la fourniture de véhicule comme un service que ces réalités vont changer. La même logique est à l'œuvre quand il s'agit de rationaliser les transports de marchandises.
  • Les exportations d'aluminium sont limitées pour maximiser la part du recyclage

S'il est certain que se passer de pétrole et, plus généralement, de combustibles fossiles va imposer un certain nombre de changements de société, il est loin d'être certain que ce soit ceux prévus par les planificateurs. Et si l'édiction de normes peut remplacer voire faire mieux qu'une augmentation du prix d'énergie, ces normes peuvent aussi revêtir au final l'aspect d'une taxe sur certaines catégories de citoyens. C'est le cas du zonage urbain et des limitations mises sur la construction.

Quelques conclusions

Les visions de l'ADEME constituent une façon d'arriver à remplir les engagements de la France sur le plan des émissions de CO₂: les diviser par 4. Le tropisme de l'agence pour les économies d'énergie l'amène à bâtir ses scénarios dessus. Ces scénarios sont un mélange de continuation de tendances actuelles — disparition du fioul, ratio gaz/électricité changeant lentement dans le secteur du chauffage, etc… —, de rappel des vaches sacrées et des topos des économies d'énergie — réseaux de chaleur, transports en commun, lutte contre le gaspillage de nourriture, etc… —, de ruptures sociales majeures — description des transports en 2050 — et d'éléments susurrés par l'arrivée d'un nouveau pouvoir comme la division par 2 du parc nucléaire, dont on se demande ce qu'elle vient faire là.

Ce qui manque dans cette synthèse, c'est la description des politiques nécessaires selon l'agence pour arriver au but. On ne sait pas s'il agit, selon les cas, de continuer la politique actuelle, de la changer profondément, d'établir de nouvelles taxes, de nouvelles normes contraignantes. Il n'y a pas d'analyse des raisons qui ont fait l'insuccès des moyens prônés par l'agence de longue date, comme les transports en commun ou les réseaux de chaleur, ni des raisons pour lesquelles ces moyens seraient adoptés dans le futur. Tous ces éléments sont pourtant nécessaires pour se rendre compte de la faisabilité de ces scénarios: certaines mesures sont, dans ce domaine, très impopulaires, ce qui grève leur faisabilité politique; d'autres ont des effets pervers, ce qui grève leur efficacité voire les rend contreproductives.

Ces exercices de prospective valent surtout pour montrer la différence de résultats qu'on attend de 2 politiques différentes. Comme il n'y a pas de scénario de référence ou concurrent, que les mesures effectives à prendre ne sont pas détaillées, il est difficile de se faire une idée plus précise. On retrouve tout de même quelques réalités de la lutte contre le réchauffement climatique:

  • la question du chauffage paraît gérable à partir d'une meilleure isolation et en s'appuyant sur un mix électrique décarbonné.
  • la question des transports et de l'industrie lourde, notamment la sidérurgie et le ciment, est nettement plus difficile à gérer, ce qui laisse présager des départs d'industrie, des efforts douloureux ou un surcroît d'effort dans le domaine du chauffage.
  • que diminuer la production nucléaire n'est peut-être pas la meilleure idée, alors qu'on va chercher des marges de manœuvre en matière énergétique!

6 novembre 2012

Imposer le silence

Le 22 octobre dernier, 6 personnes ont été condamnées à 6 ans de prison ferme pour homicide involontaire parce qu'ils faisaient partie d'une commission d'évaluation des risques et avaient conseillé aux habitants de L'Aquila de ne pas s'inquiéter outre mesure de la multiplication des secousses dans la région. Ils étaient apparemment même allés jusqu'à dire que les secousses constituaient un signal favorableLe 6 avril 2009, une semaine après la réunion, un séisme dévastait la ville et faisait 309 morts, entre autres.

La lourdeur des peines et l'absence de différentiation entre les prévenus me semble signer la désignation de boucs émissaires, comme le pointait Dirtydenys avec justice. Et comme le pointait aussi Bruce Schneier — qui se risque lui aussi à des propos dangereux — c'est une perte sèche pour la société: un tel verdict ne peut avoir comme effet que de limiter la parole publique des experts. Il n'a d'ailleurs pas fallu attendre bien longtemps pour que les suspects habituels se précipitent dans la brèche: ainsi Corinne Lepage ne s'est point privée de faire connaître sa volonté de poursuivre en justice tout expert qui émettrait un avis favorable sur la sécurité des OGMs dans un cénacle officiel.

Ayant moi-même infligé à mes lecteurs les plus intrépides une série de billets sur le principe de précaution et surtout sur son dévoiement, je me suis rappelé qu'une augmentation de la fréquence des poursuites en justice dirigées contre les experts était esquissée dans un ouvrage publié voilà plus de 10 ans. La prévision qui y était faite d'une possibilité symétrique de poursuites entre celles suscitées par les partisans d'une approche de dommage zéro et celles suscitées par les partisans d'une approche plus risquée mais plus féconde en bénéfices ne m'avait pas vraiment convaincu, on va y revenir.

Les avis des experts sont en première approche comme des conseils, les experts sont d'ailleurs toujours prompts à rappeler qu'ils ne font pas de gestion des risques, tâche réservée aux politiques, mais seulement de l'analyse des risques. Condamner quiconque pour de simples conseils est suffisamment problématique pour que Hobbes, bien connu pour son laxisme, affirme qu'on ne peut le faire en équité. Son argument est que, finalement, un conseil étant généralement sollicité, il est impossible de sanctionner un avis argumenté qu'on a soi-même demandé. En passant, Hobbes connaissait déjà le problème du conflit d'intérêts puisqu'un conseil est, entre autres, défini par le fait qu'il profite à celui qui le reçoit et non d'abord à celui qui le donne. Cela montre bien que le thème du conflit d'intérêts est loin d'être nouveau. Cela dit, dans nos sociétés modernes, il est bien difficile de s'abstraire de toute conséquence de ses propres conseils, cela requerrait en fait de se retirer du monde en dehors du moment où on donne des conseils. Cette vie d'ermite est bien souvent incompatible avec l'expertise qui requiert de maintenir à jour ses connaissances donc d'avoir des contacts avec autrui. Comme signalé dans cet entretien, l'indépendance de l'avis ne peut alors être assuré que par le cadre institutionnel et non par l'absence de conflits d'intérêts de chacun des experts consultés.

Une autre différence avec le cadre hobbésien, c'est que, de nos jours, bien loin d'être soumis aux caprices d'un souverain, les individus ont des droits, ce qui fait que l'état ne peut donner des ordres sans justification rationnelle. Dans le cas des tremblements de terre, il s'agit de savoir quand faire évacuer: dire qu'à l'Aquila des gens auraient pu être sauvés en dormant dehors me laisse sceptique. Mais comme les tremblements de terre sont toujours impossibles à prévoir avec une précision suffisante, cet ordre ne peut jamais être donné. Par contre, dans le domaine proche de la volcanologie, il est possible de faire des prédictions plus précises et d'évacuer la population, comme ce fut le cas avec l'éruption du Pinatubo. Dans le cas des OGMs, chaque individu est libre de faire ce qu'il veut pour peu qu'il ne blesse personne, d'où l'insistance des opposants sur les thèmes des dangers pour la santé et pour l'environnement. On voit donc que les avis n'ont pas tous le même effet: si un conseil peut, pour Hobbes, être ignoré en toute circonstance, dans une société libérale, il restreint les possibilités d'action de l'état en privant certaines action de justifications acceptables.

Pour contrebalancer cela, il y a une grande dissymétrie entre les prévisions optimistes et pessimistes, comme je l'avais noté à propos du principe de précaution. En dehors de la communauté scientifique, il y a peu à craindre d'émettre des prévisions alarmistes. Parmi ceux qui lancent des fausses alertes, seuls ceux qui récidivent avec insistance sont punis, tels les petits rigolos qui appellent les pompiers sans raison. On peut par contre s'assurer dans certains cas un passage dans les médias, où en cas d'erreur, on sera vite oublié, mais où, si la prévision se réalise même fort approximativement, on peut devenir un grand gourou de certains domaines. De fait, des poursuites judiciaires ne seront jamais engagées que pour une insuffisance de précaution ou des prévisions paraissant après coup comme trop optimistes. La communauté scientifique est un peu à l'abri de ce genre de phénomène, puisqu'il faut que les modèles utilisés collent à la réalité, ce qui nécessite d'avoir un modèle et permet d'évacuer ceux qui ne sont pas meilleur que le hasard. Cependant, le fond des débats scientifique ne parvient pas toujours au public, ou bien de façon déformé. Cette dissymétrie de perception entre les prévisions optimistes et pessimistes dans le public permet d'enclencher un cycle où on pourra demander des mesures, souvent d'interdiction, envers certaines choses ou certaines techniques. Le cas des OGMs illustre l'efficacité de cette tactique.

Elle présente toutefois un défaut: en cas d'opposition purement idéologique, il faut renouveler les articles et autres déclarations qui sont au fur et à mesure discréditées par les scientifiques. Faute de quoi, l'interdiction finit par être levée. Cela implique qu'il faut susciter des articles scientifiques ou de nouvelles hypothèses. Mais on peut vouloir freiner les réfutations publiques de ce qu'on a avancé. Dans ce cas, Hobbes peut encore venir à la rescousse: si la pensée est libre, la parole l'est toujours nettement moins. Nos sociétés libérales défendent certes la liberté de parole, mais avec des exceptions. Si, comme dans le cas de L'Aquila, on peut arriver à faire condamner des experts pour des déclarations imprudentes, l'incitation à se taire est grande. On peut aussi harceler d'autres personnes, même si on sait que l'action en justice n'a aucune chance d'aboutir à une condamnation: ainsi en a-t-il été des cancers de la thyroïde en France dont on a voulu rendre responsable le nuage de Tchernobyl et le Pr Pellerin. On voit donc que la menace de poursuite est crédible et sérieuse: peu importe en fait que la condamnation soit définitive, les mauvais esprits peuvent être importunés, à l'aide des moyens de l'état, sans risque pour qui lance la procédure. On voit donc tout l'intérêt d'avertir les experts, de façon à bien limiter leur liberté de parole. Après tout s'il reste des courageux, il sera toujours temps de faire un exemple.

27 octobre 2012

Explosion de la taxe EnR sur l'électricité en Allemagne

Tous les ans au mois d'octobre, le niveau de la taxe finançant les productions renouvelables d'électricité en Allemagne est ajusté aux besoins. Le système allemand a été copié ailleurs: il s'agit de garantir au producteur un prix de l'électricité déterminé en fonction de la technologie employée. Il est décrit avec force diagrammes dans un document de l'association des réseaux de distribution allemands (BDEW), dont l'essentiel a été traduit par l'association Sauvons le Climat. Les 4 gestionnaires des réseaux THT sont obligés de racheter cette électricité et donc de fournir le fonds de roulement du système. Une partie des coûts est récupéré en revendant immédiatement cette électricité aux distributeurs au prix du marché. Comme, évidemment, le prix garanti au producteur est presque tout le temps supérieur au prix de marché, une taxe prélevée directement sur les consommateurs est nécessaire. Cela permet aussi de financer les coûts de trésorerie du système. Les gros consommateurs industriels sont pratiquement exemptés de cette taxe, ils ne paient qu'un montant de 0.5€/MWh: c'est devenu symbolique au regard de ce que paient les autres consommateurs.

Le système de l'obligation d'achat fonctionne à guichet ouvert, le montant de cette taxe peut donc augmenter très vite:

  • si ce sont les moyens les plus chers qui se développent rapidement. C'est le cas en Allemagne: à la fin de l'année 2011, il y avait 27GW de solaire photovoltaïque installés, presque autant que l'éolien. Même si le solaire photovoltaïque produit 2 fois moins d'énergie sur l'année que l'éolien à puissance égale, les prix d'achats sont quasiment 4 fois plus élevés pour le solaire. C'est ainsi que le solaire photovoltaïque consomme plus de la moitié de la taxe (p41 du document du BDEW).
  • en cas de mauvaise anticipation des installations. Comme la taxe est fixée en octobre, il reste deux mois et demi et une marge d'erreur sur les installations de l'année en cours. En cas de changements de tarifs, comme entre 2011 et 2012, on assiste à un rush pour bénéficier du tarif le plus intéressant. L'année suivante, en 2013 donc, il faut combler un déficit.
  • en cas de baisse des prix de l'électricité sur le marché. Un prix moyen de vente est anticipé en prenant comme référence le marché à terme. Si la conjoncture se dégrade, les prix de l'électricité vont baisser du fait d'une baisse de la demande, notamment des consommateurs industriels. Mais le développement des renouvelables impacte aussi ce prix de marché: comme le gestionnaire de réseau est obligé de revendre immédiatement l'électricité renouvelable, il accepte n'importe quel prix, à la différence des centrales à combustibles fossiles. Le prix peut donc tomber très bas, voire devenir négatif, en cas de forte production renouvelable. Comme il s'agit de passer le coût du système de prix garanti du producteur au consommateur, ce dernier ne peut alors bénéficier en aucune façon de la baisse du prix de marché puisqu'il doit combler la différence. Au contraire même, cette électricité renouvelable vendue à prix cassé profite à ceux qui achètent sur le marché spot et ne paient pas la taxe, c'est-à-dire les industriels. Et de façon perverse, plus la demande est faible, plus la taxe est élevée!

L'année 2012, comme on peut s'en rendre compte cumule ces 3 phénomènes. Suite à un changement de tarifs, un rush s'est produit en fin d'année sur le solaire photovoltaïque: 2GW ont été installés sur le seul mois de décembre 2011. Le solaire photovoltaïque est la plus chère des énergies subventionnées. Le prix de l'électricité est resté bas, d'une part à cause de l'afflux de productions renouvelables et d'autre part à cause de la conjoncture allemande et plus largement européenne. Il ne faisait aucun doute que les prévisions du BDEW pour 2013 seraient dépassées, alors qu'elles étaient de 47.4€/MWh (p65).

L'agence de régulation des réseaux allemande a annoncé le 15 octobre que le montant serait finalement de 52.77€/MWh, soit une hausse de presque 50%. Elle dit aussi que le déficit accumulé est de 2.6G€ sur la seule année 2012: le système était équilibré à la fin 2011. Les causes de ce déficit sont le rush photovoltaïque de fin d'année et le faible prix de l'électricité, comme on vient de l'expliquer. En conséquence, les gestionnaires de réseau vont aussi renforcer le fonds de roulement qu'ils maintiennent, afin d'éviter qu'une telle mésaventure ne se reproduise. On peut voir sur le graphe ci-dessous que depuis 2009, c'est-à-dire depuis qu'il est financièrement intéressant d'installer des panneaux photovoltaïques, la taxe explose. Elle est passée de 13.1€/MWh en 2009 à 52.77€/MWh en 2013, soit une multiplication par 4 à partir d'un montant qui n'était déjà pas ridicule. taxe_EnR_2000-2013.jpg

On peut aussi constater que le prix d'une fourniture constante d'un MW pendant toute l'année 2013 vaut actuellement environ 47€/MWh. Certes, les consommateurs doivent aussi payer une part d'électricité de pointe, mais on peut constater que la taxe a atteint un montant tout à fait comparable avec le prix de production de l'électricité en général, alors même qu'elle n'est due que pour une part minoritaire de la consommation. Pour fixer les ordres de grandeurs, le système exonère environ 20% de la consommation électrique allemande de la taxe, alors que la subvention ne finance environ que 20% de la production totale. Le coût du système de subvention allemand semble donc extrêmement élevé.

Une telle hausse a aussi ravivé le débat sur la nécessité de faire contribuer aussi les gros consommateurs industriels, comme on peut le constater dans la presse allemande. Il y a cependant peu de chances que cela aboutisse vraiment: pour ces consommateurs, l'électricité représente une part importante des coûts de productions. En conséquence, les mettre à contribution de la même façon que les consommateurs domestiques ferait exploser leurs coûts de production, ils ne seraient plus compétitifs. Comme le système est visiblement hors de contrôle, ils pourraient même avoir des difficultés à simplement prévoir leurs coûts de production.

Pour conclure, il n'aura échappé à personne que je suis très sceptique sur l'opportunité de subventionner de la sorte les renouvelables électriques. Le principal problème de ce système de subvention est qu'il repose sur la connaissance des coûts de chaque technologie et non sur le bénéfice apporté à la société ou au consommateur. On constate en Allemagne que la majeure partie des subventions vont au photovoltaïque qui ne représente qu'une partie minoritaire de la production renouvelable. On entend souvent que ces subventions sont destinées à faire atteindre la parité en matière de coûts à ces technologies mais, dans le cas allemand, on va arriver à saturer le réseau en installations solaires avant même d'arriver à proximité de ce point. S'engager sur cette voie en France, où on a déjà décarbonné l'essentiel de la production électrique, apparaît plus que jamais comme une grave erreur.

22 octobre 2012

Défendre sa niche

La saison du budget étant revenue, un marronnier a refait son apparition dans la presse: la question de l'avantage fiscal accordé aux journalistes. Il consiste actuellement en un abattement minorant le revenu fiscal de référence de 7650€. Comme on peut le voir dans l'article, qui donne le résultat de simulations, les conséquences sont substantielles, puisque l'impôt sur le revenu à régler est diminué d'environ 1000€. Cela a aussi des conséquences sur la taxe d'habitation qui est plafonnée en fonction du revenu fiscal de référence. Même si l'article du Monde ne constitue pas à proprement parler une défense de la niche fiscale, il n'en constitue pas moins par certains côtés un bréviaire des arguments avancés pour la perpétuation des ces fameuses modalités particulières de calcul de l'impôt.

Le premier argument qu'on peut distinguer c'est de dire que cet avantage n'en est pas vraiment un ou bien que ceux qui en bénéficient ne sont pas vraiment favorisés. Dans cet article, il s'agit de dire que les journalistes ne sont pas si bien payés. En effet, une bonne part est sans doute d'un bac+5 ou plus et s'attend de ce fait à percevoir une rémunération en conséquence. Un graphe est donné, mais il peut être trompeur parce que donné en brut mensuel, alors que, comme l'article le laisse penser, les journalistes bénéficient d'un 13ᵉ mois. Pour pouvoir comparer, le voici ci-dessous libellé en brut annuel, d'après ce document (p56) fourni par l'association professionnelle idoine. salaires_journalistes_CDI.jpg On y voit que presque les 2/3 des journalistes employés en CDI touchent plus de 39k€ bruts par an, ce qui les met sans doute dans les 20% les mieux payés de France. En recoupant les divers tableaux et graphes donnés dans le document de l'observatoire des métiers de la presse, on voit que plus de 80% tirent des revenus de leur activité de journaliste suffisants pour être dans la moitié de la population la mieux payée. Certes, s'ils se comparent à d'autres professions à bac+5, comme les ingénieurs, les journalistes peuvent se sentir mal payés. Cependant, la lecture des résultats de l'enquête du CNISF montre que c'est surtout le fait d'exercer des fonctions d'encadrement et d'avoir des responsabilités financières qui fait grimper le salaire (p78). La plupart des journalistes ayant sans doute une formation essentiellement littéraire, le marché du travail ne leur est guère favorable comparé à la situation qui prévaut pour les ingénieurs ou ceux qui sortent d'écoles de commerce.
Une autre forme de cet argument figure dans l'article: il y a des niches plus extravagantes que la nôtre, comme par exemple, le Scellier ultra-marin. C'est un représentant des niches fiscales à destination de l'Outre-Mer dont l'efficacité pose question, comme on dit, et fait partie de ces niches dont on se demande comment elles se perpétuent d'année en année, sans jamais être plafonnées.

Le deuxième argument, c'est que ce n'est pas le moment de supprimer cette niche fiscale. Comme l'article le fait bien comprendre, la presse française traverse actuellement une crise suite à une baisse des ventes et au départ des annonceurs suite d'une part à cette baisse des ventes et d'autre part à l'arrivée d'internet comme nouveau support publicitaire. L'article affirme que les salaires sont en baisse, mais en regardant dans le document de l'Observatoire des métiers de la presse, on voit que les salaires sont en fait stables depuis le début des années 2000 en euros constants. L'article compare systématiquement au point haut, mais en fait on voit que les salaires oscillent autour de la même valeur. Depuis 2008, les salaires sont plutôt orientés à la hausse pour chaque catégorie de contrats. Cette stagnation des salaires n'est pas inattendue dans le contexte français actuel: depuis le début de la crise, les salaires stagnent. La presse connaissant une perte de recettes depuis le début des années 2000, les salaires ne sont plus augmentés plus que l'inflation. Par contre, il est vrai que, comme le mentionne l'article, le nombre de CDDs augmente, particulièrement chez les jeunes journalistes. Si les pigistes existent depuis longtemps, les CDDs étaient inexistants avant l'an 2000, et la crise récente a renforcé leurs effectifs. Comme dans bon nombre de secteurs en France, ils semblent jouer le rôle d'antichambre: ils touchent particulièrement les jeunes (p27 sq). Cela s'accompagne d'une féminisation renforcée (p47-48). L'essentiel des difficultés de la presse est bien réel, mais ces difficultés ne datent pas d'hier: la diffusion de la presse quotidienne n'a jamais été extraordinaire en France. L'équilibre économique du secteur dépend peut-être de cette niche fiscale, mais c'est aussi l'argument de nombre de secteurs, comme celui du bâtiment qui a obtenu une nouvelle niche sous la forme du Duflot pour succéder au Scellier.

Le dernier argument, c'est celui de la pression politique ou, dit autrement, du pouvoir de nuisance. L'article mentionne que la niche fiscale a été éliminée par le gouvernement Juppé en 1996 sous sa forme originelle, avant qu'elle ne réapparaisse avec le gouvernement Jospin. L'article précise aussi que des négociations avaient été ouvertes par le gouvernement Juppé ... mais pas avec les autres professions — dont certes certaines avaient disparu — bénéficiant de la même niche fiscale! D'autre part, les mouvements qui réclament la fin de la niche sont clairement de droite. Comme les journalistes sont réputés être majoritairement à gauche, on voit bien que la suppression gêne moins les gouvernement de droite — d'où l'action de Juppé — que ceux de gauche — d'où le rétablissement par Jospin. Pour leur part les gouvernements de droite n'hésitent pas à cajoler des catégories estampillées de droite, comme les restaurateurs. L'accès privilégié des journalistes aux média explique aussi pourquoi ce fut sans doute la seule profession à obtenir des négociations. Cette capacité à créer du grabuge explique aussi la longévité des niches pour l'outre-mer, la Corse ou les œuvres d'art, malgré leur côté extravagant: elles maintiennent une certaine paix sociale. Il est vrai que dans ce cas, l'intérêt général n'est pas forcément la motivation première pour l'instauration ou le maintien de niches fiscales, de même d'ailleurs que pour leur suppression.

L'article est aussi honnête: il précise bien que la justification de la niche est devenue compliquée de nos jours et que certains syndicats de journalistes proposent même — fait rare! — qu'elle soit supprimée. Il n'en constitue pas moins un exemple assez parlant de la difficulté de la suppression de tous ces avantages. Dans le cas présent, on a un groupe de gens qui peut faire beaucoup de bruit s'il le souhaite, pour lequel l'avantage est très tangible (1000€ par personne et par an), qui connaît actuellement des difficultés réelles et dont l'activité dépend au moins en partie de cet avantage. Comme beaucoup de ces niches rassemblent les mêmes caractéristiques: capacité à se faire entendre, importance individuelle de l'avantage, activité organisée autour de la fiscalité avantageuse. Bref, on aurait du mal à trouver meilleur article permettant d'imaginer à quoi les parlementaires et le gouvernement font face à longueur d'année en matière de fiscalité.

10 octobre 2012

Marquer des points

Suite à la publication de l'article de GE Séralini et son orchestration médiatique, tout le monde a pu en prendre connaissance. Dès les premières heures, les critiques allaient bon train et il semblait bien qu'on ne pouvait en fait pas tirer grand'chose de ce papier. Dernièrement, les agences chargées de l'évaluation des risques ont commencé à rendre leurs avis, comme par exemple en Allemagne ou en Australie dont l'agence collecte les réfutations d'études sans lendemain sur une page. L'EFSA a aussi publié un avis préliminaire.

En résumé, tous ces avis reprennent les critiques formulées à l'encontre du papier comme, par exemple, l'insuffisance des effectifs de rats ou du choix de la souche. Ces critiques envers le papier de Séralini ont en commun de s'appuyer sur un raisonnement qui est généralement explicité: les besoin de rats en plus et d'une souche moins prompte à développer des tumeurs s'expliquent par la nécessité de réduire les effets du bruit statistique. À ces critiques, GE Séralini et Corinne Lepage, membres du CRIIGEN qui a subventionné l'étude, répondent sur un tout autre plan.

Séralini a déclaré qu'il ne donnerait pas les données détaillées de son étude à l'EFSA parce que celle-ci ne publie pas les données que Monsanto lui a fournies pour qu'elle autorise le maïs porteur de la modification NK603 à la vente. Il affirme aussi qu'il publierait ses données sur un site web si l'EFSA publiait les données en sa possession sur le NK603. En général, les tenants de la publication ouverte des données tiennent cette action pour bénéfique en elle-même: pas besoin d'exiger une quelconque forme de réciprocité. L'attitude de Séralini revient donc de se point de vue à se prévaloir de la turpitude d'autrui. Les demandes de l'EFSA sont aussi moindres: ne lui transmettre qu'à elle les données, chacun restant propriétaire de ses données. Elle n'a donc sans doute pas le droit de publier ce que lui a fourni Monsanto, par exemple. La demande de Séralini ne pourrait alors être exaucée que si la loi change ... ce qui n'est pas au pouvoir de l'EFSA.

Corinne Lepage, quant à elle, a pris la plume pour publier une tribune où elle dénonce un conflit déontologique: la personne qui a rédigé l'avis de l'EFSA sur le papier de Séralini a aussi rédigé l'avis sur le NK603. On retrouve aussi cette contestation dans les propos de Séralini puisqu'il déclare vouloir être jugé par la vraie communauté scientifique, pas par celle qui s'exprime dans Marianne et qui est composée à 80 % de gens qui ont permis les autorisations de ces produits. Corinne Lepage dénonce aussi le fait que les évaluateurs ne devraient pas être les normalisateurs. Elle fait aussi grief à l'EFSA de ne faire que copier-coller les arguments des détracteurs de Gilles-Eric Séralini sans bien sûr expliquer en quoi c'est incorrect autrement qu'en se prévalant que les autres feraient pire, sans s'expliquer plus avant. Elle expose aussi certaines de ses revendications pour les changements de procédures à l'EFSA.

On voit donc que les opposants aux OGMs ne portent pas leur contestation sur le cœur de ce que sont les avis des instances d'évaluation des risques. En effet, comme le rappelle un exposé d'Yves Bréchet devant l'Académie des Sciences morales & politiques, un avis ne vaut pas seulement par ses conclusions mais surtout parce qu'il est fondé sur un raisonnement critique basé sur l'ensemble des connaissances disponibles, ou au moins le maximum qu'on a pu rassembler. Au fond, répondre uniquement sur les apparences, ce n'est pas répondre à l'avis. Si vraiment l'avis est partial, il doit être possible de pointer des erreurs de raisonnement ou dans la sélection des connaissances qui servent de base à l'avis.

Cependant, comme il est pratiquement impossible de pratiquer une critique approfondie d'un avis si on n'a pas soi-même de connaissances scientifiques ou si on ne dispose pas de temps pour se faire une idée, on demande que l'avis soit rendue de façon à ce que l'étude ait les apparences de l'impartialité. Il ne peut s'agir de demander que les experts n'aient d'attaches avec personne: si c'était le cas, ce ne seraient sans doute pas des experts de leur domaine. De même, on ne peut pas réclamer que les experts n'aient pas exprimé d'avis sur la question — ou une question proche — auparavant: d'une certaine façon, c'est leur métier que d'évaluer l'ensemble des connaissances disponibles sur un sujet. Les métiers techniques et scientifiques réclament souvent de savoir reconnaître les évènements qui changent une situation et donc son jugement sur la question. Prétexter que les experts aient déjà rendu un avis — qui va dans le sens contraire à ce qu'on souhaiterait — pour les disqualifier, c'est de fait mettre en cause leur honnêteté et leur capacité à accomplir leur travail d'expertise. Le nombre d'experts dans un domaine donné n'est pas non plus extensible à l'infini, ce qui fait que ce sont souvent les mêmes personnes qu'on va retrouver lors des expertises, non du fait d'un quelconque complot mais à cause des conséquences de la spécialisation des experts. C'est pourquoi les arguments de Corinne Lepage sont particulièrement infondés. Dans bon nombre de domaines, les normalisateurs — au sens de ceux qui écrivent les normes — sont des spécialistes du domaine, qui ont évalué les différentes technologies, voire qui ont créé la technologie qui est normalisée. On ne peut pas dire que le monde s'en porte si mal! De même, réclamer un changement d'auteur de l'avis parce que cet avis allait dans le sens contraire à un nouveau papier est un non-sens: l'auteur de l'avis est d'abord censé écrire l'avis de l'ensemble des experts consultés et être capable d'incorporer les informations nouvelles.

En fait, ces déclarations ne visent qu'à marquer des points dans l'opinion publique. Le reproche principal fait à l'EFSA est de n'être pas d'accord avec Séralini et Corinne Lepage, non d'être face à un quelconque conflit d'intérêts. Il s'agit de s'attaquer à la crédibilité de ceux qui ne sont simplement pas d'accord avec soi, d'avoir le loisir de choisir par qui on est critiqué, de ralentir les procédures d'autorisation et d'empêcher l'innovation d'émerger par suite de coûts de commercialisation trop importants. C'est la tactique classique qui a été déployée avec succès pour empêcher la culture des OGMs en France. C'est aussi une tactique qui est malheureusement très présente dans le champ de la politique et c'est une des raisons qui conduisent à demander des expertises. Il semble donc bien que la parution du papier soit surtout l'occasion d'une exploitation politique par les détracteurs habituels des OGMs. Il montre aussi une nouvelle fois qu'ils cherchent à pirater les institutions et les procédures mises en place dans le cadre du principe de précaution pour faire avancer leur cause, sans égards pour les faits. C'est la principale faiblesse du principe de précaution: pour que ces institutions fonctionnent bien, un minimum de bonne foi est requis et ceux qui cherchent simplement à marquer des points peuvent s'en servir pour faire campagne sans avoir à en souffrir.

21 septembre 2012

NK603, l'information écologiquement modifiée

Ce mercredi, le Nouvel Observateur nous a gratifié d'un dossier sur les OGMs selon lesquels ce seraient des poisons, basé sur la publication d'un papier de G.E. Séralini, scientifique favori du CRIIGEN et déjà connu pour ses papiers prétendant démontrer la nocivité de divers OGMs et celle du Round Up. Il n'aura sans doute pas échappé aux lecteurs habituels de ce blog que je trouve que l'argumentation déployée par les opposants aux OGMs particulièrement insuffisante. Cette étude, comme on va le voir, ne change pas ma façon de penser, mais elle est aussi révélatrice des tactiques des écologistes dans ce domaine ainsi que d'insuffisances graves de la part d'une partie de la presse, en l'occurrence ici de la part du Nouvel Observateur.

Le papier de Séralini

Séralini était déjà connu pour quelques aventures, car il a déjà essayé de prouver que le MON810 était nocif en bidouillant les données de l'étude Monsanto et essayé de montrer qu'un produit homopathique annulait les effets néfastes du glyphosate, le principe actif du Round Up. Il s'est donc bâti une solide réputation d'absence de sérieux qui lui vaut quelques déboires quand il se risque hors de nos frontières.

On peut trouver le papier de Séralini sur les sites des organismes qui sponsorisé son étude, ce qui n'est pas si courant et est à mettre à leur actif. Il prétend démontrer la toxicité du maïs NK603, autorisé depuis 12 ans aux USA, ainsi que celle du Round Up. La disponibilité du papier en ligne a permis d'avoir nombre de critiques au sujet de cet article, parmi laquelle celle de Marcel Kuntz. On peut faire la liste des griefs principaux:

  1. Pas assez de rats dans chaque groupe: le groupe de contrôle ne compte que 10 mâles et 10 femelles, ce qui le rend très sensible au bruit de fond statistique
  2. Le traitement statistique est mystérieux.
  3. L'étude n'est pas menée en aveugle, tous les expérimentateurs savent à quel groupe les rats appartiennent, ce qui rend l'étude sujette à divers biais.
  4. Les rats utilisés sont susceptibles de développer des tumeurs: les taux de prévalence donnés par les études s'étagent en gros de 50 à 80% pour des rats vivant jusqu'à 2 ans! On voit aussi qu'il y a des lignées qui sont nettement moins sujettes à ce problème et où il est donc plus facile de distinguer un effet conduisant à l'augmentation d’apparition des tumeurs.

Pour bien montrer que ces critiques ne sont pas là que pour la forme, on peut regarder la figure 1 du papier. seralini_fig_1.jpg Les traits continus sont les groupes avec les produits à tester, l'épaisseur croissant avec la dose administrée. On distingue le comportement pour les mâles et les femelles. Successivement de haut en bas, nourriture avec le maïs OGM seul, maïs OGM saupoudré de Round Up, eau mélangée au Round Up. Les traits pointillés représente le groupe de contrôle: c'est donc la même courbe qui se succède de haut en bas. On constate que pour la consommation d'OGM seul et pour les rats mâles (graphe en haut à gauche), il vaut mieux consommer le plus possible d'OGM: c'est le cas où les rats vivent le plus vieux! Quel dommage que Séralini n'en fasse pas ses conclusions! On constate aussi que les évolutions ne sont pas vraiment celles attendues quand on connaît la conclusion qui en est tirée: il n'y a pas de croissance de la toxicité quand la dose augmente ou quand on ajoute un produit a priori toxique. C'est ainsi que consommer de la nourriture avec juste un peu d'OGM apparaît dangereux pour les mâles et que l'ajout de Round Up dans les OGMs est bénéfique aux femelles. Par rapport aux autres études regardant la prévalence chez les rats vieux des tumeurs, on voit qu'en fait c'est le contrôle qui est exceptionnel, et non les groupes avec lesquels on veut tester les produits. On se trouve donc en face d'une étude qui nous montre qu'avec des échantillons de petite taille, on a énormément de bruit. On peut même lui faire dire l'inverse des conclusions des auteurs puisque certains résultats favorisent en fait l'OGM.

À ce stade, on ne voit donc que quelqu'un qui s'est fait à juste titre rembarrer sur ses méthodes tant statistique qu'expérimentale se faire de nouveau rembarrer à juste titre pour les mêmes raisons. C'est certes un militant anti-OGM, financé par des associations sur la même ligne que lui, mais cela ne fait qu'obliger à regarder avec un œil critique ses publications: être engagé ne veut pas dire en soi qu'il ait forcément tort. Simplement, Séralini n'aura certainement pas amélioré sa réputation auprès de ses pairs grâce au contenu de son papier.

L'exploitation dudit papier

Par contre, l'utilisation de ladite publication est nettement plus contestable. Le principal article du Nouvel Observateur est sensationnaliste. On nous dit que la publication pulvérise une vérité officielle, dans un pays où le seul OGM qui y ait jamais été autorisé est interdit, parce que le gouvernement le soupçonne de nuire à l'environnement. Par contre, il est vrai que toutes les instances d'évaluation des risques existant de par le monde jugent les OGMs actuellement sur le marché comme sûrs, suite à un grand nombre d'études et maintenant un certain nombre d'années d'utilisation. On nous décrit ensuite le mode opératoire de l'équipe de Séralini: on apprend qu'ils ont crypté leurs emails comme au Pentagone, qu'ils se sont interdit toute discussion téléphonique, qu'ils ont trouvé l'achat de semences OGMs très difficile et enfin qu'ils se sont procuré 200 rats. Il faut dire que l'équipe de Séralini craignaient un coup fourré de Monsanto, qui ne doit se doute en aucune façon que des opposants cherchent depuis des années à monter des études visant à discréditer ses productions.

L'article nous informe aussi que Séralini publie prochainement un livre sur le même sujet, de même que Corinne Lepage, présidente d'honneur du CRIIGEN, sponsor de cette étude. On nous informe aussi qu'un film portant le même titre que le livre de Séralini et portant sur le même sujet va bientôt être diffusé sur une chaîne publique. On croirait presque que l'étude sert de caution à une tournée promotionnelle comme l'industrie du divertissement nous a habitués à en voir et très similaires à leurs sœurs jumelles destinées à faire vendre des livres ou des documentaires vantant une certaine opinion, le plus souvent en criant au scandale. Heureusement, Séralini a pris soin de nous rassurer dans sa publication: il ne déclare aucun conflit d'intérêt, ce qui est bien le moins pour quelqu'un qui agit pour le compte d'une association militante qui ne cesse de dénoncer ceux qui mineraient les études concurrentes. Le Nouvel Observateur, non plus, ne sert aucunement de support à une quelconque tournée promotionnelle, et c'est dans un but purement informatif qu'il a interrogé Mme Lepage Corinne qui nous affirme que tout est organisé pour qu'il n'y ait pas de recherches.

L'article est aussi titré comme étant exclusif. En lisant ce qui se dit ailleurs, on s'aperçoit que Séralini et le Nouvel Observateur ont signé un accord de confidentialité. Cet accord empêchait de s'enquérir de l'avis d'autres personnes spécialistes des OGMs et de recueillir leur opinion de façon à recouper les informations. Ceci est aussi particulièrement indiqué pour une publication scientifique. En effet, qu'une étude donne lieu à publication ne veut pas dire que ses conclusions sont certaines. C'est plutôt le point de départ de la critique et de la possibilité d'essayer de répliquer les résultats. Et vue la vitesse où les critiques sont apparues, il eut sans doute été préférable de recueillir des avis d'autres scientifiques, non militants cette fois-ci. À moins bien sûr que les journalistes ne soient victimes du biais de confirmation: en fait, ils étaient déjà acquis aux idées qu'on leur a exposées, il leur paraît impossible que ce soit l'inverse qui soit vrai. Mais force est de constater que si le Nouvel Observateur avait fait de même dans l'autre sens, on aurait traité ça de manipulation et dénoncé le manque criant de déontologie journalistique. C'est le cas ici: on voit bien que le Nouvel Observateur sert de faire-valoir à des personnes qui ont aussi un net intérêt commercial à ce qu'on sache ce qu'ils font, il ne recoupe pas ses informations.

Ce n'est pas la première fois que ça se produit dans la presse française. Il y a quelques mois sur ce blog, je critiquais un article du Monde qui recopiait servilement le tract d'une association anti-OGM à propos du coton Bt en Inde, déformation des propos des défenseurs de la technique inclus, alors qu'un mois plus tôt un journal indien, traitant le même sujet, mentionnait le point de vue inverse. Mais le manquement du Nouvel Observateur est encore plus flagrant et cette fois-ci on a un aperçu d'une bonne partie des techniques des militants écologistes pour faire prévaloir leur point de vue.

Les militants écologistes dominent de la tête et des épaules leurs opposants sur la maîtrise de la chaîne de production médiatique. Ce n'est pas un fait nouveau, il suffit de regarder ce qui se passe depuis de nombreuses années sur le nucléaire. On trouve ainsi des traces de ceci dans un article sur les évènements ayant entouré l'usine de La Hague (p175sq). Les militants y sont décrits utilisant divers artifices, comme le fait d'envoyer leur contribution au dernier moment, empêchant toute modification de celle-ci et toute recherche de contradiction. L'accord de confidentialité trouve toute sa place dans ce cadre: les médias importuns qui veulent un avis extérieurs sont exclus, ils n'auront pas le scoop et ils ne pourront publier une réfutation. Celle-ci ne peut venir que plus tard, alors que la machine médiatique est lancée et inarrêtable ou bien que l'agitation est retombée.

Les militants écologistes se posent aussi de façon permanente en David devant affronter Goliath, même lorsqu'ils dominent largement le champ de la polémique. Dans le cas des OGMs, le cas est clair: en France, la cultures des OGMs est interdite, tout essai est devenu impossible — alors même qu'il y avait des essais de plantes transgéniques en France à la fin des années 80. On trouve cet angle dans l'interview de Jouanno: elle nous dit que Monsanto s'est montré menaçant dans son bureau à propos de l'invocation de la clause de sauvegarde sur le MON810, mais elle se garde bien de dire que Monsanto a gagné au Conseil d'État sur ce sujet. Ils ne cessent aussi de dénoncer les conflits d'intérêts de leurs opposants afin de les décrédibiliser, rien que d'aller à des conférences où des industriels sont présents suffit pour devenir irrecevable. Par contre, comme on l'a vu dans le cas d'espèce, cela ne les dérange pas de se trouver aussi dans des situations de conflits d'intérêts flagrantes. Bien sûr, ils argueront sans nul doute que la publication est dévoilée par hasard juste avant la sortie de divers livres et autres reportages, uniquement là pour propager leur message. Mais le fait est qu'ils ont un intérêt financier, autre que leur salaire, à faire publier leur papier dans une revue scientifique. Cela ne les gêne pas non plus d'être financés par des multinationales.

Les militants écologistes cherchent aussi à pirater le processus d'évaluation par les experts ainsi que les canaux scientifiques. J'en ai déjà parlé en regardant l'utilisation qui était faite du principe de précaution en relation avec les OGMs. Arriver à publier de nouveau une étude, peu importe sa qualité, leur permet de faire parler de leur cause. Comme les journalistes à qui ils s'adressent sont probablement ignorants du consensus scientifique, ils peuvent recevoir un bon accueil. Peu importe le nombre d'études publiées: il n'y en a jamais assez, tout est toujours organisé pour empêcher leurs convictions d'émerger comme le consensus scientifique. Or, en l'occurrence, de très nombreuses études ont été réalisées et le consensus scientifique est que les modifications génétiques ne constituent pas en elles-mêmes une technique dangereuse: c'est par exemple la conclusion qui figure dans ce rapport européen résumant les études menées grâce à l'UE. Le fait que le consensus scientifique dans le domaine soit aussi peu souvent exposé montre le succès de leurs tactiques: on n'en parle guère, à titre d'exemple, le rapport européen est passé totalement inaperçu dans la presse.

De fait, le plus énorme scandale des OGMs est que des journalistes gobent tout ce que leur disent les écologistes dans ce domaine. On ne peut que constater que le Nouvel Observateur est soit complice, soit se laisse manipuler par une association écologiste, alors même qu'elle ne fait qu'utiliser des tactiques qu'on peut observer depuis de très nombreuses années. Ils se sont eux-mêmes interdit de recouper les informations et de rechercher quel était le consensus scientifique sur la question. Que les auteurs de l'étude et des membres éminents de l'association qui la sponsorise soient aussi dans une démarche mercantile ne leur pose aucun problème, ils leur font même de la publicité. Il faut aussi noter que le Nouvel Observateur s'est distingué en relayant une entreprise de désinformation menée par des anti-nucléaires. Une fois de plus, je constate qu'on ne peut pas faire confiance à la presse dans certains domaines, dans des matières techniques ou scientifiques, un article de presse est à prendre avec les plus grandes précautions. On trouve aussi souvent de nombreuses interrogations de la part de la presse sur son avenir. Fournir aux lecteurs l'occasion de s'apercevoir que, dans ces matières, la qualité de l'information fournie est mauvaise, c'est aussi l'occasion pour eux de s'interroger sur la qualité de l'information fournie, tout court.

edit du 22/9: corrigé un oubli de mots dans le paragraphe sous le graphique extrait du papier edit du 19/10: correction d'erreurs variés mais criantes d'orthographe, de syntaxe, etc.

18 septembre 2012

Le coût exorbitant de la course aux renouvelables: 2e édition

Lors de son discours de clôture de la conférence environnementale, le premier ministre a annoncé diverses mesures envers les producteurs d'électricité renouvelables, ou plus exactement l'éolien et le solaire. Ces mesures ressemblaient pour certaines aux recommandations d'un rapport de l'administration: ainsi Jean-Marc Ayrault a-t-il annoncé un assouplissement du zonage pour faciliter l'implantation d'éoliennes.

Mais ce rapport est aussi intéressant par ce qu'il montre les contradictions de la politique que veut mener le gouvernement ou, en tout cas, qu'elle est contraire aux intérêts des consommateurs et à ce qu'il faudrait faire pour diminuer efficacement les émissions de CO₂ en France. Ces contradictions sont apparentes dès le début du rapport, avec les deux premiers paragraphes de la synthèse. On nous dit au premier paragraphe que l'éolien et le solaire doivent être subventionnés. Au deuxième, on nous explique que l'éolien et le solaire ne pourront, pour des raisons techniques, permettre la réduction de la part du nucléaire dans la production d'électricité à 50%: il ne reste donc que les combustibles fossiles pour combler le manque.

De l'éolien et du solaire à bas prix?

La première recommandation du rapport est de préserver une part conséquente de production d'électricité à bas coût. Des esprits forts pourraient en déduire que le rapport devrait s'arrêter dès son introduction puisque de fait, en France, la production d'électricité combine à la fois bas coûts et faibles émissions de CO₂. Les seuls besoins concernent des installations permettant de répondre à des périodes de forte demande à l'ajustement de la production au cours de la journée, bref, des moyens de production pilotables, ce que ne sont pas l'éolien et le solaire photovoltaïque. On sent aussi les rédacteurs du rapport, qui ont lu le bilan prévisionnel 2011 de RTE, très similaire dans ses conclusions à celui de 2012 en ce qu'il annonce une hausse des émissions de CO₂ en cas de diminution de la part du nucléaire, un peu gênés aux entournures, puisqu'ils recommandent aussi de regarder d'autres sources d'électricité que l'éolien et le photovoltaïque (recommandation n°5). Évidemment, la lettre de mission adressée aux fonctionnaires ne leur permet pas de s'arrêter là.

Ils recommandent donc d'assouplir les contraintes pesant sur l'installation d'éoliennes, de façon à accélérer les procédures, augmenter le nombre de terrains disponibles, changements qui peuvent diminuer le prix de l'électricité éolienne toutes choses égales par ailleurs. Cela dit, l'article du Figaro mentionne que le lobby de l'éolien espérait une augmentation des tarifs de rachat qu'il n'a obtenue que pour les DOM-TOM sous les atours de tarifs spéciaux pour eux et pour les zones cycloniques. Le rapport recommande aussi de mettre fin aux tarifs spéciaux du photovoltaïque prévoyant une prime pour l'intégration au bâti. Du point de vue du consommateur, cette prime ne fait que renchérir inutilement le prix de l'électricité.

Mais le rapport contient aussi tous les éléments qui montrent que la politique menée jusqu'ici va coûter fort cher. On y trouve p39 les prévisions de subventions qui se monteraient à 8G€ en 2020 — contre 2G€ en 2012 — ce qui alourdirait la facture des particuliers de 10€/MWh hors taxes. On y voit que les 2 principaux contributeurs seraient le solaire photovoltaïque et l'éolien en mer. Et de fait, on peut s'apercevoir, au gré des appels d'offres, que le solaire photovoltaïque est payé, pour les nouvelles constructions, 208€/MWh pour les plus grosses installations tandis que l'éolien en mer coûte la bagatelle de 228€/MWh.

Quant à espérer des baisses de prix, en dehors du photovoltaïque, elles risquent de se faire attendre. Ainsi, le BDEW, association industrielle allemande regroupant entre autres les producteurs d'électricité, a publié un document sur les perspectives allemandes de la production d'électricité renouvelable, dont l'essentiel est traduit dans ce document de Sauvons le Climat. On y trouve ce graphe p64: prix_EnR_complet.jpg On y voit qu'à part le photovoltaïque dont le prix d'achat moyen passe de complètement délirant à simplement exorbitant, toutes les autres sources voient leurs prix d'achat moyens augmenter ou stagner.

Les appels d'offres, remède à la dérive des coûts?

Pour essayer de limiter les coûts, les auteurs préconisent d'arrêter les tarifs de rachats à guichet ouvert pour passer sur un régime d'appel d'offres. On voit mal comment une telle politique peut s'adapter à l'installation de panneaux photovoltaïques par les particuliers, les plus chers, et un facteur de dérive des coûts restera donc toujours de ce fait. Mais le problème, c'est que cette politique est à double tranchant. Les appels d'offres peuvent permettre de limiter les coûts pour les technologies dont les coûts baissent rapidement en empêchant qu'un effet d'aubaine ne se crée. Les possibilités de construire sont limitées en volume, seuls les offres les moins chères sont sélectionnées. Mais si au contraire les coûts sont en hausse, c'est l'inverse qui se produit.

Et la lettre de mission adressée aux auteurs est lourde de facteurs de hausses des coûts. En effet, les ministres entendent que l'essor de la production d’électricité renouvelable crée des emplois. Cela se traduit par la recommandation 14 où on nous dit qu'il serait bon qu'il y ait des contraintes en termes de contenu local. On nous dit aussi qu'il faut utiliser à cet égard toutes les possibilités de la réglementation européenne, ce qui laisse entendre que les possibilités ne sont pas si grandes que cela.

Regardons les résultats. Les appels d'offres sont la norme pour les installations photovoltaïques de taille moyenne ou grande (>100kW) depuis que le gouvernement s'est fait déborder par la chute des prix des panneaux. Actuellement, le rapport fait état d'un prix possible de l'électricité photovoltaïque de 170€/MWh (p32) à l'heure actuelle en France. Comme on l'a déjà vu, le prix réellement accordé est de 208€/MWh. On ne peut pas dire que les appels d'offres révèlent le prix cible. Mais il y a mieux: p59, les auteurs déclarent qu'au moins un industriel nous a indiqué qu’il parvenait dans ses installations à 100€/MWh en France. On ne saurait trop conseiller à cet industriel de déposer séance tenante une offre à ce prix et de le faire savoir, histoire de faire taire les critiques. Quant à l'aspect du contenu local, on s'aperçoit que la plupart des fabricants de cellules sont en perte (p65), parfois dans des proportions très importantes vis-à-vis de leur chiffre d'affaires. Un approvisionnement local ne peut alors conduire qu'à un fort renchérissement des offres puisque les fabricants disposeraient d'un marché captif. Pour ce qui est de l'éolien en mer, la France s'est distinguée par un prix délirant de 228€/MWh dans un appel d'offre qui correspond à ce que les auteurs recommandent. En Allemagne, le tarif est de 150€/MWh et des champs se construisent à ce prix. Par contre, pas de baisse des prix en vue, comme le montre le graphe ci-dessus: les prix sont à la hausse. Bref, difficile de croire que les appels d'offres vont véritablement offrir de meilleurs prix pour les consommateurs et contenir l'envolée des subventions.

De façon générale, comme les auteurs le remarquent, la France n'a pas construit d'industrie du photovoltaïque ou de l'éolien: chercher à la construire maintenant semble donc une erreur puisque des acteurs sont déjà bien installés et ont amorti une partie de leurs usines. Cela leur donne un avantage compétitif. Mieux vaudrait donc se lancer dans d'autres filières, comme celles du stockage de l'énergie, vu que celui-ci s'adapte à tous types de mix de production et permettrait de remplacer les centrales à combustibles fossiles en France.

Quid de la prime de marché?

Les auteurs recommandent aussi une autre façon de subventionner les énergies renouvelables: la prime de marché (recommandation n°13 & p41). Il s'agirait, au lieu de racheter l'électricité à prix fixe, de donner le prix du marché plus une prime, ce qui inciterait le producteur à se soucier du moment où il injecte du courant sur le réseau de façon à maximiser ses rentrées d'argent. Évidemment, pour des sources fatales pures, c'est assez inutile: l'injection sur le réseau n'est pas maîtrisable. Les producteurs seront alors incités à réclamer une prime qui va simplement renvoyer au prix garanti d'achat, c'est ce qui s'est passé en Allemagne. Cependant, cette méthode peut pousser le développement de technologies de stockage. Mais elle permet aussi de rémunérer l'électricité renouvelable non pas en fonction des coûts des différentes technologies, comme actuellement, mais en fonction du service rendu. Le bonus pourrait être ainsi fixé en fonction du gain réel attendu en termes d'émissions de CO₂. Si on subventionnait 100€/t de CO₂ évitée — 10 fois le prix du marché actuel — cela conduirait à un bonus maximum situé entre 5 et 10€/MWh pour les sources fatales et qui décroîtrait au fur et à mesure que l'électricité serait moins carbonnée, pour peu, bien sûr, que ces énergies participent réellement à la diminution des émissions de CO₂ en France. En effet, les émissions directes (par opposition à une analyse sur un cycle de vie) de l'électricité seule sont comprises entre 50 et 60g/kWh (source, p225) et environ 80g/kWh si on prend en compte la production de chaleur. L'incitation serait par contre nettement plus forte pour les moyens mobilisables à la demande, ceux dont on a réellement besoin. Évidemment, une telle éventualité n'a pas été envisagée par le premier ministre dans son discours.

La lecture de ce rapport est aussi une improbable publicité en creux pour le parc de production d'électricité actuel en France. Voilà une industrie essentiellement locale: la France possède toutes les installations du cycle nucléaire sauf les mines d'uranium. Les barrages sont aussi une industrie éminemment locale: il s'agit de les construire et de les entretenir. La production est aussi essentiellement décarbonée: le rapport rappelle les analyses de l'ADEME sur le cycle de vie des différentes sources d'électricité (p32): les barrages émettent 4g/kWh, le nucléaire 8g/kWh, l'éolien 15g/kWh, le solaire photovoltaïque 50g/kWh.

En conclusion, on voit que le gouvernement va devoir choisir: soit continuer à subventionner les énergies renouvelables dans la production d'électricité pour obtenir dans le meilleur des cas un gain faible en termes d'émissions de CO₂ — mais plus probablement une hausse — et le faire payer très cher aux Français, soit changer de stratégie et se tourner vers des technologies de stockage — disposer d'un stock d'énergie rapidement et facilement mobilisable est l'atout principal des combustibles fossiles — où il y a des places à prendre, ou encore se tourner vers les secteurs qui constituent actuellement l'essentiel des émissions françaises: le chauffage et les transports qui recèlent sans nul doute des gisements de réduction à plus bas coût. L'amateurisme de ce gouvernement, les décisions annoncées lors de la conférence environnementale et ses projets laissent craindre qu'évidemment, on continuera dans la première voie.

9 septembre 2012

De la tarification progressive de l'énergie

Durant la campagne présidentielle, les socialistes et François Hollande ont dit qu'ils voulaient instituer une tarification progressive de l'énergie, partie intégrante de leur politique énergétique déplorable. Comme c'était prévisible, les projections de RTE montrent que le mix électrique prôné durant la campagne va provoquer une hausse des émissions de CO₂ par le secteur de la production d'électricité. La raison était déjà connue de longue date: les énergies renouvelables à la mode, solaire photovoltaïque et éolien, sont intermittentes ce qui suppose qu'elles sont suppléées par des centrales dont les coûts dépendent avant tout du prix du combustible comme des centrales au gaz.

François Brottes, qui était chargé du dossier «énergie» au sein de l'équipe de campagne de François Hollande, a donc déposé une proposition de loi. Elle ne déroge pas à ce qu'on pouvait craindre: pour fonctionner, une intrusion supplémentaire dans la vie privée des gens est nécessaire, le niveau de détail demandé va transformer ce système en usine à gaz, le tout sans bien sûr assurer que les buts soient atteints ni que ceux-ci soient légitimes

Le modèle de fonctionnement

La proposition de loi ne recèle pas que des dispositions sur la tarification progressive: par exemple, elle veut aussi étendre le bénéfice des tarifs sociaux à plus de gens. Actuellement, le coût des tarifs sociaux est modique, cette extension ne devrait pas changer cet état de fait. On laissera de côté ces dispositions, la tarification progressive étant le cœur réel de la proposition de loi.

L'idée de base de la tarification progressive est qu'il est possible de déterminer trois types de consommation d'énergie: le minimum vital, le normal et le gaspillage. Ces trois types de consommation sont délimités par des seuils d'énergie consommés qui définissent des bandes où le prix du kWh est différent: bas pour la zone frugale, haut dans la zone de gaspillage. La question qui se pose immédiatement est de savoir comment déterminer ces seuils. L'auteur de la proposition de loi précise que les seuils seront modulés en fonction de la zone géographique et de la taille du ménage. Comme il existe plusieurs moyens de se chauffer, il va falloir demander aux gens comment ils se chauffent. Et d'exiger que tout le monde précise le moyen de chauffage de sa résidence principale sur sa déclaration de revenus, chose sans doute très naturelle dans un pays où on y demande déjà aux gens s'il possèdent une télévision, mais qui est très clairement une intrusion dans la vie privée dont on va voir qu'elle n'est sans doute inutile et contre-productive.

Il va aussi falloir découper le territoire français en zones où les besoins de chauffage seront déterminés. Manque de chance, dans un rapport de 2008 intitulé Économie et substitution d'énergie dans les bâtiments, on peut lire que les besoins «objectifs» de chauffage varient d'un facteur 3 au sein du département des Alpes-Maritimes (p20). On voit donc que le découpage s'annonce sportif et qu'il risque d'y avoir un lobbying intense pour être bien classé dans certaines régions. Ajoutons à cela qu'il existe aussi des logements qui se chauffent avec 2 énergies: en effet, au cours du temps, les combles de nombre de maisons ont été aménagés, étendre le réseau d'eau chaude des radiateurs étant plus coûteux que d'installer des radiateurs électriques, ce sont ces derniers qui ont été choisis. Cocher la bonne case pour ces logements requerra une lecture attentive des factures respectives.

Encore plus gênant: il existe des possibilités de substitution entre énergies mais toutes ne seront pas soumises à la nouvelle tarification. Certes, on peut soit souhaiter ces substitutions — comme encourager le chauffage au bois — soit penser qu'elles sont peu probables du fait du différentiel de prix — à 1€/L, le fioul vaut environ 100€/MWh alors que le gaz est facturé environ 70€/MWh. Comme la surtaxe maximale vaudrait dans un premier temps au maximum 30€/MWh, elle ne devrait pas avoir trop d'effets pervers. Si la proposition de loi ne soumet pas tout les sources d'énergie à la même enseigne, c'est que c'est impossible ou au moins — ne sous-estimons pas l'inventivité des ministères — très compliqué. Les seules énergies taxées présentent l'immense avantage d'être distribuées par un réseau: chaque consommateur a un seul fournisseur à chaque instant. Pour le fioul, le bois, le GPL, rien de tout cela: on peut s'approvisionner auprès de plusieurs sources au cours de l'année sans que le gouvernement ne puisse savoir combien on a consommé. Il ne faut pas se faire d'illusion: ce n'est pas parce que l'énergie est un bien de première nécessité qu'une telle tarification est instituée, mais parce que l'état en entrevoit la faisabilité. La nourriture, bien de première nécessité s'il en est, ne peut faire l'objet d'une telle tarification. Outre qu'il est aussi extrêmement compliqué de définir dans ce domaine la frugalité et l’exubérance, le nombre de fournisseurs et de façons de se nourrir rend l'aventure totalement impossible. Dans le cas des énergies hors réseau, on se retrouve dans le même cas de figure.

On trouve aussi dans la proposition de loi des dispositions qui tiennent du bizarre. C'est ainsi que les résidences secondaires seront exemptées. Pourtant, posséder une résidence secondaire ne dénote pas une frugalité hors du commun, au contraire. La raison à la base de cette exemption, c'est que ne pouvant faire la somme des consommations de la résidence secondaire et celles de la résidence principale, d'autant qu'on peut avoir des fournisseurs différents pour les deux, l'état ne peut pas déterminer dans quelle tranche tombe ce consommateur pour sa consommation globale. Remarquons aussi qu'un décompte séparé amènerait certainement à subventionner les consommations dans la résidence secondaire et, par ses séjours dans sa deuxième résidence, l'heureux propriétaire terrien verra sa consommation d'énergie dans sa résidence principale diminuer: il paiera donc moins à consommation totale égale que la malheureux qui passe plus de temps dans son unique résidence. On trouve aussi une disposition sans précédent: les locataires pourront imputer les surcoûts imposés par la surtaxe qui ressortiraient du chauffage sur leur loyer. Pour les locataires qui se chauffent au gaz et qui aiment les appartements surchauffés, c'est une aubaine: une partie de l'énergie nécessaire pour obtenir une température au-dessus de la température définie par décret sera payée par le propriétaire. L'auteur de la loi se justifie en affirmant que les locataires ne sont pas responsables de la mauvaise isolation du logement qu’ils occupent et ne doivent pas être pénalisés par la tarification progressive. En clair, il entend corriger une imperfection de marché qui est que les locataires ne savent pas combien ils vont devoir payer avant d'entrer dans l'appartement et ne peuvent intégrer cette information lors de leur choix. Cependant, il existe aujourd'hui un diagnostic de performance énergétique, mais il n'indique rien du tout quant aux dépenses étant donné qu'il est libellé dans une unité incompréhensible — le kWh d'énergie primaire par m² et par an— qui n'a qu'un lointain rapport avec la facture réellement payée — pas plus d'ailleurs qu'avec les émissions de CO₂. Je me permets donc une suggestion: plutôt que de communiquer une information incompréhensible, pourquoi ne pas la présenter sous une forme facilement assimilable: la somme dépensée annuellement?

Se pose aussi la question de savoir si les buts sont véritablement atteints. Pour essayer de comprendre ce qui va se passer, un détour par un modèle très basique peut être utile. Selon la théorie économique standard, la quantité consommée est déterminée par la comparaison entre le prix d'achat d'une unité supplémentaire d'un produit avec le bénéfice qu'on en retire. On peut représenter cela par un graphique comme ci-dessous. La courbe des prix (ou d'offre) est plate dans le cas d'une tarification classique (courbe verte), elle est en paliers successifs pour la tarification progressive (courbe violette). Des courbes de demande qui représentent les bénéfices pour les consommateurs sont en rouge: les premières unités consommées apportent plus de bénéfices que les suivantes. Demande_morceaux_2.jpg On voit que pour le gros consommateur, la quantité consommée diminue en passant de C en D. Par contre le petit consommateur augmente et passe de A en B. Si le premier cas est bien le but recherché, le deuxième cas me semble un gros bug. On remarque aussi que s'il n'y a que ces deux types de consommateurs dans la population, le système ne s'équilibre pas: il n'y a plus que des subventions à la consommation! Ce cas n'est pas une vue de l'esprit, c'est ce qui s'est passé pour le bonus/malus sur les automobiles.

On me répliquera que le modèle montré n'est pas représentatif de la réalité. Cependant, la proposition de loi ne s'accompagne d'aucune étude d'impact — elles ne sont pas obligatoires. Par contre, la loi demande au gouvernement de remettre divers rapports, dont un pour voir si le système proposé fonctionne réellement: c'est l'article 2 de la proposition. Notons aussi que déposer une proposition de loi permet d'éviter l'étude par le Conseil d'État du projet de loi, des fois qu'il soulève de bêtes problèmes comme celui de savoir si l'état peut demander n'importe quoi aux gens sur la déclaration de revenus. Cette proposition de loi apparaît ainsi comme un projet de loi maquillé; il n'est pas dit que se servir du Parlement comme d'un faux nez du gouvernement revalorise réellement le rôle du premier. L'auteur semble aussi d'un optimisme modéré quant à se proposition puisqu'il écrit: l’analyse montre que le dispositif peut fonctionner : c’est l’essentiel. Le citoyen eut sans doute préféré que l'auteur vérifiât la réalité du fonctionnement avant de déposer sa proposition, surtout que ce même auteur déclare plus loin que l’apparente complexité du mécanisme proposé pour la tarification progressive résulte d’un choix mûrement réfléchi.

Peut-on faire mieux?

La complexité affichée est inacceptable quand on sait qu'il est en fait possible d'arriver aux buts affichés de façon nettement plus simple: sans demander d'information supplémentaire à la population, avec une consommation qui sera a priori en diminution pour tout le monde, sans avoir besoin de modifier les systèmes de facturation. Il y a évidemment une contrepartie: il n'y aura pas de micro-management de la population et des effets de substitution entre énergies pourront jouer. De toute façon, un des enseignements principaux de la théorie économique standard est que l'état est très mauvais quand il s'agit de régenter la vie de la population dans les détails. C'est aussi un principe de base de la démocratie que de penser que chacun a la capacité de décider quelles sont les meilleures décisions à prendre et que chacun peut distinguer l'utile et le superfétatoire en ce qui le concerne. Encourager les substitutions entre énergies peut aussi être un but légitime, comme on le verra plus loin.

L'idée est la suivante: pour chaque source d'énergie, on fixe une taxe d'accise sur la consommation. Le produit de cette taxe est proportionnel au volume consommé. La proposition de loi visait aussi à récompenser les petits consommateurs. On peut atteindre simplement ce but en alimentant un fonds avec le produit de la taxe dont on redistribue alors le produit en le divisant entre tous les habitants. La taxe existe déjà: elle ressemble comme deux gouttes d'eau à la TIPP, elle peut frapper toutes les sources d'énergie même celles qui ne sont pas distribuées par un réseau. Pour redistribuer le produit de la taxe, l'état n'a besoin d'aucune autre information que celles dont il dispose déjà. En reprenant le modèle basique du dessus, on obtient un nouveau graphique: Demande_continu.jpg On constate que tout le monde réduit sa consommation. Les gros consommateurs réduisent aussi leur consommation de façon plus importante. Ce système est aussi plus flexible: la proposition précise que le système doit s'équilibrer mais que l'état doit aussi contacter les ménages modestes pour leur donner de l'aide pour diminuer leur consommation d'énergie. Comme cette aide n'est pas financée par le système de la proposition, on voit mal les actions concrètes sur lesquelles cette prise de contact va déboucher. Il est par contre facile de remplir un fonds d'aide à l'aide du produit d'une taxe.

Les buts sont-ils vraiment légitimes?

On peut finalement se poser la question de la légitimité des buts. L'auteur de la proposition cite en premier lieu le renchérissement général de l'énergie qui s'est produit ces dernières années. À mon sens, il est impossible de justifier la tarification progressive de cette façon: si tous les prix de l'énergie augmentent, il n'y a pas de raison de différentier petits et gros consommateurs. Chaque unité d'énergie consommée coûte plus cher, qu'on soit un gros ou un petit consommateur: dans ce cas, il n'y a pas de segmentation réelle du marché de l'énergie avec des sources dont les prix n'augmenteraient pas.

L'autre point est qu'il n'est pas légitime de décourager la consommation d'énergie en général par ce qui s'apparente de fait à une taxe. Ce n'est légitime que parce que le prix facturé ne prend pas en compte tous les inconvénients du type d'énergie utilisé. Or les 2 inconvénients les plus importants sont le risque de tarissement de l'approvisionnement et les émissions de CO₂. On voit donc que les énergies qu'il faudrait le plus décourager sont les énergies fossiles. Comme le charbon n'est plus guère utilisé par les ménages — seuls concernés par la tarification progressive —, les premiers produits dont il faudrait décourager l'utilisation sont les dérivés du pétrole. Les alternatives aux carburants automobiles ne sont certes pas très crédibles pour le moment et déjà très taxées, mais dans le domaine du chauffage, le fioul apparaît comme la source d'énergie à laquelle s'attaquer en priorité. Il provoque l'émission d'environ 300g de CO₂ par kWh (source) et le pétrole est sans doute en voie de disparition. Le gaz naturel émet, lui, environ 220g de CO₂ par kWh. Les champs de la Mer du Nord ont globalement passé leur pic, le gouvernement fait profession de ne pas exploiter les gaz de schiste, l'approvisionnement européen va donc se compliquer, même s'il est prévu que l'approvisionnement mondial se maintienne plus longtemps que celui du pétrole. Quant à l'électricité, il est bien connu que grâce au nucléaire et à l'hydro-électricité, sa production est très peu carbonée en France. Les émissions moyennes sont d'environ 90g de CO₂ par kWh facturé. L'électricité présente de plus la caractéristique d'être soumise au système européen de quota d'émissions, ce qui fait que la taxer au titre des émissions de CO₂ conduit à faire payer le consommateur 2 fois. La sécurité d'approvisionnement est variable, puisqu'elle dépend de plusieurs facteurs: disponibilité et construction de centrales, possibilités d'importations de courant comme de matières premières. La matière première la plus courante dans la production d'électricité en France, l'uranium, ne devrait pas manquer à court terme. Clairement, toutes les énergies ne sont pas égales, elles devraient donc faire l'objet d'un traitement différentié.

Pour conclure, cette proposition de loi paraît surtout remplir des buts idéologiques, de punir de méchants gaspilleurs et de récompenser de gentils économes. Comme la définition de ces termes passe rapidement sur un terrain moral et sujet à nombre de variations, l'auteur s'embarque sur un système extrêmement compliqué de collecte d'informations et sur un système de tarification qui a des effets pervers. Le plus surprenant, c'est qu'il existe un système nettement plus simple — et qui serait donc nettement plus facile et rapide à implémenter! — qui laisse chacun maître de ses décisions sans jugement moral. En passant par une taxe d'accise, grand classique de la fiscalité, on peut remplir un fonds qui peut servir divers buts: faire des chèques aux électeurs, rénover des logements, etc. Il faut aussi rappeler que si des gens sont dans la précarité énergétique, c'est que ce sont souvent des indigents: le remède qui marche le mieux contre le manque d'argent est encore de distribuer des subsides. La logique qui sous-tend cette proposition est aussi entachée d'un gros vice: elle exclut la source d'énergie dont il faudrait se débarrasser le plus vite, les dérivés du pétrole. Comme en plus, les montants de la surtaxe ne sont pas donnés par énergie — on a juste des bornes générales — il est difficile de savoir si le niveau de variation est vraiment judicieux: il est difficile de débattre d'un système de taxation sans savoir quel sera le montant de la taxe! Bref, on peut faire mieux, beaucoup mieux.

6 septembre 2012

Politique énergétique et réalités du réseau électrique

Chaque année RTE, filiale d'EDF et propriétaire du réseau haute tension, met à jour son bilan prévisionnel, dont l'édition 2012 vient d'être publiée sur son site web. Comme l'année dernière, et malgré la baisse de la consommation constatée, RTE prévoit toujours un risque accru et significatif de défaillance électrique. Malgré un ton factuel et diplomatique, il permet aussi de percevoir les incohérences de la politique énergétique française, caractéristique qui risque malheureusement d'empirer sous la présidence de François Hollande, du fait de promesses malvenues.

Le problème de l'approvisionnement électrique

Comme le signale le document (p89), l’apparition d’une puissance manquante à l’horizon de quatre à cinq ans est une constante des différentes éditions du Bilan Prévisionnel: personne ne souhaite investir trop puisque cela ferait perdre de l'argent. Cependant, la vague de froid de l'hiver dernier montre que ce genre d'exercice n'est pas vain. Cette vague de froid était supérieure en intensité à celle prévue dans le scénario qui ne prévoit que les évènements extrêmes à l'échelle d'une décennie. Au mois de février dernier, la pointe enregistrée a dépassé les valeurs prévues dans les scénarios de RTE, y compris ceux présentés dans ce document. Les importations ont été très élevées à certains moments, avec un maximum de 9GW le 9 février, proche du maximum possible.

Les causes de ce manque sont connues. La consommation d'électricité est toujours sur une pente de long terme croissante, malgré la rupture que constitue la crise et les mesures prises pour augmenter l'efficacité énergétique. En conséquence, RTE prévoit que la pointe "décennale" va continuer à augmenter pour dépasser les 100GW après 2014 dans le scénario central. Les pics de consommation électrique sont principalement déterminés par la température extérieure qui provoque un besoin de chauffage plus important: lors de la vague de froid de février, RTE estime que 40% de la puissance appelée était due au chauffage électrique (p35). L'essor du chauffage électrique est toutefois freiné en ce moment par la nouvelle réglementation thermique 2012: cette réglementation défavorise nettement le chauffage électrique hors pompes à chaleur, ce qui réduit notoirement la compétitivité de ce mode de chauffage à cause du coût de la pompe à chaleur. Mais les usages comme l'informatique sont toujours en très nette croissance, ce qui va pousser à la hausse la pointe totale. De l'autre côté, les baisses de demande sont surtout à prévoir en cas de crise économique: l'importance de l'industrie, notamment de l'industrie lourde, ne cesse de baisser à cause de la recherche constante d'efficacité et encore plus à cause de la crise qui a stoppé nombre d'usines. En tout, RTE prévoit une hausse lente des pointes dans tous les scénarios sauf celui qui prévoit une crise économique durable.

De l'autre côté l'offre voit se développer l'éolien et le solaire, mais disparaître les centrales à combustibles fossiles. Si le solaire ne contribue que faiblement aux besoins lors de la pointe, l'éolien a une contribution lors des épisodes froids. En général, lors des vagues de froid sur la France, l'anticyclone qui en est la cause n'est pas centré sur notre pays, ce qui fait que le vent souffle ... au moins un peu. Mais cette contribution est très variable comme on peut le voir ci dessous (graphe p72, que j'ai annoté) contrib_eolien.jpg Si on voit bien l'intermittence sur ce graphe, on ne voit aucune corrélation entre consommation et production. Entre les 2 jours de consommation maximale, on voit que la production éolienne varie du simple au double, en 24h. De plus, si on regarde le retour d'expérience de RTE sur la vague de froid, on s'aperçoit que les importations (p12) et le prix (p14) ont été maximaux le 9 février, juste au moment d'un trou de vent (p10). Si l'éolien apporte une contribution, elle est foncièrement aléatoire et ne remplace pas vraiment une centrale classique.

Les centrales classiques sont, elles, atteintes par la limite d'âge, en quelque sorte. Les directives européennes anti-pollution vont entraîner la fermeture de nombre de centrales au charbon — 3.6GW sur 6.8 — et au fioul — 4GW sur 5.3. Des centrales à cogénération vont fermer, les subventions se terminant. En face de cela, quelques centrales au gaz se sont confirmées, mais pas suffisamment pour compenser (p79). capa_fossile.jpg Comme en plus la crise a fait s'effondrer les prix des permis d'émission de CO₂, le charbon est redevenu très compétitif, ce qui ne va pas inciter à la construction de centrales au gaz. Les centrales à combustibles fossiles voient aussi leur rentabilité entamée par les énergies intermittentes comme l'éolien. Pour couronner le tout, RTE prévoit que la capacité d'importation sera limitée à 4GW, en grande partie pour la même raison: la mise à la retraite de centrales.

Au total, RTE prévoit un manque de puissance de 1.2GW pour remplir son objectif en 2016, en baisse par rapport à ce qui était prévu l'an dernier (2.7GW), en partie du fait de la conjoncture économique. Pour 2017, le manque est de 2.1GW. Évidemment, on peut songer que des travaux seront sans doute faits soit pour construire des turbines à gaz, soit pour rénover des centrales au fioul pour combler ce manque. Mais on ne peut s'empêcher de penser que fermer la centrale de Fessenheim (1.8GW) n'est sans doute pas la meilleure façon d'assurer l'approvisionnement en électricité de la France.

Les conséquences du développement des renouvelables

Un encart p17 livre des informations très intéressantes en liaison avec le développement des renouvelables. Tout d'abord, RTE nous dit que ce développement va coûter 1G€ pour raccorder l'éolien au sol et la même somme pour connecter 3GW d'éolien en mer. Comme l'éolien en mer est déjà horriblement cher, on ne peut que se demander si c'était une bonne idée que d'allouer des lots aux prix proposés.

RTE nous signale aussi le projet allemand d'expansion du réseau. Celui-ci demande la construction de 4400km de lignes THT, dont 1700km de lignes THT 400kV classiques et 2100km de lignes à courant continu. Le tout pour un coût de 20G€ sur les 10 prochaines années. Mais il y a un hic: construire une ligne THT demande 10 ans actuellement du fait des procédures et de l'opposition des sympathisants d'un certain parti politique. Pour ce qui concerne la France, RTE dit qu'adopter une politique diminuant la part du nucléaire nécessiterait de doubler les interconnections sur 20 ans, pour un coût de 7G€, sachant que la vitesse de construction actuelle est très insuffisante. Ces 20 dernières années n'ont vu la construction que d'environ 1/3 des capacités d'exports de la France et certains projets, comme l'interconnexion France-Espagne, ont suivi un chemin de croix.

Un autre encart p85 nous informe aussi des évolutions commerciales et technologiques dues aux renouvelables. C'est ainsi qu'en Allemagne, où le nucléaire remplissait une offre de base fixe au cours de la journée, les réacteurs ont été modifiés pour fonctionner comme en France: avec une possibilité de modulation pour faire face aux périodes de faible consommation. On y dit aussi que dans la plupart des pays européens, la principale contrainte nouvelle posée par le développement des énergies renouvelables est celle du surplus d'offre lorsque la production renouvelable est forte. Dit autrement, on ne sait pas quoi faire de cette électricité fatale à certains moments et elle dégrade la rentabilité des équipements qui assurent réellement la sécurité d'approvisionnement. On peut par exemple s'interroger sur l'opportunité de produire beaucoup d'électricité à midi en plein mois d'août lorsque la consommation en France est pratiquement au minimum de l'année et de la payer à un prix exorbitant, sachant qu'en plus tous les pays européens sont proches de leur maximum de production au même moment.

Les conséquences de la baisse à 50% de la part du nucléaire

RTE nous propose aussi un certain nombre de scénarios à long terme dont un prend en compte la projet de faire baisser à 50% la part du nucléaire dans la production d'électricité. Tout d'abord, p29, RTE nous montre qu'il y a une excellente corrélation entre croissance économique et évolution de la demande d'électricité. On s'aperçoit aussi p84 que la consommation d'électricité ne dépend finalement pas tellement du prix: les prix allemands sont maintenant 75% plus élevés qu'en France pour les particuliers, alors qu'ils étaient nettement plus proches en 2000, l'évolution de la consommation n'a pas du tout suivi le même chemin. Par contre, la dépression en Espagne a réduit la consommation d'électricité. Une conclusion s'impose: une baisse de la consommation d'électricité est provoquée par une baisse du niveau de vie.

Le graphe de la p146 permet de résumer les différents scénarios: mix_elec_fr_50pc.jpg On constate que quoiqu'en dise RTE, le «nouveau mix» laisse penser que le niveau de vie des Français serait alors proche d'une situation de crise prolongée, même si le solde exportateur absorbe une bonne part de la différence avec le scénario médian. Dans ces conditions, il n'est pas dit que l'idée de payer plus pour le réseau et les moyens de production pour une production très comparable à l'actuelle soit très populaire. Finalement, on paierait plus pour exactement la même chose! On remarque aussi, une fois de plus, que la barre noire représentant la production d'origine fossile est la plus épaisse dans ce scénario «nouveau mix». Et, évidemment, la consultation du résultat des simulations ne laisse aucun doute: ce scénario prévoit des émissions de 30Mt de CO₂ contre 24Mt dans le scénario «consommation forte» et 27Mt en 2011. De même, si jamais on s'avisait de respecter à la lettre le programme de François Hollande — qui proposait d'atteindre cette proportion en 2025, les émissions seraient de 40Mt. Cette hausse des émissions par rapport à l'année 2011 est due au besoin de faire fonctionner plus de centrales au gaz pour pallier l'intermittence de l'éolien et du solaire. Il est difficile de considérer cette issue comme souhaitable: on paierait donc plus cher pour autant d'électricité et plus d'émissions de CO₂ qu'aujourd'hui, sans compter les difficultés d'approvisionnement en gaz.

Pour conclure, on voit donc que la politique française en matière énergétique est face à certaines contradictions. Le modèle économique des installations à combustibles fossiles qui assurent réellement l'équilibre entre l'offre et la demande est durablement affecté par l'éolien et le solaire. Ces énergies sont plus chères mais bénéficient d'un traitement favorable sans aucune contrepartie en termes de disponibilité. Comme la production française d'électricité est déjà largement décarbonée, l'intérêt des renouvelables dans la production d'électricité est clairement douteux, mieux vaudrait investir ailleurs. On voit aussi que les pouvoirs publics ont concentré leurs moyens sur ces énergies, au lieu de s'attacher à la sécurité d'approvisionnement. Bien au contraire, les politiques proposent des mesures qui vont en sens contraire comme des fermetures de centrales nucléaires. Mais en plus, on s'aperçoit que remplacer le nucléaire par des renouvelables va aboutir à l'effet inverse de l'effet recherché: faire baisser les émissions de CO₂. L'idéologie est décidément mauvaise conseillère.

30 août 2012

Encourager l'épargne longue?

En juillet dernier, la Cour des Comptes a rendu un rapport intitulé L'État et le financement de l'économie, dont on peut retrouver l'essentiel dans la synthèse. Ce rapport fait suite à celui sur l'assurance-vie (synthèse) et il en reprend nombre de conclusions.

La Cour fait des remarques sur la situation des banques et des assurances. Il n'a échappé à personne que la crise financière avait entraîné des changements réglementaires et plus généralement dans le modèle de fonctionnement des banques. Les banques françaises prêtent plus qu'elles n'ont de dépôts: l'encours des prêts est supérieur de 10% environ aux dépôts (tableau n°12 p107). Les prêteurs sont devenus nettement plus frileux envers les banques qui ont donc plus de mal à se financer sur les marchés. Les dépôts sont aussi favorisés par les règlementations de Bâle III. Les banques sont encouragées à trouver des gens prêts à déposer de l'argent chez eux ou ... à diminuer leur encours de crédit. Du côté des assureurs, la directive Solvabilité II va pousser les assureurs à diminuer encore leurs encours en actions et plus généralement tout ce qui s'apparente à un placement peu liquide ou un apport de fonds propres à une entreprise (p103). Les assureurs ne devraient pas se précipiter pour financer les besoins en capitaux propres des entreprises mais plutôt se concentrer sur leur dette pourvu qu'elle soit négociable.

De leur côté, les Français affichent une préférence marquée pour l'immobilier qui représente les deux tiers du patrimoine des ménages (p73). Il est vrai que la hausse des prix de l'immobilier a pris une part notable à la croissance de la part de l'immobilier de ces 15 dernières années. Pour ce qui est du patrimoine financier, la préférence va à l'épargne sans risque, avec un biais vers des placements a priori peu liquides comme l'assurance-vie, comme le montre le tableau ci-dessous (originellement p67). repartition_risque.jpg La tendance est en défaveur des placements risqués: s'ils représentent un petit tiers du patrimoine, moins d'un sixième du flux d'épargne se dirige vers eux. Il faut dire que la faible performance des actions depuis l'an 2000 n'a sans doute pas encouragé les épargnants. Mais il y a une autre raison: les impôts. La Cour signale que la fiscalité encourage nettement l'épargne non risquée (p76-77). Ainsi, si 42% de l'épargne sans risque bénéficient d'un avantage fiscal, seuls 12% de l'épargne risquée en bénéficient. Ces avantages représentent 9G€ pour l'épargne non risquée contre 2.4G€ pour l'épargne risquée. Ces avantages pour l'épargne non risquée sont aussi accompagnés d'avantages pour la détention d'un bien immobilier: pas de taxe sur les plus-values sur la résidence principale, montages fiscaux divers (Robien, Scellier, etc.) et non imposition de l'économie que représentent le fait de ne pas avoir à payer de loyer. Dans le rapport sur l'assurance-vie, la Cour donne un tableau récapitulant les diverses modalités d'imposition des placements au 1er janvier 2012, les prélèvements sociaux sont depuis passés à 15.5%. Alors que l'imposition des revenus de l'épargne était limitée à 16% au début des années 90, les taux ont très sérieusement augmenté, d'abord sous l'effet des prélèvements sociaux puis sous l'effet du relèvement du taux du prélèvement forfaitaire. imposition_epargne.jpg

La Cour conclut que l'épargne est de moins en moins dirigée vers les entreprises, à cause des évolution réglementaires et de l'évolution des préférences d'épargne des Français. Un autre phénomène important se mêle à cela: depuis la crise financière, les taux des obligations d'état français sont au plus bas: 2% pour les obligations à 10 ans. Dans ces conditions, l'épargne réglementée est extrêmement compétitive: le Livret A rapporte 2.25% net et est parfaitement liquide. Le PEL peut même être plus compétitif que certains fonds en euros alors qu'il ne requiert de bloquer son épargne que 4 ans. Dans ces conditions, il n'est pas étonnant que le Livret A batte des records de collecte. Une conséquence de cette succession de collectes record est que les prêts accordés au titre du Livret A sont bien inférieurs aux fonds centralisés: il y a un excès de liquidités de 52G€ (p175). Il faut noter aussi que le Livret A est géré de telle sorte que les dépôts centralisés sont supérieurs aux prêts de 25% au minimum, contrairement à ce qui se passe dans les banques. Un report des dépôts bancaires vers le Livret A signifie donc moins de prêts accordés, globalement.

La Cour fait des propositions pour essayer de corriger cela et permettre d'orienter l'épargne vers le long terme. La première position qu'on peut remarquer est l'opposition franche à l'augmentation du plafond des livrets réglementés (p220). La Cour a demandé de soumettre aux prélèvements sociaux la partie des dépôts supérieure au plafond actuel et de procéder au relèvement du plafond par étapes. Le gouvernement s'est largement assis sur ces recommandations et a décidé de procéder à un relèvement rapide du plafond. On comprend bien pourquoi le gouvernement n'a pas soumis à imposition les livrets réglementés: cela aurait été massivement impopulaire. Les autres propositions principales concernent l'assurance-vie et sont directement reprises du rapport thématique qui est consacré à la question. La Cour propose en fait d'allonger encore l'obligation de détention et de changer le mode décompte en considérant l'historique des dépôts. Ça correspond donc à un alourdissement des conditions fiscales: sans action sur les livrets réglementés, cela ne fera qu'amplifier la fuite déjà apparente vers le livret A.

Ces recommandations me paraissent donc soit demander une certaine témérité politique — pour la taxation des livrets réglementés — soit être carrément contreproductives — spécialement dans un contexte de taux extrêmement bas. Les recommandations formulées, il y a maintenant 3 ans, par Olivier Garnier & David Thesmar dans un rapport au Conseil d'analyse économique, étaient nettement meilleures: si on voulait favoriser l'épargne longue et risquée, il fallait arrêter de subventionner l'épargne sans risque & liquide, mettre tout le monde au même régime, sauf engagements de détention à long terme. À défaut, ils proposaient qu'on ne touche à rien plutôt que d'empiler encore d'autres mesures à l'utilité douteuse. Ces mesures ne sont pas tellement plus réalistes — à cause de la taxation des livret réglementés — mais elles ont au moins une chance d'atteindre leur but!

Au vu de l'état des finances publiques, il est douteux que des allègements d'impôts puissent être actés. Vue l'idéologie du PS et de la classe politique française en général, qui tient un discours massivement anti-détention d'actions et est massivement constituée de propriétaires fonciers, il est tout à fait illusoire de voir aligner la taxation des livrets réglementés sur la taxation des placement plus risqués. On s'achemine plutôt vers la continuation de la hausse inexorable des prélèvements sociaux et un relèvement de la taxation au titre de l'IRPP. Comme dans le même temps les rendements des fonds en euros va continuer à décroître, on peut parier que l'épargne des français se dirigera vers les placements les plus liquides et détaxés. Le gouvernement va encourager cette tendance pour financer sa banque publique d'investissement. Le placement immobilier continuera à avoir un certain succès, malgré le risque: il bénéficie lui aussi d'une fiscalité favorable, tant dans la détention que pour les travaux qui permettent de faire des économies. Dans ces conditions, l'épargne financière à long terme n'augmentera sans doute pas. Avec les annonces récentes sur la fiscalité des carburants, on voit que le gouvernement est plus empressé de respecter ses promesses de campagne les plus démagogiques que d'adopter des discours et des solutions raisonnables.

3 août 2012

Débattre sans a priori

Dans le rapport de la commission sur le coût de l'électricité, l'auteur du rapport proclame son attachement à un débat sans a priori sur la question du nucléaire et d'en étudier tous les aspects. Bizarrement, ce chapitre se limite aux questions de vieillissement du parc, des déchets radioactifs, des risques d'accidents et de leurs coûts. Tout aussi curieusement, le stockage d'énergie par électrolyse de l'eau n'envisage comme source d'énergie que les renouvelables intermittents.

Toujours dans un esprit ouvert, on nous présente 3 scénarios de production électrique qu'on peut résumer grâce aux 3 graphes servant à les présenter. Scénario Sobriété Scénario Intermédiaire Scénario nucléaire Le premier scénario, dit «sobriété», propose de sortir du nucléaire le plus rapidement possible en se reposant pour une bonne part sur les énergies renouvelables intermittentes, solaire et surtout éolien. Le scénario «intermédiaire» propose une division par 2 de la production nucléaire à horizon 2050. Le troisième, dit «nucléaire nouvelle génération», propose d'augmenter légèrement la production nucléaire au niveau actuel et d'augmenter la production totale d'électricité de 150TWh — soit environ 25% de la production actuelle.

On s'aperçoit donc que l'auteur n'envisage pas que la production nucléaire augmente encore beaucoup, ni même une forte augmentation de la production d'électricité provenant de sources décarbonées. Pourtant, le bilan énergétique de la France pour 2010 montre qu'on a consommé pour 1500TWh de combustibles fossiles en 2010 (p34). Comme il faut diviser cette consommation par un facteur 4 au moins pour cause de réchauffement climatique, remplacer une part substantielle des énergies fossiles par des sources non carbonées est sans doute une nécessité. Or, les sources dont on peut augmenter la production permettent principalement de produire de l'électricité. Certes, aucun scénario précis n'a peut-être été présenté par un des intervenants, mais au moins un, Jean-Marc Jancovici, était favorable à une telle issue.

Dans ce cadre, les 2 autres scénarios paraissent extraordinairement restrictifs puisqu'ils feraient a priori porter tout le poids de la sortie des énergies fossiles sur des économies d'énergie auxquelles ils rajoutent la nécessité de se priver d'une part au moins de l'énergie nucléaire actuellement disponible. Le premier scénario est aussi très surprenant. Il est dit dans le texte qu'il faudrait compter sur un développement important du stockage: des ressources importantes devraient être consacrées à la recherche et à la mise en oeuvre d'infrastructures de stockage d'énergie. Or le développement sur l'électrolyse de l'eau ne laisse envisager qu'un rendement extrêmement faible, inférieur à 35% ce qui grèverait fortement l'intérêt du stockage dans un tel scénario où l'énergie serait sérieusement rationnée. On ne voit pas aussi quelle importance aurait le stockage d'énergie sur le graphique. L'aspect stockage est aussi ignoré quand il s'agit de passer au chiffrage des coûts.

Un autre point attire l'attention: en regardant bien, ce premier scénario est celui où la production d'origine fossile est la plus importante. Dans le texte, on dit aussi que ce scénario suppose la construction de nouveaux équipements de production d'électricité à partir de sources d'énergie renouvelable mais aussi très probablement, du moins tant que les technologies de stockage ne sont pas matures, de centrales à gaz. Il s'agit d'une part de compenser l'intermittence des sources d'énergie renouvelable, d'autre part de fournir une électricité de complément si le rythme de développement de celles-ci n'est pas suffisant. Dit autrement, cela ne pose pas vraiment de problème aux tenants de ce scénario que les émissions de CO₂ ne soient pas minimisées. En clair, le problème du réchauffement climatique est moins important que le risque pris avec le nucléaire. C'est une position étonnante, puisque le stockage de l'énergie peut remplir exactement les fonctions que remplissent actuellement, en France, les combustibles fossiles dans la production d'électricité: faire face aux périodes de forte consommation et aux inattendus. Ce scénario devrait donc être celui de la vertu énergétique, celui où les combustibles fossiles sont totalement éliminés.

On ne surprendra personne en disant que, dans sa conclusion , le rapporteur Vert de la commission annonce que ce premier scénario a sa préférence. On peut donc en déduire les priorités qu'ont les Verts: sortir du nucléaire est plus important qu'éviter le réchauffement climatique, pourtant considéré comme porteur de bouleversements considérables de la nature par le consensus scientifique. Vraiment, pour débattre du nucléaire ou, plus exactement, de sa sortie, il ne faut avoir aucun a priori ni aucun tabou.

1 août 2012

Leçon d'enfumage

La commission sur le coût de l'électricité a rendu un rapport qui a été à juste titre dénoncé comme relevant de la pure idéologie écologiste ailleurs. Mais leur argument massue, que le consommateur français paie plus au total pour son électricité que ses voisins malgré des prix bas, est basé sur un tableau très probablement faux.

Le rapport consacre en effet un développement aux prix de l'électricité en Europe. Il commence par constater que le prix de l'électricité est bien moins élevé en France que partout ailleurs en Europe de l'Ouest. Il faut aller chercher la Grèce, la Finlande ou les pays de l'est pour trouver des prix équivalents. Avec un coût d'un peu plus de 140€/MWh à fin 2011 pour les particuliers, les prix français sont très compétitifs et n'ont pas suivi la hausse des prix causée par le choc pétrolier d'après 2004 comme ailleurs en Europe.

Mais cela n'arrête pas l'auteur, qui nous donne ensuite à voir le tableau suivant: Tableau des dépenses énergétiques avec données fausses On constate que selon ce tableau les ménages français ont la facture d'électricité la plus élevée d'Europe et une facture totale énergétique en ligne avec celle des pays du nord de l'Europe pourtant moins bien lotis du point de vue du climat.

Mais ce tableau est trompeur pour deux raisons au moins. La première, c'est que les données du tableau source d'Eurostat sont exprimées en parité de pouvoir d'achat. C'est sans doute mineur, mais avoir recopié directement ces données puis avoir confondu euros nominaux et parité de pouvoir d'achat n'augure rien de bon. La deuxième, c'est que depuis 2005, les prix des énergies fossiles, celles qui complètent le budget ont subi une forte augmentation des prix. En 2005, le prix moyen du baril de Brent était d'environ 60$, en 2010 de 80$, en 2011 de 100$. L'impact sur les prix du gaz et du fioul sont certains, il doit donc aussi y avoir un impact sur la facture finale.

Ce tableau a aussi — et c'est le vrai problème — toutes les chances d'être faux. On peut s'en rendre compte en partie dès le tableau suivant. Ce tableau-là donne le résultat des calculs de Global Chance, en se basant sur les prix du premier semestre 2011. Et là, surprise: la facture annuelle par ménage n'est plus que de 670€/an environ, en comptant 2 personnes par ménage. Le passage des euros nominaux aux parités de pouvoir d'achat ne peut expliquer une telle différence. On constate aussi que la facture d'un ménage allemand est aussi nettement plus élevée que celle d'un ménage français, contrairement à ce que laissait penser le tableau précédent.

Pour essayer de savoir si cette suspicion est justifiée, on peut se reporter à l'enquête de l'INSEE sur la consommation des ménages. À l'aide des tableaux proposés, on peut calculer que la facture moyenne d'électricité était d'environ 662€ par ménage en 2005. Un nouvelle fois, c'est bien loin des 852€ proclamés par le tableau devant donner les dépenses de consommation par énergie. La même source montre que les dépenses annuelles d'énergie dans les logements — le tableau d'Eurostat ne compte que cela — sont probablement inférieures à 1200€ par ménage: la somme du gaz, de l'électricité et du fioul donne environ 1175€.

On peut aussi procéder à partir des données d'Eurostat. On peut y trouver les données de population, de taille des ménages, une base de données sur l'énergie avec les consommations énergétiques classées par types, un prix typique pour le gaz et l'électricité. La commission fournit les prix du fioul. On trouve alors les résultats suivants, sachant que la précision n'est pas excellente du fait du mode de calcul. Dépenses énergies pour les logements en 2005 Dépenses énergies pour les logements en 2010 On peut voir que loin d'avoir la facture globale par habitant la plus élevée, la France se place plutôt bien. On remarque aussi que la hausse de la facture a été limitée par rapport à d'autres pays car les prix de l'électricité ne sont pas, en France, indexés sur les cours du pétrole.

Tout ceci ne serait pas très important si les opposants au nucléaire ne faisaient pas de l'argument de la facture totale un argument bizarre: que la forte consommation d'électricité, causée par des prix bas, fasse que la facture totale soit en fait relativement élevée. C'est un argument bizarre car il fait l'impasse sur les investissements qu'il faut faire pour moins consommer mais atteindre un même résultat: ces investissements sont notoirement inutiles financièrement lorsque les prix de l'énergie sont bas. Mais même en regardant la facture globale, on constate que la France est plutôt bien lotie. La cause, en fait, est bien connue: les logements chauffés à l'électricité le sont de façon efficace, à cause justement du prix élevé de l'électricité par rapport au gaz et au fioul; pour le reste, les gains d'efficacité ne sont souvent pas extraordinaires à prestation égale, ce qui fait que la demande d'électricité ne dépend pas beaucoup de son prix. Bref, l'argument de la facture totale relève de l'enfumage total de la part des anti-nucléaires.

7 juillet 2012

L'échec de la concurrence dans le domaine énergétique

Il y a quelques jours Le Monde publiait un article qui revenait sur le peu de succès des opérateurs alternatifs aux monopoles de fait dans la fourniture du gaz et de l'électricité, GDF et EDF. On peut retirer de l'article qu'aller voir la concurrence représente en fait peu d'intérêt — à peine quelques pourcents sur la facture dans le meilleur des cas — à cause de la prééminence de coûts régulés encore forts présents et de la compétitivité de l'électricité nucléaire. Les perspectives d'avenir tracées à la fin semblent considérer que cet état de fait va durer à moins qu'une tarte à la crème prenne subitement de l'importance: que des clients paient pour être au service des producteurs pour recevoir des conseils sur comment mieux consommer.

Il me semble qu'il est important de revenir sur les raisons probables de cet échec et de le comparer avec le succès de l'ouverture à la concurrence des télécoms.

Les raisons du succès de la concurrence dans les télécoms

Au début des années 90, l'UE a décidé d'ouvrir les marchés des télécoms à la concurrence. Dans un premier temps, cela a concerné les minutes de communication. On pouvait alors choisir un opérateur qui facturerait moins cher les minutes de communication. Cela reposait en fait, au départ, sur la capacité des opérateurs alternatifs à acheter en gros les minutes de communication puis de les revendre au détail, sans être encombré par les dépenses de personnel de France Télécom. La liberté de tarification de France Télécom sur le marché de gros était réduite de façon à ce que les concurrents puissent s'installer, un peu à la manière dont comptent agir les autorités communautaires sur le marché de l'énergie. Mais, moins de 20 ans plus tard, cet aspect est marginal sur le marché des télécoms: le véritable succès vient d'ailleurs, de profonds changements technologiques.

Le premier changement qu'on peut nommer est l'arrivée à maturité des technologie de transport de l'information par fibre optique. Au début des années 90, ce n'était pas vraiment une nouveauté, le principe était connu depuis 20 ans, mais les progrès ont été si rapides, tant dans les matériaux que dans les techniques de modulation et de multiplexage, que le coût de transport de l'information est devenu nettement plus intéressant. Les fibres sont maintenant incomparablement transparentes, il faut faire parcourir de l'ordre de 15 à 20km pour que le signal perde la moitié de son intensité. Les techniques de modulation ont permis d'augmenter le débit sur un seul canal, les techniques de multiplexage ont permis de multiplier les canaux sur une seule fibre. Il est aussi relativement facile de déployer un réseau de fibre optique: on peut suivre des axes déjà bâtis comme les autoroutes, les voies de chemin de fer; il n'y a pas de grands travaux de BTP à mener, il s'agit en général d'une simple tranchée à creuser sur le bas-côté avec des guitounes pour réamplifier le signal de loin en loin. On peut aussi installer les lasers nécessaires au fonctionnement des canaux au fur et à mesure des besoins, ce qui limite le coût d'investissement initial. Il n'y a aussi aucune opposition au déploiement de ce réseau vu sa faible empreinte. Bref, il est devenu possible de transporter de grandes quantités d'informations sur grandes distances, à un coût raisonnable, sans grandes difficultés d'installation. Cela a permis à de nouveaux entrants de construire leur propre réseau qu'ils ont pu rentabiliser en quelques années.

Le deuxième changement est l'arrivée de l'ADSL. Cette technologie permet d'utiliser le réseau existant pour faire passer nettement plus d'information. Ce réseau étant déjà largement amorti et régulé pour la phase téléphonie classique, cette technologie est peu coûteuse. Le plus dur est d'arriver à ce que des firmes autres que le monopole aient accès au répartiteur pour y installer leurs équipements. Le développement concomitant d'Internet permet d'avoir une demande pour ce type de technologie: finalement, les clients sont prêts à payer plus pour un nouveau service. Les nouveaux arrivants peuvent aussi proposer des services combinés avec Internet, téléphone illimité & télévision: de toute façon le coût marginal de l'octet échangé est pratiquement nul, il s'agit surtout de convaincre les clients de payer les coûts d'investissement dans un premier temps.

Le troisième changement est la téléphonie mobile. Avec la téléphonie mobile, plus besoin de construire un réseau filaire local puisqu'on utilise des bornes radio. Ça permet d'introduire de la concurrence parce qu'installer des bornes radio est moins cher que de construire ce réseau local. Le réseau à longue distance est, lui, construit grâce à la fibre optique. Une nouvelle fois, on apporte un service supplémentaire aux clients, qui sont prêts à payer pour. Les téléphones portables sont devenus des objets communs sans qu'on ait forcé qui que ce soit. Avec les offres à 2€/mois, les offres mobiles sont devenues bien plus compétitives que les offres filaires si on veut «juste» téléphoner. Installer des bornes téléphoniques est devenu un peu plus compliqué dernièrement à cause d'hurluberlus, mais ils ont arrivés trop tard pour empêcher le décollage d'une invention qui est indéniablement profitable à la société.

Au final, la libéralisation des télécoms a été un succès grâce à l'apparition de nouveaux services rendus possibles par des changements technologiques. Cela ne veut pas dire que les sociétés ne formeront pas des oligopoles peu concurrentiels à l'avenir — comme le montre l'exemple de la téléphonie mobile avant l'arrivée de Free ou l'ADSL ailleurs qu'en France — mais qu'en phase de changement technologique, la concurrence peut accélérer les choses et répandre des technologies de façon très rapide. Mais ça ne marche bien que si les clients sont prêts à payer pour ces fameux services supplémentaires. On peut aussi voir que la question des tarifs du téléphone a presque disparu de l'agenda récurrent des politiques: personne ne hurle contre les hausses de tarifs, on constate plutôt des baisses de prix à service constant sous la pression du changement technologique. La demande pour les nouveaux services suffit à rentabiliser rapidement les investissements comme le montre le cas de Free, l'intervention publique est relativement limitée et souvent très technique.

Le cas de l'énergie

Les cas du gaz et de l'électricité sont très différents.

Le gaz est un type d'énergie dont on aimerait se passer pour cause de manque de ressources et d'ennuis climatiques. On n'attend pas non plus de rupture technologique dans le transport du gaz. Investir dans le réseau n'est donc pas forcément très intéressant. Il y a par contre des nouveautés dans la production, avec les gaz non conventionnels qui pourraient résoudre les problèmes d'approvisionnement ... mais aggraver le problème du réchauffement climatique s'ils ne font que s'ajouter aux ressources existantes. Une certaine opposition est aussi apparue contre ce mode de production. L'extension du réseau d'électricité, notamment à haute tension, rencontre une opposition intense de la part de ceux qui habitent à proximité. Impossible donc d'étendre ce réseau sans planification ni implication forte de l'état. Là non plus pas vraiment de rupture technologique en vue: les supraconducteurs ne sont pas spécialement bon marché. Contrairement aux télécoms, il n'y a pas à attendre grand chose de ce côté. La distribution de gaz et d'électricité reste pour l'essentiel et pour le futur prévisible un monopole naturel. C'est d'ailleurs pensé comme tel: les réseaux de transport de gaz et d'électricité sont considérés comme des monopoles naturels à réguler séparément du reste. Pour ce qui est des réseaux locaux, ils sont vus comme les réseaux d'adduction d'eau: des réseaux à concéder — ou pas — qui ne sont rien d'autre qu'une juxtaposition de monopole naturels locaux.

Les fournisseurs finaux pourraient penser procéder comme pour les minutes de téléphone: acheter en gros et vendre au détail, en voulant profiter de moindres frais d'organisation pour être plus compétitif que le monopole naturel. Malheureusement, cette voie est aussi largement barrée: alors que le coût marginal d'une minute de téléphone est très proche de 0, ce n'est pas le cas du m³ de gaz ou, en général, du kWh d'électricité. Les gains d'échelle sont donc fondamentalement limités. On se retrouve rapidement à devoir demander l'intervention de l'état, face à laquelle le monopole en place peut montrer que ses coûts marginaux sont bien réels. On se retrouve au bout du compte avec une tarification qui ressemble plus ou moins à ce qui présidait avant avec la facturation des coûts moyens. Ce n'est donc pas un hasard si on a vu apparaître l'ARENH, prix et conditions diverses fixés par l'état pour l'électricité nucléaire qu'EDF doit vendre à ses concurrents.

L'autre voie serait de vendre des services supplémentaires. Mais on voit mal quels services nouveaux sont permis par la fourniture d'électricité et vraiment demandés par les clients. On parle beaucoup des smart grids dans ce domaine. Cependant les fournisseurs finaux n'installeront sans doute pas les nouveaux compteurs: il faut s'assurer de la compatibilité mutuelle des équipements et les temps d'amortissement sont plutôt comparables avec des activités de réseau. Ils se contenteront donc des services. Ils proposeraient aux clients de moins consommer: on voit mal ce qu'ils apporteraient de plus que les services d'un architecte ou d'un artisan faisant des travaux chez soi. On voit aussi mal comment ils se rémunèreraient différemment d'un architecte dans ce cas: après les travaux, les volumes vendus diminueraient. Pour le gaz, c'est le service qui semble possible, vu que la diminution de la consommation est l'objectif officiel. Pour l'électricité, les choses sont un peu différentes: là, les smart grids prennent un tour plus orwellien. Il s'agirait de déplacer la consommation pour éviter les pointes ou carrément pallier aux insuffisances de production, qui sont plus ou moins regroupées sous l'appellation consommer mieux. On se doute que s'il s'agit de ne pas pouvoir regarder le match de foot sur son écran plat, le client risque de ne pas être convaincu par l'amélioration. Il faut donc disposer de consommation qu'on peut déplacer et actuellement, il s'agit essentiellement du ... chauffage électrique. Ce point est d'ailleurs parfois pris en compte par certains scénarios "100% renouvelables". C'est aussi l'idée qui fonde le tarif heures pleines - heures creuses en France. On note toutefois une certaine différence entre les désirs des promoteurs du consommer mieux et la réalité que semble devoir impliquer le concept. Étant donné l'opposition au chauffage électrique dans certains milieux politiques et la faisabilité du reste, il me semble que cette idée de vendre des services supplémentaires soit vouée à rester d'une ampleur limitée.

Si on veut une concurrence dans le domaine de l'énergie, la question des prix de production — donc des moyens — semble donc incontournable.

La vexante question des prix et des coûts de production

Lorsqu'on se tourne vers la question de la production, on s'aperçoit qu'en fait, sur ce sujet, il n'y a jamais eu de monopole légal de la production tant de gaz que d'électricité. La seule production significative de gaz sur le territoire français a été le gaz de Lacq. La conséquence a été que dans le Sud-Ouest, le réseau de distribution de gaz est organisé autour de l'ancien gisement et toujours détenu par l'exploitant de celui-ci, Total, qui l'a hérité d'Elf. Ce gisement ne suffisant pas à satisfaire les besoins français, on a procédé à des importations. De toute façon, le gaz étant une énergie régionale et substituable au pétrole, les prix de la matière première sont déterminés sur les marchés internationaux. Et pour l'Europe, la tendance semble être à la hausse des prix. En effet, l'exploitation des gisements de la Mer du Nord décline, actuellement lentement, mais ce déclin s'accélèrera après 2020-2025. La Russie a déjà du mal à fournir toutes les quantités demandées. Faire venir du gaz par méthanier coûte relativement cher à cause du processus de liquéfaction qui est gourmand en énergie. Enfin, le gouvernement français a interdit — pour l'instant du moins — d'exploiter d'éventuels gisements de gaz de schiste. Face à cette contrainte sur les volumes à consommer, la demande ne faiblit pourtant pas, le gaz étant de plus en plus employé à la place du charbon pour produire de l'électricité car il pollue moins et s'adapte mieux au contexte réglementaire et politique européen. Le gaz est aussi de plus en plus demandé dans les pays d'Asie. Le prix de l'énergie étant un sujet majeur de la politique, les différents gouvernements s'acharnent à ignorer ces réalités et cherchent à bloquer les prix, sans égards pour les conséquences. Dans ce contexte, on voit mal comment pourrait se développer la concurrence: l'ancien monopole est forcé de proposer des tarifs inférieurs aux prix qu'imposeraient les marchés internationaux. Pourquoi quitter le fournisseur qui propose les prix les plus bas et sera le dernier à augmenter ses tarifs?

Pour ce qui est de l'électricité, de même, il n'y a jamais eu de monopole de production. L'exemple le plus frappant est celui de la Compagnie Nationale du Rhône qui a échappé à la nationalisation après la Libération. Ainsi en est-il aussi d'autres barrages. Reste qu'EDF pouvait connecter les centrales un peu comme bon lui semblait, mais avec l'ouverture à la concurrence, les risques de discrimination ont disparu. Aujourd'hui, le problème vient qu'à peu près tous les moyens neufs de production ont un coût moyen du kWh produit supérieur aux prix du marché: personne n'a donc vraiment envie d'en construire sans subvention, ou qui conduit ceux qui s'y sont risqués à la faillite. Ce problème est amplifié en France par l'importance du parc nucléaire: comme le prix de l'électricité nucléaire ne dépend que marginalement du prix du minerai, les prix de vente aux particuliers, fixés par l'état, ont faiblement varié par rapport à d'autres pays comme le montrent les graphes ci-dessous. prix_elec_ttc.jpg prix_elec_ht.jpg Les prix hors taxes reflètent le plus fidèlement les prix du parc déjà installé au début des années 2000: on voit qu'EDF échappe à la hausse généralisée à partir de 2005 du fait de sa faible dépendance aux combustibles fossiles. Comme c'était rappelé dans l'article du Monde, les autres producteurs ne peuvent pas rivaliser avec le parc nucléaire. Ce n'est pas seulement dû à l'amortissement du parc, mais aussi au fait que tous les concurrents commenceraient par construire des centrales demandant des investissements moindres: difficile pour un nouvel arrivant de dépenser plusieurs milliards d'euros avant de se constituer une clientèle.

Cette importance des investissements dans l'industrie électrique se retrouve aussi dans le modèle imposé par la Commission. Pour empêcher que le monopole en place n'interdise l'entrée de concurrents, elle a poussé pour que la facturation de la production d'électricité se fasse en fonction du prix spot et a entravé les contrats à long terme. Dans le cas contraire, il aurait suffi à EDF de faire signer des contrats à long terme aux industriels pour enlever tout espoir de développement à la concurrence. De ce fait, pour minimiser les risques, le mode de production privilégié sera celui qui nécessitera le moins de nouveaux investissements et dont le coût marginal sera donc proche du coût total. Cela permet de passer assez facilement les hausses de tarifs aux clients — puisque le coût marginal se reflète dans le prix spot — et d'éviter les risques de pertes en capital. Cet état de fait est très bien expliqué dans ce papier de William Nuttal. Le seul point qui peut perturber cet attrait du gaz est qu'il y a besoin d'une corrélation entre le prix du gaz et de l'électricité, qui a tendance à disparaître lorsque le parc nucléaire est important. Une autre conséquence de la libéralisation est la faible planification pour remplacer les moyens de production existant et leur utilisation maximale: investir représente un risque conséquent et un coût à faire assumer par les clients. Et après de longues années, quand vient le temps de remplacer de vieilles centrales, par peur du black out, on voit le gouvernement anglais changer quelque peu de position.

À la suite du contre-choc pétrolier et la mise en exploitation du gaz de la Mer du Nord, le gaz est devenu très compétitif au Royaume-Uni, d'autant que les sources locales de charbon se sont taries. Tant ce prix intéressant que les faibles besoins en investissements ont fait que le Royaume-Uni tire aujourd'hui presque 50% de son électricité de turbines à gaz à la suite de la libéralisation du secteur de l'électricité. À la fin des années 90 et du début des années 2000, les spécialistes du gaz expliquaient que les CCGTs étaient la moins chère des façons de produire de l'électricité, ce qu'on peut voir sur les graphes de prix: les pays spécialisés dans le gaz ont les prix HT les plus bas au début des années 2000. On comprend bien alors le bénéfice que voyait la Commission à libéraliser le secteur: on pouvait voir là une source de baisse de prix. Depuis, les choses ont quelque peu changé et, même s'il en émet moins que le charbon à énergie égale, les émissions de CO₂ dues à la combustion du gaz le rendent indésirable à terme. Le méchant monopole EDF a donc vu le choix du nucléaire dans les années 70 payer de nouveau quand sont réapparues, après 2005, des circonstances similaires au choc pétrolier ayant présidé à ce choix.

En plus de cela, les prix TTC montrent que l'action des états n'est pas neutre non plus: certains états affichent une forte différence entre les prix HT et TTC, notamment l'Allemagne. On aura reconnu les pays qui se sont lancé dans une politique de productions renouvelables. Comme elles sont fort chères et que leurs production ne sont pas corrélées à la demande et très intermittentes, personne ne les construirait sans subventions. Le mode de subvention choisi est la vente à un prix garanti. Aucune concurrence n'est donc possible: tous les producteurs vendent à ce prix garanti, l'état lève la même taxe sur tous les particuliers quelque soient les fournisseurs finaux. Ces modes de production partagent avec le nucléaire le fait d'être des industries à coûts fixes qui se prêtent très bien aux contrats à long terme ou aux tarifs régulés, des modes de rémunération plutôt centrés sur le coût moyen que le coût marginal. Et c'est pourquoi, en Allemagne, des voix se font entendre pour que les règles changent et que la Commission change de position sur la question de la tarification pour favoriser les renouvelables.

Quelques conclusions

Le projet de libéralisation de l'énergie reposait au fond sur une situation de fait qui a depuis changé: le faible prix des combustibles fossiles et notamment du gaz. Mais comme l'approvisionnement en gaz se fait plus incertain et que les préoccupations climatiques occupent, au moins officiellement, le devant de la scène, l'intérêt est devenu clairement douteux. À ce moment, dans les années 90, la technologie de la turbine à gaz semblait devoir s'imposer définitivement et elle est très adaptée à un marché libéralisé: faible investissement, coût dirigé par le prix du combustible.

Malheureusement, le fait que le prix de l'énergie soit un sujet récurrent du débat public empêche, au moins en France, de suivre les soubresauts du prix du gaz imposés par les marchés financiers. Aucun concurrent ne peut s'implanter: l'ancien monopole est forcé de mener une politique de prix bas, voire de vendre à perte en période de forte hausse. Pour ce qui est de l'électricité, on comprend bien que dès lors que le nucléaire, et surtout les centrales de Génération II déjà construites, devient extrêmement compétitif, seuls les moyens subventionnés sont construits. On voit donc mal sur quoi se jouerait la concurrence et on voit même des industriels demander à payer pour assurer l'avenir du nucléaire et se protéger contre la prévisible hausse des prix. Autrement dit, les évolutions du prix des combustibles fossiles ont fait redevenir la production d'électricité ce qu'elle fut dans les années 70: une activité qui ressemble énormément à un monopole naturel.

25 juin 2012

Évolution prévisible des effectifs de l'état

Dans son programme, François Hollande a annoncé qu'il créera 60000 emplois dans l'Éducation Nationale ainsi que 5000 dans la police, la gendarmerie et la justice. Mais dans le même temps, il a annoncé que le nombre de fonctionnaire resterait stable. Maintenant que les législatives sont passées, les projets du gouvernement commencent à prendre forme et à fuiter, ce qui amène des articles sur la manière de concilier ces deux objectifs. Il serait donc question qu'en dehors des ministères où on embaucherait, il faudrait ne pas remplacer 2 fonctionnaires sur 3 partant en retraite.

Comme les lois de finances incluent toujours un état des effectifs et des plafonds d'emplois ventilés par missions, on peut essayer de savoir si l'ordre de grandeur est le bon. Dans le rapport sur la loi de finances pour 2012, on trouve un développement consacré à la politique du précédent gouvernement, le non remplacement d'un départ sur deux pour tous les ministères ou presque. On y lit qu'à périmètre constant, le plafond global descendra d'environ 30500 équivalent temps pleins: par rapport au graphe de l'article du Figaro, on voit que déjà les effets des départs à la retraites diminuent, ce qui n'est déjà pas de très bon augure.

On y trouve aussi un tableau détaillant les plafonds d'emplois par mission. Il permet d'avoir une idée de la répartition des effectifs, elle est représentée ci-dessous: Répartition des effectifs de l'état en 2012 On voit donc que les ministères qui vont embaucher représentent déjà les 2/3 des effectifs de l'état. Si on fait l'hypothèse que le nombre de départs à la retraite sera constant chaque année et que le taux d'érosion pour les ministères qui subiront les coupes est le taux d'érosion global, on arrive à une estimation de 100k départs à la retraite dans les 5 ans à venir pour lesquels on peut faire jouer la politique de non-remplacement. Comme il va y avoir 65k embauches par ailleurs, il faudra donc ne pas remplacer 2 départs sur 3. En plus, le nombre de départs tend à baisser!

On peut se dire aussi que les ministères où on embauchera ont des fonctions de support, des gens qui ne sont pas présents directement au contact du public et qu'on peut alors traiter ces fonctions d'arrière-boutique de la même façon que les ministères non favorisés. On ne connaît pas pour la police et la gendarmerie les effectifs employés à de telles tâches. Par contre, on le sait pour l'éducation nationale et la justice; le total se monte à environ 26k emplois. Mais de l'autre côté, il y a des mission qui échapperont sans doute à la règle commune: l'enseignement supérieur et la mission qui regroupe la Cour des Comptes et le Conseil d'État. On trouve là un peu moins de 27k emplois. Les deux se compensent donc.

Interrogé sur le sujet à Rio en marge d'un sommet dont il n'est rien sorti, comme prévu, le Président de la République, François Hollande, a jugé que l'hypothèse du non remplacement de 2 fonctionnaires sur 3 pour les missions hors éducation, justice et police était invraisemblable et que si c'était le cas, (il) en aurai(t) été informé tout de même. Le lendemain matin, Michel Sapin confirmait à demi-mot. On ne dit visiblement pas tout à François Hollande. Et vue la difficulté qu'a eue le précédent gouvernement pour tenir le non-remplacement d'un départ sur deux, on peut parier que ce gouvernement n'aura pas la tâche facile et que l'issue la plus probable est l'échec sur ce plan.

15 juin 2012

Le diesel cause-t-il 42000 morts en France chaque année?

Nota bene: ce billet connait une suite depuis mars 2013.

Depuis quelques temps circule l'idée selon laquelle le diesel ferait 42000 morts par an en France. On en retrouve la trace par exemple dans cet article de l'Express ou cet autre du Parisien. Tout cela accompagne la publication d'une nouvelle monographie du CIRC confirmant le caractère cancérogène des gaz d'échappements des moteurs diesel: ils provoquent des cancers du poumon.

En fait, la véritable estimation semble être que ce sont les émissions de particules fines — de moins de 10µm — dans leur ensemble qui sont à l'origine des 42000 morts. C'est ce qu'on comprend à la lecture de cet article du Figaro. L'indispensable site du CITEPA fournit des données sur les émissions de particules, ventilées par secteurs responsables. On trouve dans le rapport de 2012 ce graphe: Émissions de particules de moins de 2.5µm en France On s'aperçoit que les transports routiers ne sont responsables que de 19% des émissions de particules, derrière par exemple le chauffage des bâtiments — à cause du fioul et du bois — avec 39%. On peut en déduire que le diesel ne peut être impliqué que pour environ 8000 morts, soit 5 fois moins que ce donne à penser la presse.

L'autre question est de savoir si l'estimation de 42000 morts pour l'ensemble des émissions de particules fines est crédible. On peut commencer par consulter le site de l'OMS qui nous offre une superbe carte de la mortalité due à la pollution de l'air extérieur. On y voit que l'estimation est de 7500 morts pour l'année 2008, réparti entre un quart de cancers du poumon et le reste sur les autres maladies non infectieuses. Les particules fines constituant un sous-ensemble de la pollution atmosphérique, le nombre de morts causé par les particules devrait logiquement être inférieur. On peut aussi constater qu'en France, on constate 550k décès par an environ: 42k morts, c'est presque 8% du total, c'est-à-dire une cause particulièrement importante. Pour comparer, on estime souvent que le tabagisme provoque 60k morts chaque année, avec cette fois-ci des cancers bien identifiés, puisqu'on estime qu'environ 80% des décès par cancer du poumon y sont liés. Comme dit dans la brochure de l'Institut National du Cancer et comme on peut le vérifier dans la base du CépiDc, il y a environ 30k décès des suites du cancer du poumon en France, ce qui laisse 6000 cancers du poumon causés par autre chose, ce qui est compatible avec l'estimation de l'OMS citée plus haut.

Ces considérations sur le cancer du poumon rendent déjà peu crédible le chiffre de 42k morts à cause des particules. Même en comptant que tous les cancers du poumon qu'on ne peut pas attribuer au tabac soient dus aux particules, cela laisse plus de 85% des décès à trouver dans d'autres maladies. Les conséquences de l'exposition aux particules doivent pourtant être similaire à l'amiante par exemple: des petites particules qui s'enfoncent profondément dans les bronches et y restent. Les cancers devraient représenter une part relativement importante des décès. On peut aussi additionner les décès des catégories qui semblent se rapporter au problème des particules. Si on additionne les décès dus aux maladies cardiovasculaires, aux maladies respiratoires et aux cancers des voies respiratoires, on obtient environ 200k décès: les particules représenteraient 20% de ces décès, alors même que d'autres causes comme le tabac, l'alcool ou encore les régimes alimentaires (cholestérol) sont des causes connues et très répandues de ces maladies. Bref, il semble peu probable qu'il y ait vraiment 42k morts.

Reste donc à se tourner vers la source de l'information. Apparemment, le ministère de l'Écologie donne ce chiffre comme résultant de la pollution aux particules de moins de 2.5µm ainsi que sa source. Cette donnée trouverait donc sa source dans un rapport d'un programme européen chargé entre autres d'établir des seuils en vue de l'élaboration des règles européennes. On trouve effectivement ce nombre dans un tableau excel, il résulte donc d'un modèle mathématique, c'est la donnée des morts prématurées chez les plus de 30 ans, pour l'année 2000. On note que cette donnée est plus grande que le total des admissions dans les hôpitaux, ce qui me semble surprenant. Depuis les émissions ont baissé, donc même en admettant ce chiffrage, le nombre de morts est environ 1/3 plus bas aujourd'hui. Par ailleurs, si on regarde dans le document de référence de l'OMS sur le sujet de la pollution atmosphérique, les ordres de grandeurs sont de l'ordre de 1% de morts en plus pour une augmentation de la concentration moyenne de particules de 10µg/m³ (p257). L'ordre de grandeur de la concentration moyenne en particules à Paris est de 20µg/m³ d'après Airparif. On peut supposer que l'agglomération parisienne est fortement touchée par le phénomène vue la densité de population. Ce qui amène à penser que la pollution aux particules est la cause de moins de 1% des morts en France: en gros, il y aurait un 0 en trop dans le chiffre de l'étude mandatée par la Commission européenne ... qui s'est donc retrouvé dans les média ces derniers jours.

Pour conclure, non, le diesel ne cause pas 42000 morts par an en France. Il est en fait plus probable que toute la pollution aux particules provoque moins de 5000 morts par an. Le diesel en représente en gros 20%, soit mettons 1000 morts par an. Et si on veut vraiment réduire les effets de la pollution aux particules, le mieux serait sans doute de faire la chasse au chauffage au fioul ... et au bois!

6 juin 2012

À propos du record de production solaire en Allemagne

Le 25 et 26 mai derniers, la production d'énergie solaire a atteint un maximum en Allemagne, nouvelle qui a été relayée en France. La puissance au pic d'ensoleillement de la mi-journée a été d'environ 22GW ces deux jours, la puissance installée étant de 27GW à la fin de l'année dernière. Le samedi 26 mai, le solaire et l'éolien ont représenté plus de la moitié de la consommation vers midi — mais un peu moins de la moitié de la production.

C'est l'occasion de voir quelles sont les performances réelles de l'énergie solaire aujourd'hui

Aperçu du système électrique allemand sur quelques jours

Commençons par voir ce qui s'est produit les 25 et 26 mai. Les graphes ci-dessous donnent l'essentiel de ce qu'on peut savoir aujourd'hui. Contrairement à la France, l'ensemble des opérateurs de centrales classiques ne publient pas de manière centralisée les données de production. L'échantillon détaillé donné sur le site transparency.eex.com ne recouvre visiblement pas toute la production classique — il manque environ 7GW au maximum — et n'est accessible qu'en payant. On peut toutefois obtenir les données agrégées pour toutes les centrales de plus de 100MW, ce qui, en se basant sur ce qui se passe en France, permet d'approximer la production hors solaire et éolien à environ 2GW près. On peut aussi trouver sur ce site les productions de l'éolien et du solaire. On a donc une bonne idée de la production d'un jour donné. Pour ce qui est de la consommation, le plus simple est en fait de prendre les données de entsoe.net sur les échanges transfrontaliers: ils donnent la différence entre la consommation et la production. Même si j'ai pu constater des bizarreries sur ces données, elle n'en donnent pas moins une idée correcte de la situation. J'ai mis les données récoltées dans une feuille Google.

Électricité en Allemagne le 25/05/2012 Électricité en Allemagne le 26/05/2012

La différence entre le vendredi et le samedi est flagrante, avec une baisse de la consommation le samedi d'un quart. On peut constater qu'effectivement sur ces deux jours, la production d'électricité solaire est forte. Cependant, on voit aussi qu'il y a un talon de production plus classique, d'environ 35GW le 25 et de 30GW le 26. Cette production provient des installations tournant en base, principalement des réacteurs nucléaires (10GW) et des centrales au lignite (13GW), chacun de ces deux modes de production apportant plus d'énergie sur la journée que le solaire.

On voit aussi que le solaire est grossièrement corrélé à la variation de la consommation ces jours là. Cette corrélation n'est qu'imparfaite: le vendredi matin, il est nécessaire de faire appels aux moyens classiques et aux importations. En milieu de journée, la situation s'inverse et l'Allemagne devient exportatrice. Ces jours-là, l'Allemagne a tout de même pu éviter de recourir à des moyens de pointe.

Si on regarde ce qui s'est passé d'autres jours, par exemple le 31 mai et le 1er juin, on obtient les graphes suivants: Électricité en Allemagne le 31/05/2012 Électricité en Allemagne le 01/06/2012

Le jeudi 31, la consommation est au-delà de 70GW, ce qui montre que le vendredi est déjà un jour de plus faible consommation. La puissance crête du solaire de ces jours est 2 deux fois plus faible que le 25 et le 26 mai, la place étant en partie prise par l'éolien ... et le retour des moyens fossiles. Les exportations sont aussi nettement plus faibles le 31. Le 1er juin, par contre, les exportations sont nettement plus fortes, en grande partie à cause de la relativement forte puissance de l'éolien. Cela montre aussi le défaut du solaire et de l'éolien: ce sont des productions intermittentes qui peuvent être présentes — auquel cas on a droit à des communiqués de presse — ou absentes — auquel cas ce n'est pas une nouvelle.

Pendant ce temps là, en France

Le 25 mai en France, on peut aussi constater, grâce aux données de RTE que l'électricité est presque totalement décarbonée grâce au nucléaire — qui assure l'essentiel de la base — et à l'hydraulique — qui assure le suivi de charge au cours de la journée. En France, il n'y a qu'une faible puissance produite par les combustibles fossiles: sans doute quelques centrales à cogénération qui, subventionnées, tournent tout le temps et les centrales qui tournent en partie pour servir de réserve au cas où. La France est aussi constamment exportatrice au cours de la journée, moins vers midi pour faire face à la consommation intérieure française ... et à la production solaire ailleurs.

Électricité en France le 25/05/2012

Mais cette situation est récurrente depuis que le parc nucléaire français est devenu suffisamment important, elle ne peut donc prétendre faire la une, même si elle se produit tous les jours ou presque de mai à septembre.

Du prix de l'électricité

L'électricité est une marchandise éminemment périssable puisqu'elle doit être consommée d'une façon ou d'une autre dès qu'elle est produite. En conséquence, elle correspond pas trop mal aux biens canoniques étudiés en cours d'économie. Le prix où on peut la vendre correspond donc grosso modo au coût marginal, celui de la dernière unité produite. Les choses sont un peu plus compliquées, comme expliquées dans cet article. On peut cependant retenir la chose suivante: la rentabilité effective des moyens de base repose sur le fait qu'ils ne suffisent pas à satisfaire toute la demande et perçoivent une rente, les moyens de pointe pouvant espérer compter sur leur rareté et leur pouvoir de marché. En cas de surplus ou de pénurie, on peut s'attendre à des variations rapides de prix, à la baisse ou à la hausse.

Dans un système sans renouvelables intermittents, les prix varient surtout en fonction de la demande: la prévision détermine quels sont les moyens appelés, aisément classés par leur coût marginal. La demande étant relativement prévisible, les variations de prix ne sont pas très rapides. Avec les renouvelables intermittents, la production est nettement plus incertaine, dépendant des conditions météorologiques qu'on a toujours du mal à prévoir à l'avance. L'éolien et le solaire ont aussi pour caractéristique d'avoir un coût marginal nul pour deux raisons:

  1. Le système de subventions avec obligation d'achat oblige le gestionnaire du réseau à prendre cette électricité, dont il doit se débarrasser d'une façon ou d'une autre. Des limites sont posées pour la sécurité du réseau, mais il n'y a pas a priori de prix minimal à la revente au consommateur pour cette électricité
  2. Les caractéristiques techniques de ces productions qui n'utilisent aucun combustible pour produire une fois installées

La combinaison de l'imprévisibilité et du coût marginal nul pousse fortement les prix spot à la baisse en cas de surplus. On peut même constater des prix négatifs, arrêter les centrales de base étant plus compliqué que d'arrêter un vélo. Inversement en cas de manque, les prix partent rapidement à la hausse, car on est obligé de faire appel à des moyens de pointe, seuls capables de réagir suffisamment vite.

Suite aux efforts de la commission européenne pour créer un marché commun de l'électricité, les marchés du Bénélux, de la France et de l'Allemagne se sont couplés, c'est-à-dire que les prix doivent être égaux sauf quand les capacités d'interconnexions sont saturées. L'idée est d'optimiser l'usage des moyens de production, les plus chers n'étant appelés que le plus tard possible. Le revers de la médaille, c'est que les prix sont a priori déterminés par le moyen de production le plus cher appelé dans toute la zone, même si localement, les prix pourraient être plus bas.

Cependant la consultation des prix spot sur les journées considérées montrent que les prix ne sont alignés en France et en Allemagne que sur la journée du 31 mai, celle où la production renouvelable est relativement moins importante et aussi plus stable, l'éolien variant assez peu sur cette journée. On remarque que lorsque la production renouvelable est très forte, les prix allemands sont plus bas qu'en France, parfois de beaucoup comme le 1er juin où le différentiel atteint presque 30€/MWh au maximum, et lorsqu'il y a un manque relatif, comme le matin du 26 mai, les prix allemands sont plus élevés. L'effet des renouvelables sur le prix spot conduit aussi à trouver le prix minimal du 26 mai en pleine journée, lorsque le solaire est à son maximum. Sur cette journée, le prix moyen de l'électricité solaire est inférieur au prix moyen de l'électricité sur la journée.

Quelles conclusions?

La première conclusion, c'est qu'avec de telles puissances, sur ces jours-là, le solaire a bien remplacé des moyens de production thermique à combustible fossile. Il a plus exactement remplacé les centrales chargées d'assurer le suivi de charge au cours de la journée. Le revers de la médaille, c'est que d'autres jours, les jours d'été nuageux et les jours d'hiver, ces moyens sont appelés pour répondre à la demande. Le solaire ne peut donc les remplacer, ils tournent simplement moins souvent.

On voit aussi que l'Allemagne est devenu un pays qui a quasiment un bilan d'exportation équilibré depuis l'arrêt de 8 réacteurs nucléaires, alors que c'était un pays qui exportait beaucoup jusque là. La dynamique des exportations semble maintenant être déterminée par les productions d'électricité renouvelable, éolien et solaire. La demande locale ne s'adapte pas aux variations de production et les installations tournant en base ne s'arrêtent pas pour laisser la place. En quelque sorte, l'Allemagne a d'abord fait émettre plus de CO₂ à ses voisins, puisque les installations libres sont souvent celles à combustibles fossiles, avant de leur demander de recevoir de façon aléatoire son surplus de renouvelables. Ce deuxième aspect peut sembler favorable, mettant à l'arrêt des installations polluantes, mais quand on constate qu'à cause de l'intermittence les flux frontaliers sont en sens contraire aux prévisions dans 90% des cas, on ne peut que se dire que ces flux ne seront pas bienvenus très longtemps, surtout que leur importance va s'accroître à cause du développement des sources intermittentes.

La comparaison avec les installations de base montre aussi que le solaire, malgré la puissance installée, aura le plus grand mal à assurer une production d'importance. C'est ainsi que sur les journées du maximum, le nucléaire a produit plus malgré une puissance en service 3 fois moindre. Si le rythme de développement actuel se poursuit, dans quelques années la demande maximale du samedi ou du dimanche pourra être fournie par le solaire. Cela pose le problème du devenir des installations de base: qu'en faire ces jours là? On n'a pas tellement envie des les arrêter vu que ça a un coût, à la fois direct pour l'arrêt, et d'opportunité s'il faut les remplacer par les moyens de suivi de charge, plus chers. On peut penser exporter le surplus, mais les capacités d'export sont limitées. Par ailleurs, il est compliqué de débrancher des installations solaires qui sont aussi installées chez des particuliers: s'il ne peuvent pas évacuer leur surplus, qu'adviendra-t-il de leurs installations électriques ou du réseau électrique du quartier?

On peut aussi voir des développements intéressants du point de vue des prix. Sans sources intermittentes, le marché de l'électricité est relativement simple: plus la consommation est élevée, plus le prix est élevé. C'est ce qui permet, entre autres, de rentabiliser des installations de base aux coûts en capital élevé mais au coût marginal faible. Or on est déjà confronté à des cas où c'est l'inverse: au maximum de consommation, les prix sont au minimum de la journée. On se retrouve donc dans une situation étrange:

  1. Les installations de pointe ou de suivi de charge sont moins rentables car elles fonctionnent moins souvent. Personne n'a donc intérêt à les construire, au moins au début
  2. Les installations de base ont vocation à être remplacées à terme par un couple renouvelable intermittent et moyens de pointe ... mais personne n'aura construit les moyens de pointe sans subventions
  3. Les installations renouvelables font partie des installation à fort coût de capital et ont besoin d'un prix de vente moyen élevé. Mais comme leur coût marginal est nul, une forte production entraîne les prix à la baisse. Elles ne pourront donc être rentables sans subventions.

Bref, le modèle économique de la production d'électricité semble devenir pour le moins douteux si on reste dans un cadre de marché.

Les prix bas en cas de forte production posent un problème de distribution des coûts. Seuls les industriels ont accès aux prix spot, ils bénéficient donc de cette situation. Mais ils ne paient rien ou presque: leur taxe «énergies renouvelables» est plafonnée à un niveau très bas. De l'autre côté, ceux qui ont installé des panneaux solaires vendent leur électricité très cher, nettement au-delà des prix de marché. Mais comme ce sont des gens qui ont pu avancer le capital à cette opération fructueuse, on peut penser qu'ils ne font pas partie des défavorisés. Ceux qui paient ces panneaux sont donc les particuliers et les petites entreprises qui n'ont pas pu installer de panneaux solaires, parmi lesquels figureront l'essentiel des nécessiteux. Les bénéfices vont donc à d'autres que ceux qui paient et la taxe «renouvelables» a toutes les chances d'être régressive.

Tout cela ne veut pas dire que le solaire n'a pas d'avenir. Si aujourd'hui, sur un cycle de vie, un panneau photovoltaïque émet nettement plus de CO₂ que le nucléaire — et que le contenu moyen en CO₂ de l'électricité française —, le solaire photovoltaïque pourrait voir des améliorations importantes de son efficacité avec les progrès des semi-conducteurs. Le contenu en CO₂ sur la durée de vie pourrait aussi s'améliorer si l'électricité du lieu de fabrication est décarbonée. Mais pour produire une part importante en Europe, il faudrait développer des installations de stockage de l'énergie qui n'existent pas avec les bon ordres de grandeurs à l'heure actuelle.

Pour résumer, en fermant des centrales nucléaires et en se lançant dans les renouvelables, l'Allemagne a opté pour un comportement nettement non-coopératif. Elle fait payer des émissions de carbone supplémentaires à ses voisins à un prix plus élevé — c'est dit ouvertement quand les supporters de la manœuvre disent que les émissions n'augmenteront pas à cause du régime de droits à polluer — et elle leur demande d'accepter des flux d'électricité variable qu'ils n'ont absolument pas prévu. En se précipitant sur le solaire, elle empêche aussi les autres de la suivre: la production européenne est très corrélée: tout le monde produira en même temps, aux environs de midi, sans que cela corresponde exactement à la demande. On peut aussi constater que le modèle économique qui sous-tend la manœuvre est douteux. On subventionne les renouvelables intermittents, mais on va aussi devoir subventionner les moyens de remplacement à combustible fossile. En plus de tout cela, les perspectives d'arrêt des subventions sont clairement incertaines. Le moins qu'on puisse dire, c'est que le succès de la transition énergétique allemande n'est pas assuré!

26 mai 2012

Pour une garantie des dépôts européenne

La crise de la zone euro recouvre trois types de situations pour les états en mauvaise posture:

  1. Celui de l'état qui a trop dépensé et délibérément maquillé ses comptes: la Grèce. De ce fait, l'état grec n'est plus solvable et ses créanciers ont ou vont tous perdre une partie de leur mise.
  2. Celui des états où s'est développée une bulle immobilière massive. C'est le cas de l'Irlande et de l'Espagne. Le problème n'est pas que ces états ont trop dépensé avant la crise, leurs budgets étaient en excédent auparavant. Ce sont les banques qui sont très malades car les emprunteurs ne sont plus solvables. Dans ce genre de cas, la dette des banques se transforme en dette de l'état ce qui alourdit énormément les charges de celui-ci, au moment où le taux de chômage les oblige à maintenir le budget largement en déficit.
  3. Celui des état non compétitifs. Ce sont l'Italie et le Portugal. Ces pays avaient des comptes publics dégradés et leur situation économique et démographique est mauvaise. Ils verront prochainement leur population baisser et leurs produits se vendent mal. Ils sont donc vu une croissance faible avant la crise, sont en récession presque permanente depuis et n'ont pas vraiment de perspectives d'amélioration rapide. Un effet boule de neige peut s'enclencher pour mener à l'insolvabilité de ces états.

Dans tous les cas, ces états pourraient ne pas rembourser en totalité leurs emprunts — c'est une certitude pour la Grèce. Parmi les créanciers figurent les banques — et les assurances — qui se servent de ces actifs comme d'un matelas pour faire face à leurs engagements, au premier rang desquels figurent les dépôts des clients. Si les créances sur les états ne valent pas ce qui était promis, les déposant peuvent perdre confiance dans la capacité à récupérer leur argent. Ils vont donc chercher à le mettre ailleurs, généralement tous en même temps, déclenchant une ruée bancaire ou bank run.

Depuis la crise de 1929, des fonds de garantie ont été prévus pour les empêcher. Ils reposent sur un système d'auto-assurance des banques, souvent imposé par la loi. Ces systèmes n'ont pas besoin d'énormément d'argent en caisse pour fonctionner. Le fonds de garantie français possède ainsi environ 1.9G€ d'après le rapport annuel 2010 (p7), alors que les seuls dépôts à vue représentent presque 1500G€. En général, peu de banques font faillite et ce sont en général des petites. Le fonds de garantie peut aussi saisir une banque avant qu'elle ne fasse complètement faillite et trouver une autre banque qui voudra bien reprendre certains actifs en contrepartie des dépôts — ainsi que parfois une somme d'argent. Cette somme d'argent est modique au regards des dépôts, les banques fonctionnant avec un capital détenu en propre ne constituant qu'une fraction des dépôts. Enfin, ces fonds bénéficient de la garantie plus ou moins explicite de l'état. Cette garantie est claire dans le cas de la FDIC américaine; ce n'est pas aussi clair en France, mais il suffit de regarder ce qui se passer avec des banques mal en point comme Dexia.

Au fond, le système de la garantie repose in fine sur une garantie des états et donc sur leur capacité à l'honorer. Même si les sommes à trouver sont bien inférieures aux dépôts, elles n'en sont pas moins importantes vis-à-vis des moyens des états en cas de difficultés généralisées du système bancaire. Dans le cas grec, cette capacité est nulle: si l'argent promis à l'état grec et pour la recapitalisation des banques n'arrive pas, l'état grec ne pourra pas assumer la garantie des dépôts, surtout que le problème de la sous-capitalisation des banques provient de sa propre faillite. Dans le cas de l'Irlande, la recapitalisation du système bancaire a demandé plus de 20% du PIB de ce pays, ce qui a précipité le plan à destination de l'Irlande. D'une certaine façon, l'Irlande a gaspillé de l'argent sur ses banques alors qu'elle aurait pu étaler l'effort d'austérité sur une plus longue durée sans cela.

Le cas irlandais est caricatural: si les banques avaient été recapitalisée par l'ensemble des états de la zone euro, le coût aurait été de moins de 0.5% du PIB de la zone. En plus, le sauvetage des banques peut rapporter de l'argent: c'est ce qui s'était passé en Suède dans les années 90, c'est aussi ce qui s'est passé en France après 2008. Les pertes d'argent sont donc moins à craindre pour les états de la zone qui subissent moins la crise que dans le cas de prêts à un état comme la Grèce.

Au début de la crise en 2008, l'Irlande avait garanti toutes les dettes des banques — ce qui l'a menée à devoir accepter le plan d'aide. Ce comportement a forcé la Commission Européenne à proposer une harmonisation des différents systèmes existant dans l'Union. Le résultat de ces efforts a été une garantie de 100k€ par compte à vue, mais garanti séparément dans chaque état. L'étude d'impact donne toutefois des informations intéressantes au sujet d'un véritable système communautaire (p70): cela permettrait d'économiser 40M€ par an et le système pourrait mobiliser jusqu'à 230G€, capacité d'emprunt comprise, mais hors secours de l'état.

L'autre avantage est qu'un tel système permettra de clarifier les actions à mener en cas de faillite bancaire. Jusqu'ici, les états européens ont assumé presque tous les risques dans les faillites bancaires, seuls les actionnaires ont été rincés. Les porteurs d'obligations, eux, ont été jusqu'ici protégés. Étant donné que les états ont de plus en plus de mal à trouver l'argent dont ils ont besoin, c'est peu dire qu'une certaine pingrerie dans le domaine est nécessaire: rembourser ces créanciers ne devrait pas être la priorité. Cela permet aussi de créer un début d'union bancaire: le système de garantie pouvant saisir les établissements les plus faibles, il fixe les standards minimum à respecter, d'abord au niveau de la capital requis, puis au niveau de la régulation puisqu'un régulateur laxiste verra ses banques régulièrement saisies puis sans doute vendues à des banques étrangères. On peut d'ailleurs penser qu'une des raisons pour lesquelles il est très difficile de mettre en place un système pan-européen est que les politiques perdraient sans doute, via un affaiblissement de leur pouvoir sur les banques para-publiques comme les Landesbanken allemandes, les Cajas espagnoles ou encore comme Dexia en France, une parcelle très réelle de leur pouvoir d'attribuer de l'argent à leurs projets préférés.

Je vois quatre obstacles principaux à la mise en place d'une garantie des dépôts:

  1. L'impréparation générale du personnel politique européen. Elle est visible, il est étonnant que la garantie des dépôts, institution utile s'il en est, n'ait fait l'objet que d'un toilettage après le début de la crise en 2008. Que le premier ministre irlandais se soit précipité pour garantir toutes les dettes des établissements de son pays montrait bien qu'il y avait un problème. Dans une zone où les mouvements de capitaux sont libres et où il n'y a qu'une seule monnaie, le problème de la garantie des dépôts ne peut se régler que si l'ensemble de la zone est incluse dans le schéma et non découpée selon les frontières des états.
  2. L'opposition à la perte de souveraineté que cela représente. C'est un problème récurrent de l'UE: elle est vue comme un édifice technocratique qui ne tient aucun compte des désidérata de la population et impose des oukases insensés. Il est bien clair que l'apparition d'une garantie des dépôts aura des conséquences sur le statut des banques dans la zone euro ... et sur la répartition des taxes qu'on peut lever sur elles.
  3. Le problème de la supervision et des flux financiers. Dans un premier temps au moins, il est clair que l'argent ira des pays qui n'ont pas subi de bulles immobilières et ont des comptes publics en ordre vers les autres. À plus long terme, si les régulateurs restent nationaux, certains seront sans doute plus laxistes — ou plus malchanceux — que d'autres et les institutions qu'ils surveillent seront plus souvent saisies par le système de garantie. Ce problème porte en lui-même sa solution avec l'éviction progressive des régulateurs laxistes qui n'auront plus de banques à superviser au bout d'un (long) moment. Mais en attendant, la taille des flux financiers sera telle que bien des dents vont grincer.
  4. Le problème des «états voyous». Le cas de la Grèce l'illustre bien: maquillage des comptes publics, menaces de sortir de la zone euro, etc. Un pays pourrait menacer de quitter la zone euro et de spolier ses résidents après l'intervention du fonds de garantie. Cet état saisirait alors les fonds versés par le système de garantie après avoir fait défaut sur sa dette, rendant le système inopérant. Il faudrait alors trouver un moyen de verser l'argent en euro aux résidents de ce pays. Sans disposer de la force publique, cela paraît assez illusoire face à un état prêt à tout pour se financer.

Malgré tout, il semble urgent qu'une garantie des dépôts réellement européenne se mette en place. Si les déposants quittent les banques domestiques des pays les plus faibles, celles-ci disparaitront de façon chaotique, ce qui serait dramatique dans des sociétés modernes où, par exemple, les salaires doivent obligatoirement être versés sur un compte. Il est important de savoir si la zone euro est mûre pour un tel système et une sorte d'union bancaire à court terme, son avenir dépend sans doute de la réponse à cette question. Il vaudrait mieux que la réponse soit positive: des bank runs généralisés sonneraient le glas de la zone euro, comme une lecture a contrario du fameux article d'Eichengreen le laisse penser. Si les états ont du mal à se refinancer, que les banques sont en faillite, qu'il y a eu des bank runs, le risque de disparition de l'euro est très réel.

3 mai 2012

Le corner énergétique

Hier soir, après avoir chacun de leur côté s'être posés en rassembleurs, les deux candidats présents au second tour de l'élection présidentielle se sont livrés à un débat au ton vindicatif. Parmi les sujets discutés figurait l'inévitable sujet du nucléaire civil.

J'ai déjà évoqué ici à plusieurs reprises l'accord entre les Verts et le PS ainsi que la politique énergétique du candidat Hollande pour en dire tout le mal que j'en pense. Durant le débat François Hollande a confirmé ce qu'on pouvait penser de sa volonté de baisser la contribution du nucléaire à 50% de la production d'électricité: il s'agit d'un plan de fermeture des centrales à 40 ans. Il a aussi, par ses propos désignant Fessenheim comme situé en zone sismique, repris en presque totalité l'argumentation des écologistes, ce qui conduit en fait à légitimer leur position: il faut sortir du nucléaire.

En effet, rien n'impose de fermer les centrales nucléaires au bout de 40 ans. Les Américains ont prolongé la vie de 70 de leurs 104 réacteurs à 60 ans. EDF a des plans similaires, ils sont de notoriété publique: on en trouve par exemple de nombreuses traces dans le rapport de la Cour des Comptes sur le nucléaire. La Cour passe d'ailleurs très près de recommander l'allongement de la durée de vie des centrales, remarquant que plus l'exploitation perdure, moins les coûts par MWh sont élevés (p284). Elle remarque aussi que l'absence de décision conduira à la prolongation des centrales et que le prolongement des centrale va entraîner un plan d'investissement important, mais nettement moins qu'un renouvèlement, quelque soit la technologie choisie. D'ailleurs, si les centrales devaient toutes fermer à 40 ans, l'intérêt d'investir pour prolonger la durée de vie des centrales diminue: les investissements devraient se rentabiliser sur une durée nettement plus courte. Il n'y a en fait quasiment qu'un seul élément irremplaçable: la cuve du réacteur dont on ne connaît pas la durée vie maximale.

Contrairement à ce qu'affirme François Hollande, il y a d'autres centrales situées dans une zone sismique comparable à Fessenheim. Fessenheim est situé dans le nord du département du Haut-Rhin. Comme on peut le voir sur la carte officielle du risque sismique, cette zone est en risque «modéré», comme l'ensemble de la vallée du Rhône. Et dans la vallée du Rhône, il y a moult sites nucléaires: les centrales de Bugey, St Alban, Cruas, Tricastin, le site de Marcoule. La centrale du Bugey est aussi la deuxième centrale la plus vieille en France, on voit donc quelle sera la cible suivante des écologistes. En écartant les zones sismiques avec un risque modéré, François Hollande empêche la construction de centrales dans une zone à la fois parmi les plus peuplées et aussi parmi les plus industrialisées donc parmi les plus grosses consommatrices. Cela va donc grandement simplifier le transport de l'électricité. On imagine aussi sans peine avec quelle bienveillance François Hollande verra l'industrie chimique, très présente aussi dans la vallée du Rhône, donc menacée par les séismes.

Se rejoignant sur ce point, les 2 candidats ont chanté les louanges des énergies renouvelables. Cependant, celles-ci ne peuvent pas remplacer le nucléaire: ce qu'on peut encore construire, ce sont des éoliennes et des centrales solaires. Non seulement, ces sources d'électricité sont parfois hors de prix, mais elle ne garantissent en fait aucune production ou presque: on peut voir grâce aux données d'exploitation, que ce soit au niveau français ou européen, la garantie est de moins de 5%. Comme dit dans une analyse statistique, publiée sur un site tenu par un Danois et riche de données, la production éolienne agrégée ne peut être considérée comme une source fiable d'électricité.

Les candidats font aussi profession de diminuer les consommations de combustibles fossiles et de ne pas exploiter le gaz de schiste et autres hydrocarbures non-conventionnelles. Comme ceux-ci sont en fait la seule alternative au nucléaire à moyen terme et sans doute à long terme, on aboutit à une impossibilité pratique. Sarkozy s'en sort grâce à son soutien au nucléaire, mais ce dernier requiert de fonctionner la plupart du temps pour être rentable. Hollande, lui, s'est placé dans un corner dont on voit mal comment il pourra se sortir. Cela dit, il se dit favorable à un TIPP flottante, ce qui favorise donc implicitement la consommation de pétrole, le type de combustible fossile le précieux car liquide et le premier qui viendra à manquer, mais pour une taxation de la consommation d'électricité croissante en fonction de la consommation, première mondiale, qui frappera donc la principale source d'énergie décarbonée en France.

On arguera qu'il lui suffira de se renier comme tant d'autres. Mais en reprenant pour lui-même des arguments simples — et faux — produits de longue date par les écologistes, il a légitimé leur discours. En le faisant avec force lors du débat télévisé d'avant le second tour, il a donné à cette position une certaine solennité. La situation de Mitterrand en 1981 était très différente: il allait hériter de nombreux chantiers de centrales nucléaires en cours, ce qui résolvait le problème de la production d'électricité en France; les diverses crises des changes ont de toute façon rapidement dissuadé de se reposer sur des importations coûteuses de combustibles fossiles. Cette prise position est donc sans doute l'exemple le plus frappant du déni qui remplit le discours politique français: en déformant la réalité, les dirigeants politiques se placent dans un corner dont il est impossible de sortir sans se renier, et placent donc le pays dans une impasse dont il sera extrêmement difficile de sortir.

- page 5 de 9 -