9 avril 2016

Les ondes radio sont sans danger

Les ondes électromagnétiques constituent un domaine très vaste puisque le spectre électromagnétique ne connaît pas de limite de fréquence. Il s’étend des rayons gamma aux ondes radio en passant par le visible. En ce sens, elles sont présentes partout autour de nous.

800px-Domaines_du_spectre_e_lectromagne_tique.svg.png Le spectre électromagnétique (par Benjamin ABEL — Wikimedia Commons)

Mais ce qui est souvent affirmé publiquement de nos jours c’est que la partie du spectre utilisée pour les télécommunications ― une partie des micro-ondes ― est dangereuse pour la santé. Remarquant en quelque sorte la proximité entre la fréquence utilisée dans les fours à micro-ondes (2.45GHz) et celle utilisée par le WiFi (autour de 2.4GHz), on pourrait certes se demander si le WiFi ne nous cuisinerait pas à feu doux.

Quelques ordres de grandeur

Commençons par quelques remarques sur le spectre électromagnétique dont les ondes radio sont une partie, tout comme la lumière visible ou les rayons X (voir la figure ci-dessus).

Il est classiquement découpé suivant les fréquences des ondes qui se propagent, qui leur donne des caractéristiques bien différentes. En effet, toute onde électromagnétique représente le déplacement de photons. Plus la fréquence est élevée, plus l’énergie d’un photon est élevée. Les photons de la lumière visible ont ainsi chacun une énergie environ 500 000 fois plus élevée qu’un photon d’une onde radio à 1GHz.

Les photons dans le domaine des Ultra-Violets peuvent induire des réactions chimiques du fait de leur grande énergie. Pour les photons des ondes radios, c’est impossible : il faudrait que 500 000 photons passent au même endroit au même moment !

Le nombre de photons transportés peut varier avec l’énergie transportée. Elle est comptée en W/m². Une autre façon de mesurer un champ électromagnétique est de s’intéresser au champ électrique en V/m. La relation entre les deux est quadratique : quand le champ est 2 fois plus faible, l’onde transporte 4 fois moins d’énergie, et 100 fois moins quand le champ est divisé par 10.

Pour donner des ordres de grandeur, à midi solaire et sans nuages, la puissance reçue est entre 500 et 1000W/m² sous nos latitudes suivant la période de l’année. Dans le domaine des ultraviolets, la puissance est de l’ordre de 1 à 2W/m² pour les UVB et 30W/m² pour les UVA. Comme les photons ultra-violets sont très énergétiques, il peuvent induire des dégâts sur l’ADN dans les cellules de la peau, contrairement aux ondes radio. Les ultraviolets, notamment les UVB, sont ainsi jugés responsables par l’OMS de 80 à 90 % des mélanomes malins, dont il y a plus de 10000 cas par an en France. Cela explique que les pouvoirs publics appellent à faire attention à son exposition au Soleil.

On peut aussi donner un aperçu des différences qu’il peut y avoir entre le four et le WiFi : un four à micro-ondes en fonctionnement consomme à peu près 1000W, dont mettons 50 % est transformé en rayonnement. L’onde reste confinée dans l’espace où on met les aliments qui mesure à peu près 20cm de côté. En face de cela, un routeur WiFi va péniblement émettre 100mW (10 000 fois moins!) pour permettre de couvrir un appartement de 100m². Les puissances en jeu n’ont donc rien à voir !

Les recommandations

Dans le domaine des ondes radio, il existe un organisme reconnu par l’OMS qui s’occupe d’étudier la question des impacts sur la santé : l’ICNIRP. Cet organisme publie notamment des recommandations (en, fr) où l’état de la science est passé en revue. Pour ce qui concerne les fréquences utilisées pour les télécoms et le WiFi, l’effet sur le corps humain consiste en une hausse de la température. Il n’y a aucun effet comme les atteintes directes à l’ADN : chaque photon ne transporte pas assez d’énergie pour briser des liaisons chimiques.

Pour établir sa recommandation pour le public, la commission regarde quel champ provoque un échauffement de 1°C du corps humain, puis divise le flux de puissance par 50. Au final, on a donc un échauffement local dû aux ondes de 0.02°C. Les valeurs sont données dans le Tableau VII ci-dessous. Reco_ICNIRP.jpg On y voit que pour le WiFi (autour de 2.4GHz), la recommandation est de 61V/m, soit 10W/m², et à 900MHz, fréquence historique du téléphone mobile, de 41V/m. La réglementation française reprend ces valeurs.

En ce qui concerne les antennes, en Angleterre, on a constaté que les niveaux dus aux antennes ne dépassaient pas 2% de la recommandation (en termes de puissance). En France, plus de 97% des mesures sont à moins de 10% de la recommandation en termes de champ. Comme dit plus haut, cela correspond à 1% en termes de puissance et donc d’échauffement. 80% des mesures sont à moins de 2V/m soit 0.25% de la recommandation en termes de puissance pour la bande des 900MHz. On constate donc qu’en dehors de cas exceptionnels, l’échauffement dû aux antennes est inférieur à 0.0002°C.

Quant aux téléphones, on peut accéder aux données des fabricants les plus connus sur leur site internet (exemple). Les émissions sont souvent proches de 50 % de la recommandation, soit un échauffement dû au champ radio de 0.01°C.

Les études épidémiologiques sur le cancer et les ondes radio

Même si on voit qu’a priori il y a toutes les chances pour que les ondes radio n’aient pas d’incidence sur la santé des études épidémiologiques ont été conduites pour vérifier si c’était bien le cas.

L’étude la plus mentionnée est sans doute INTERPHONE. Parmi les résultats médiatisés de cette étude, il y aurait une augmentation du risque de certains cancers pour les 10 % des plus gros utilisateurs. Cependant, même si c’était confirmé, cette augmentation du risque serait extrêmement faible: le surplus de cas de cancer serait de 60 par an, à comparer aux 350000 cas annuels, tous cancers confondus.

L’étude comporte aussi un biais important : elle se base sur l’utilisation du téléphone rapportée après coup par les malades. Comme le cancer se développe avec un temps de latence important, il est aisé pour les gens de se tromper de bonne foi. Il faut donc pour bien faire confirmer à l’aide d’autres types d’études. C’est ainsi qu’une étude danoise de cohorte suivant l’état de santé de toute la population sans a priori n’a trouvé aucun effet. De même, si les téléphones ont un impact important sur l’apparition de certains cancers, on devrait le constater via une augmentation du nombre de ces cancers. Or, ce n’est pas le cas: le nombre de cas de cancers qui pourrait être liés au téléphone est stable, malgré l’utilisation intensive qui en est faite depuis maintenant de longues années.

gliome_model_comparison.jpg Incidence constatée du gliome (type de cancer) comparée à différents modèles.

Dans d’autres domaines, on n’a pas constaté de maladies professionnelles liées aux ondes radio (exemple avec les radars). Tout porte ainsi à croire que les ondes radios utilisées pour les télécoms n’ont pas d’effet délétère sur la santé. Comme le dit l’OMS : « À ce jour, il n’a jamais été établi que le téléphone portable puisse être à l’origine d’un effet nocif pour la santé. »

Le cas des électro-hypersensibles

Mais alors, pourquoi y a-t-il des articles dans les journaux sur les électro-hypersensibles ? La réponse est que si ces gens sont bien malades, la cause n’est pas celle qu’ils dénoncent. En effet, les expériences scientifiques ont toujours montré que le corps humain ne peut détecter les ondes radio. Les résultats sont les mêmes que l’exposition soit réelle ou simulée :

  • Lorsqu’ils étaient réellement exposés à des ondes radio, les électro-hypersensibles mentionnaient de plus forts maux de tête dans 60 % des cas
  • Lorsqu’ils étaient exposés de façon factice à des ondes radio, ils mentionnaient de plus forts maux de tête dans 63 % des cas, une proportion très similaire.

C’est ce qui a amené l’AFSSET (depuis devenue l’ANSES) à écrire que « les seuls résultats positifs obtenus à ce jour sur le plan thérapeutique sont ceux obtenus par des thérapies comportementales ou des prises en charge globales. » L’OMS est du même avis, puisqu’elle déclare qu’il n’y a «aucune base scientifique» reliant ces symptômes aux champs électromagnétiques.

On peut donc dire que ces articles alertant sur le cas des hypersensibles ne donnent pas un bon aperçu du consensus scientifique et qu’accepter sans distance critique le regard que les malades portent sur leur propre condition n’est pas le meilleur service à leur rendre.

Conclusion

Les ondes radio utilisées dans les télécoms sont sans danger pour la santé humaine. C’est ce qu’il ressort du consensus scientifique sur la question. Au fond, c’est cohérent avec l’historique qu’on en a : les ondes radio sont utilisées depuis plus d’un siècle et l’invention de la radio, ses usages n’ont fait que se développer. Les travailleurs du secteur (radio, radars, …) ont donc été plus fortement exposés que le public d’aujourd’hui, mais aucune maladie professionnelle n’a été détectée.

Il serait donc dommage de se priver d’inventions parmi les plus utiles des 40 dernières années et qui vont continuer à trouver de nouvelles applications. Le téléphone portable est devenu un moyen presque indispensable de communication et rend de grands services, au point que la fin des «zones blanches» est devenue une revendication des élus de zones rurales.

L’activité législative restrictive en ce domaine est déplorable, en ce qu’elle amène jeter le doute sur le consensus scientifique d’innocuité.

NB : ce texte s’inspire de 2 textes en anglais, sur le site du Guardian et FiveThirtyEight.com ; ainsi que de ce billet du pharmachien.

16 février 2016

Éradication

Il n'est pas très courant de voir pousser une logique philosophique à son terme, et c'est pourquoi il me semble intéressant de lire le billet d'Audrey Garric, journaliste au Monde, a publié sur son blog à propos de l'éradication des moustiques. Chacun sait que ces dernières années, le moustique tigre a agrandi son aire de répartition et a amené avec lui les maladies qui l'accompagnent, la dengue, le chikungunya et le zika. Cette dernière maladie est actuellement l'objet d'une attention particulière car de nombreux cas sont apparus au Brésil — avec comme conséquence de nombreux cas de microcéphalie. Une des voies de lutte contre ces maladies est de chercher à développer des vaccins — qui deviennent potentiellement rentables maintenant que ces maladies touchent nettement plus de monde et que la clientèle est plus solvable. Une autre est aussi de lutter contre le vecteur de la maladie: le moustique. Le paludisme, véhiculé par les anophèles, soulève des questions très similaires et on peut soit chercher un remède contre le parasite responsable, soit lutter contre le vecteur.

Le post donne la parole a des entomologistes qui disent carrément qu'on peut se passer des espèces de moustiques qui véhiculent des maladies, parce qu'ils seront soit remplacés par d'autres espèces de moustiques moins dangereuses pour l'homme, soit remplacés par d'autres types d'insectes. Mais en fin de billet on voit apparaître la raison pour laquelle la question n'est pas évacuée comme impossible: il y a de nouvelles techniques pour essayer de diminuer les populations de moustiques. 3 méthodes sont apparues:

  1. Infecter les anophèles avec une bactérie qui rend impossible la transmission du paludisme.
  2. L'utilisation de moustiques transgéniques mâles dont la descendance meurt au stade larvaire, fabriqués grâce à une technique qui a le vent en poupe.
  3. Utiliser des moustiques transgéniques pour rendre impossible la transmission du paludisme, gêne qui se répand grâce à une variante de la même technique.

La deuxième technique a de très bon taux de succès puisque des tests ont montré une chute de 80% de la population de moustiques tigre. Vu la voie d'action du procédé — par lâcher de moustiques mâles qui iront s'accoupler avec des femelles —, il est peu probable qu'une résistance se développe à court terme contrairement aux insecticides. Ce type de technique a d'ailleurs déjà été utilisé avec succès dans la cas de la lucilie bouchère.

La réponse finalement apportée par Audrey Garric est à mon sens résumée dans la dernière phrase du billet: peut-on supprimer des espèces entières, aussi meurtrières soient-elles, quand les humains eux-mêmes constituent un danger pour la nature dans son ensemble ?. Elle paraît donc essentiellement négative; finalement l'homme n'aurait pas le droit d'éradiquer les moustiques vecteurs de maladies parce qu'il est lui même corrompu et fondamentalement mauvais, car il passe son temps à rompre l'équilibre naturel des choses. L'impression qui se dégage est que l'espèce humaine — enfin, pour l'instant, la partie qui vit sous les tropiques — doit accepter la malédiction que sont les maladies véhiculées par les moustiques un peu comme un châtiment pour les destructions qu'il provoque par son activité. Souvent, la biodiversité est présentée par ses défenseurs comme un but en soi, n'ayant pas besoin d'autre justification, ce qui peut amener à se poser la question de savoir si la défense de la biodiversité s'étend aussi à des organismes clairement nuisibles tels que le virus de variole. La réponse suggérée dans le billet s'approche très près d'une telle affirmation.

Qu'on puisse préférer des espèces nuisibles au bien-être de l'homme me dépasse. Surtout dans le cas où, comme ici, il n'y aura sans doute aucune conséquence notable de la disparition de ces espèces de moustiques dangereuses pour l'homme autre qu'un plus grand bien-être pour ce dernier. Les personnes interrogées sont claires sur ce point: les moustiques dangereux seront remplacés par des insectes remplissant des niches écologiques équivalentes. De plus, aujourd'hui, les maladies véhiculées par les moustiques sont absentes de France métropolitaine, ce qui rend confortable de se poser des questions de la sorte. Pendant ce temps-là, on estime qu'il y a 200 millions de malades, et 600 000 morts par an, du paludisme. Pendant ce temps-là, deux théories du complot se sont développées sur le virus zika: la première incriminait les moustiques transgéniques, l'autre sur un produit de traitement de l'eau visant à tuer les larves de moustique. Dans les 2 cas, on incrimine une solution potentielle contre ces maladies en utilisant des arguments dans la droite ligne de ceux des militants écologistes: dénigrer les OGMs et les insecticides. Remettre le bien-être des hommes au centre des préoccupations serait donc sans doute une meilleure idée, à mon avis.

18 janvier 2016

Confortables retraites

En décembre dernier, le Conseil d'Orientation des Retraites a publié son 13ᵉ rapport intitulé Les retraités : un état des lieux de leur situation en France, accompagné de planches en résumant l'essentiel. Il en ressort que les retraités ont en moyenne un niveau de vie plus élevé que le reste de la population, et ce quasiment quelque soit l'indicateur retenu pour effectuer la comparaison.

Le niveau de vie des retraités

Le rapport commence par donner des éléments sur la démographie des retraités et les montants perçus par les pensionnés des systèmes de retraite français. 16.7 millions de personnes touchent une pension de droit direct ou dérivé — les pensions de réversion — dont 15.6 de droit direct, dont 14.5 millions vivent en France. Pour ces derniers, en 2013, la pension moyenne brute totale est de 1578€/mois. Si on se limite aux retraités qui ont eu une carrière complète, la pension moyenne de droit direct est de 1730€ brut par mois. Le rapport s'intéresse à la génération 1946 — 69 ans en 2015 — pour quantifier le taux de remplacement de la retraite: le taux médian de remplacement est de 73%.

Pour avoir une idée des conditions de vie des retraités, ces seules indications ne suffisent pas: il existe d'autre sources de revenus, les impôts ne sont pas les mêmes pour les actifs et les retraités et enfin, cela ne tient pas compte de la taille des ménages. L'INSEE mesure aussi les revenus du capital, ceux provenant des aides sociales ainsi que les impôts directs pour calculer le revenu disponible. Seul manque en fait pour évaluer le niveau de vie complet une évaluation des loyers imputés — le gain que procure le fait d'être propriétaire de son logement. Pour neutraliser l'effet de la taille des ménages, le niveau de vie d'un ménage est défini par l'INSEE comme le revenu disponible par unité de consommation. Une unité de consommation retranscrit en termes mathématiques l'intuition selon laquelle il y a des économies d'échelle lorsqu'on vit à plusieurs et que les enfants coûtent moins cher à entretenir que les adultes. Ainsi, la notion de niveau de vie permet de comparer les niveaux de revenu en tenant compte de la taille du ménage et d'effectuer des comparaisons entre les ménages de célibataires et ceux de couples avec enfants.

Le niveau de vie moyen des retraités est ainsi évalué à 2049€/mois et par unité de consommation, alors que celui des actifs s'élève à 2062€ et celui de l'ensemble de la population à 1946€ (p35). Comme l'ensemble des retraités rassemble d'anciens actifs mais aussi de vieux inactifs comme les femmes au foyer, la véritable comparaison doit s'effectuer avec l'ensemble de la population. On voit donc que les retraités ont en moyenne un niveau de vie supérieur de 5% à la population en général. Comme les retraités sont nettement plus souvent propriétaires de leur logement, compter les loyers imputés augmenterait encore la différence en faveur des retraités. Le rapport signale aussi (p36-37) que la différence s'est accrue depuis 2012 … il faut dire que le niveau de vie des actifs a été affecté par les conditions économiques dégradées suite à la crise de 2008, alors que celui des retraités a été largement protégé (cf graphe p38).

On pourrait croire qu'il s'agit d'un effet provoqué par un faible nombre de très riches retraités profitant d'un capital accumulé important. Il n'en est rien: le ratio de revenus entre les 10% de retraités les plus pauvres et les 10% les plus riches est moins élevé que pour l'ensemble de la population: pour l'ensemble de la population, le ratio est de 3.5; pour les retraités, il est de 3.1. En fait, d'après le tableau de la page 40, le faible nombre de retraités pauvres explique en partie le différentiel de niveau de vie moyen! En 2013, le taux de pauvreté — défini comme la proportion de gens vivant avec moins de 60% du revenu médian de population — est d'environ 8% chez les retraités, alors qu'il est de presque 14% pour l'ensemble de la population (graphe p41).

Le rapport montre ensuite le graphe ci-dessous (p43) qui montre bien les raisons du meilleur niveau de vie. En fait, une bonne part du problème provient de l'entretien des enfants. Ce n'est pas un secret: les enfants sont plutôt à la charge de gens dans la force de l'âge, ils quittent le foyer familial une fois les études terminées. Pendant ce temps-là, ils diminuent le niveau de vie du ménage dans lequel ils vivent par rapport à celui d'un couple sans enfant. Sur le graphe décrivant l'évolution du niveau de vie au cours du temps pour le cas type d'un couple avec 2 enfants, il est très net que le niveau de vie pendant la vie active est limité par le nombre d'enfants. On voit aussi clairement, qu'en termes réels, le niveau de vie à la retraite est meilleur que pendant presque toute la vie active du couple! Quand on compare au salaire moyen par tête — censé représenter l'évolution du niveau de vie moyen et qui est supposé augmenter au rythme de 1% minimum par an — on constate que le niveau de vie est d'abord meilleur puis ensuite équivalent après 75 ans au niveau de vie pendant la vie active. Il faut aussi noter que les revenus du capital sont exclus de ce cas type, alors qu'ils sont a priori plus élevés quand l'âge augmente. retraites_vs_salaires.jpg Pour compléter le graphe, le tableau qui vient ensuite (p44) donne divers ratios entre pension et salaire pour ce cas type. On constate que, même en tenant compte d'une certaine hausse des salaires tout au long de la retraite, le niveau de vie à la retraite est supérieur à celui obtenu entre 40 et 48 ans, représentatif du niveau de vie pendant la plus grosse partie de la vie active… ratio_retraite_salaire_periodes.jpg

La France est le pays qui fait le meilleur sort à ses retraités: quand on compare le niveau de vie relatif des plus de 65 ans, on constate qu'il est significativement plus élevé qu'ailleurs. Les 2 pays les plus proches sont l'Espagne et l'Italie. Ces 2 pays vivent une crise économique prolongée et en Espagne, le chômage dépasse les 20% de la population active, ce qui grève le niveau de vie de l'ensemble de la population! retraites_niveau_vie_comparaison.jpg

L'évolution passée et future du niveau de vie relatif des retraités est présentée à partir de la p67, mais on peut en résumer une grande partie par le graphe de la p73. prospective_niveau_vie_retraites.jpg La situation actuelle perdure peu ou prou depuis au moins 1996, date à laquelle l'INSEE a inclus les revenus du capital pour calculer les niveaux de vie. Avant le milieu des années 90, le niveau de vie relatif des retraités s'élevait rapidement sous l'effet de la mort des générations n'ayant que peu cotisé et leur remplacement par des générations avec des carrières complètes. Depuis 1996, le niveau de vie relatif des retraités fluctue légèrement en fonction de la conjoncture économique: lors des crises, les actifs voient leurs revenus baisser, alors que ceux des retraités se maintiennent. Dans le futur, il est prévu que le niveau de vie relatif des retraités baisse. Mais l'amplitude dépend de l'évolution du salaire moyen par personne: les pensions ne sont revalorisées de l'inflation. Comme je l'avais déjà évoqué à propos du rapport de 2013, les scénarios les plus optimistes prévoient une forte baisse relative de la pension moyenne par rapport au salaire moyen. Cette baisse est par contre nettement moindre pour les scénarios qui se veulent pessimistes. 2 scénarios ont une pertinence particulière: le scénario B où les régimes de retraite s'équilibrent globalement à terme et le scénario C', qui se veut le scénario noir, mais qui est en fait optimiste par rapport à ce qui s'est passé.

Dans le scénario B, la situation actuelle ne perdurerait pas plus de 10 ans et finalement, vers 2040, le niveau de vie relatif des retraités rejoindrait peu ou prou ce qui se fait ailleurs qu'en France. Comme l'étude prospective se fait à législation constante, le scénario B donne l'évolution du niveau de vie relative qu'il faudrait constater pour qu'on puisse s'épargner des hausses d'impôts et un allongement supplémentaire de la durée de cotisation. Dans le scénario C', on voit que la baisse est nettement plus limitée et plus lente. La situation actuelle perdurerait jusqu'en 2030 environ et le niveau de vie relatif se stabiliserait aux alentours de ceux de l'Espagne ou de l'Italie. Cependant, dans le scénario C', les régimes de retraite présentent un déficit important, de l'ordre de 2% du PIB par an. Comme je l'avais noté l'an dernier, le scénario C' est déjà relativement optimiste. Le rapport mentionne même p77 qu'alors que le scénario C' prévoit une hausse du salaire brut moyen par tête de 1% par an en sus de l'inflation, la hausse constatée entre 1990 et 2014 n'a été que de 0.7% par an. La question qui se pose alors est de savoir comment seront comblés les déficits. Si on choisit de baisser les pensions, la courbe peut rejoindre celle du scénario B. Par contre, si des hausses d'impôts sont privilégiées, la situation actuelle peut très bien perdurer à très long terme puisque ces augmentations d'impôts pèseraient sur le niveau de vie des actifs! On peut modestement constater que tous les plans visant à combler le déficit des régimes de retraites comptent un volet d'augmentations d'impôts, mais jamais de baisse directe des pensions.

Le reste du rapport apporte des éléments qui vont dans le sens du renforcement de la thèse de la situation favorable des retraités. Pages 83 et suivantes, le rapport s'intéresse à la consommation des retraités. Le constat principal est qu'à niveau de vie comparable, les retraités consomment moins (cf graphe p90). À mon sens, c'est d'abord lié au fait que les besoins sont moindres quand on n'a plus à travailler ni à s'occuper d'enfants au jour le jour. En conséquence (p129 et suivantes), les retraités ont la capacité non seulement d'épargner, mais aussi d'aider leurs descendants: le taux d'épargne constaté est similaire à celui du reste de la population (environ 15% du revenu), et il faut y ajouter des transferts des retraités vers les plus jeunes (environ 4%). Les retraités sont aussi propriétaires de leur logement dans leur très grande majorité (environ les 3/4) contre environ la moitié pour le reste de la population (p97 et 173). Ils ont souvent fini de rembourser leurs emprunts, ce qui leur apporte un surplus de niveau de vie par rapport au reste de la population, mais qui échappe aux statistiques. Seule ombre au tableau: comme leurs logements sont souvent dimensionnés pour accueillir leurs enfants, les coûts d'entretiens sont plus élevés que pour les ménages plus jeunes comparables. Pages 209 et suivantes, de façon cohérente avec leur moindre taux de pauvreté, les retraités sont moins pauvres en conditions de vie: parmi les retraités, il y a moins de ménages en permanence à découvert par exemple. La difficulté principale qu'ils semblent rencontrer est l'impossibilité d'accéder à des crédits après 75 ans, car les banques craignent les décès. Pages 159 et suivantes, le rapport s'intéresse à la santé des retraités. On constate que bien loin de ce que disent les Cassandre, l'espérance de vie en bonne santé augmente aussi — dès lors qu'on ne fait pas que demander aux gens s'ils se sentent bien. Quant à la perte d'autonomie, elle ne se produit en moyenne que 2 à 3 ans avant le décès. L'existence de l'APA permet d'estimer l'espérance de vie sans perte d'autonomie à 65 ans: elle est d'à peu près 18 ans (p171).

Enfin, le tableau de la page 152 mérite qu'on s'y attarde. On constate qu'entre 1996 et 2009, le taux d'imposition des retraités a fortement augmenté en passant de 9% à 13%. Les transferts sociaux ont, eux, diminué d'un tiers. Les revenus d'activité sont aussi moins présents. Tout ceci laisse penser que la situation des retraités s'est améliorée au-delà de ce que laissent penser les simples niveaux de vie. En effet, il est extraordinaire de constater que le niveau de vie relatif a augmenté alors qu'il y avait de forts freins! decomposition_niveau_vie.jpg

Quelques réflexions

Le première réflexion que m'inspire ce rapport ne porte pas tant sur son contenu que sur son impact. Mis à part le quotidien Les Échos, aucun journal n'a relayé la parution de ce rapport et de son contenu. Pourtant, ce qui y est relaté me semble apporter un éclairage important sur la structure de la société français aujourd'hui. On ne peut aussi que constater que ce rapport va à l'encontre des idées reçues sur les retraités qui seraient nécessairement plus pauvres que le reste de la population. Ces préjugés ne peuvent donc que perdurer, on y reviendra peut-être.

Quant au contenu du rapport, je pense qu'il apporte une clef de compréhension des enquêtes où les Français se montrent pessimistes et disent que les enfants vivront moins bien que leurs parents (voir ici et , par exemple). Une hypothèse est que les réponses à ces sondages dressent un constat sur la situation présente: aujourd'hui retraités comme actifs peuvent souvent constater en regardant la situation de leurs proches que le niveau de vie des retraités est plus élevé que celui des actifs. De plus, cette situation dure depuis 20 ans, alors même que les conditions des régimes de retraites se sont durcies. Les résultats de ces enquêtes deviennent compatibles avec la forte natalité française: les jeunes parents constatent que la société française est organisée de telle sorte que le niveau de vie est maximal après 50 ans, et plus élevé à la retraite que pendant la plupart de la vie active.

Sur un plan plus polémique, on voit divers hommes politiques, plus à droite qu'à gauche, railler contre ce que d'aucuns ont présenté comme le cancer de l'assistanat. En septembre 2015, il y avait ainsi 1.6 millions de ménages touchant le RSA socle. Suivant la composition des ménages au RSA, ça doit représenter entre 2.5 millions et 3 millions de personnes soit à peu près 4% de la population française. Certes, les retraités ne sont plus censés assumer de charge de travail contrairement aux gens dans la force de l'âge. Cependant, le minimum vieillesse est nettement plus élevé que le RSA, de nombreux retraités sont toujours largement assez en forme pour continuer à travailler et leur niveau de vie est plus élevé que la moyenne de la population alors qu'ils sont ce qu'autrefois on appelait des oisifs. On a donc d'un côté des hommes politiques qui se scandalisent de 4% de la population qui se complairait dans la perception d'aides sociales parce que le SMIC n'est pas assez élevé, mais de l'autre presque aucun ne préoccupe de ce que plus de 20% de la population française ait un meilleur niveau de vie moyen que les 80% restants sans travailler. On pourrait tout de même espérer que certains hommes politiques disent au moins que les impôts doivent être les mêmes pour les vieux, arrêter de privilégier le paiement des suppléments de retraites pour familles nombreuses à l'encontre des allocations familiales et enfin que les revenus des retraités cessent d'être sanctuarisés lorsque ceux des actifs souffrent de la crise. Mais force est de constater qu'il n'y en a que très peu, ce qui fait que, même s'ils le voulaient, les jeunes ne pourraient voter pour des gens ayant pour programme de ne plus favoriser les vieux!

En tout état de cause, même si certains continuent de prétendre que ce n'est pas le cas, ce rapport apporte une fois de plus un argument au soutien de la thèse de Louis Chauvel que la jeunesse française est maltraitée — et que c'est au bénéfice des retraités.

13 janvier 2016

Du débat sur la vaccination obligatoire

Ce mardi 12 janvier, des articles sont parus dans la presse pour annoncer un débat sur la vaccination obligatoire (Le Monde, Le Figaro). Cela fait suite à une baisse du taux de vaccination pour certaines affections alors que pour être pleinement efficace des taux de vaccination de l'ordre de 90% sont souvent nécessaires. L'article du Figaro mentionne ainsi que seuls 73% des nourrissons de 24 mois sont vaccinés contre la rougeole et que le taux parmi les moins de 30 ans est de 93% alors qu'un taux de 95% est estimé nécessaire pour protéger complètement la population.

L'article du Monde montre que la presse n'est peut-être pas pour rien dans la progression des théories fumeuses des anti-vaccins: il est très sérieusement dit que satisfaire à l'obligation vaccinale seule est impossible du fait de l'absence d'un vaccin trivalent. C'est bien sûr faux: pour satisfaire à l'obligation vaccinale, il suffit à un docteur de commander auprès de Sanofi un kit de 2 vaccins. Malgré les pénuries dues aux avanies de productions et à des épidémies qui se sont déclenchées suite à une baisse du taux de vaccination, des ruptures de stock ont eu lieu, mais il a toujours été possible de satisfaire à l'obligation vaccinale seule. De plus le kit de 2 vaccins est fourni gratuitement! Ce qui n'est pas possible est de disposer du confort de ne faire qu'une seule injection. On voit donc que Le Monde reprend sans les démentir les allégations de dangereux activistes. On peut aussi remarquer que la presse n'est pas pour rien dans la défiance qui s'est installée à propos du vaccin contre l'hépatite B: si les allégations sur un lien entre sclérose en plaque et ce vaccin ont bien été relayées, depuis qu'elles ont été infirmées — c'est à dire presque immédiatement — la confirmation du bénéfice apporté n'a pas fait l'objet de beaucoup d'attention.

On y lit aussi les propos renversants d'une député socialiste, auteur d'un rapport sur le sujet il y a peu:

« En cas de levée de l’obligation, il faudrait faire attention au message envoyé, trouver dans la langue française l’équivalent de “mandatory” en anglais, un terme qui voudrait dire “faites-le parce que c’est bon pour votre santé” »

Le problème, c'est qu'il suffit d'ouvrir un dictionnaire anglais-français pour s'apercevoir que mandatory se traduit par obligatoire! Bref, il est sidérant d'organiser un débat dont on laisse entendre qu'une issue possible est la fin de l'obligation vaccinale. Les propos de la député montrent un égarement certain: si la vaccination est obligatoire, c'est aussi parce qu'elle protège l'ensemble de la population et que des comportements de passagers clandestins peuvent miner son efficacité. Finasser en cherchant des termes nouveaux ne fait qu'insinuer l'idée que, finalement, ne pas faire vacciner ses enfants n'est pas si grave et qu'on peut s'en dispenser. Même la ministre Marisol Touraine le dit (cf l'article du Figaro): si l'obligation vaccinale est supprimée, le message envoyé est que c'est facultatif! En conséquence, le taux de vaccination ne pourra que baisser de ce fait.

Au fond, il n'y a guère que 2 issues à ce débat: soit l'obligation vaccinale est étendue — probablement au vaccin hexavalent — soit elle est maintenue en l'état. Ce qui doit décider de quel côté penche la balance est la dangerosité des maladies combattues ainsi que leur aspect contagieux. Au vu de la dangerosité de la rougeole, je pense qu'il est temps que la vaccination ROR devienne obligatoire, au minimum.

Mais qu'il soit jugé nécessaire d'organiser un tel débat est le signe du recul de la raison et du discours scientifique parmi la population, et surtout parmi la population dotée d'un certain niveau d'éducation. Malheureusement, cela s'accorde bien avec les réactions sur d'autres domaines, comme les ondes électro-magnétiques ou encore les OGMs. Le consensus scientifique sur leur innocuité y est souvent présenté comme une hypothèse surannée, les théories du complot comme crédibles si ce n'est comme étant la vérité.

28 novembre 2015

Qu'attendre de la conférence de Paris sur le climat?

La conférence de Paris sur le climat va bientôt s'ouvrir, et on peut se demander ce qui pourra bien en sortir. Dans le précédent billet, j'ai expliqué pourquoi l'objectif officiel des 2°C est intenable: pour le dire simplement, les émissions de CO₂ sont aujourd'hui trop élevées pour que le «reste à émettre» ne soit pas dépassé. Mais cela ne veut pas dire que rien ne peut être fait pour amoindrir les effets du réchauffement climatique. Je suis tout de même très circonspect sur les possibilités d'un changement rapide de tendance: il me semble que les combustibles fossiles seront encore longtemps la principale source d'énergie.

Les engagements d'émissions resteront volontaires

Le paramètre majeur de la lutte du changement climatique est la quantité de gaz à effet de serre qui seront émis au cours des décennies qui viennent. Plus les quantités émises, cumulées sur les décennies, seront importantes, plus l'élévation de température sera grande et plus la probabilité d'évènements catastrophiques augmentera. Dans le meilleur des mondes, les émissions mondiales maximales de gaz à effet de serre seraient l'objet des négociations: le lien étant direct avec l'élévation de température, on pourrait savoir où le curseur de la solution s'est arrêté. Dans le monde réel, la voie praticable est basée sur des engagements seulement volontaires de la part de l'ensemble des pays du monde, limités à l'horizon 2025 ou 2030. C'est un constat qui s'impose après un aperçu rapide de l'histoire des négociations climatiques.

Les USA n'ont jamais ratifié le protocole de Kyoto. D'une part, cela s'inscrit dans une attitude rétive du Congrès américain envers tous les traités contraignants au niveau mondial. Par exemple, les USA n'ont pas ratifié la Convention des Nations Unies sur le Droit de la Mer. Ça ne les empêche d'appliquer la dite convention et d'en être de fait les principaux garants, grâce à leur marine, la plus puissante au monde et qui est la seule à être présente partout dans le monde. D'autre part, les Républicains tiennent un langage climatosceptique ou ne comptent pas le réchauffement climatique parmi leurs priorités. En conséquence, ils s'opposent à tout traité contraignant sur les émissions et bloquent de ce fait toute ratification.

Les pays qui ont connu — ou connaissent — une forte croissance économique sont aussi opposés à des limitations imposées de l'extérieur, les voyant comme une entrave à leur développement économique. L'augmentation de leurs émissions n'est pas pour rien dans la difficulté à trouver un accord: en 1997, année de la signature du protocole de Kyoto, la Chine émettait 3Gt de CO₂ via la combustion des combustibles fossiles soit 14% du total mondial, en 2013, c'est passé à 9Gt soit 28% du total mondial (source AIE CO₂ Highlights 2015). Pendant ce temps-là les émissions mondiales sont passées de 22Gt à 32Gt; la totalité de la hausse des émissions sur la période est imputable aux pays hors OCDE.

De toute façon, les pays qui ne respectent pas leurs engagements ne font face à aucune sanction: le Canada s'est ainsi retiré du protocole de Kyoto juste avant que la période contraignante ne commence. Il faut dire que la cible était une baisse de 7% par rapport à 1990, on constate aujourd'hui une hausse de 28%… Beaucoup de pays n'ayant aucun espoir d'atteindre leur cible ont aussi refusé de prolonger pour la période supplémentaire jusqu'en 2020, comme le Japon. On peut donc considérer que l'aspect «contraignant» d'un traité est finalement faible, ce qui rend le désaccord entre Fabius et Kerry d'importance très relative.

La logique d'accord sur une cible mondiale contraignante a naturellement échoué à Copenhague par le rassemblement de toute ces causes. Les engagements ressemblent à des paris publics, les pays qui veulent réellement les tenir peuvent se retrouver les dindons de la farce. Les pays pauvres, qui émettaient déjà plus que les pays riches, ne voulaient pas de contraintes, de même que les États-Unis. Rien qu'avec la Chine et les États-Unis, on trouve là 44% des émissions mondiales: un accord sans ces 2 pays n'a pas grand sens. Les négociations se sont donc rabattues sur ce qui était encore praticable: les engagements volontaires des différents pays.

Les engagements proclamés par les différents pays sont en fait déjà connus, il est inutile d'espérer qu'aucun pays les révise pendant la conférence … et d'ailleurs des révisions importantes ne seraient pas très sérieuses. Une bonne partie des pays inscrits à l'ONU a déposé une contribution, à la suite de l'accord entre les USA et la Chine l'an dernier. Contrairement à la publicité positive du moment, il était déjà clair à l'époque que les pays s'engageaient à faire ce qu'ils avaient déjà décidé de faire, chacun de leur côté, c'est-à-dire pas grand chose d'autre que la prolongation des politiques actuelles. Un bilan de l'ensemble des engagements a été fait par l'UNFCCC, il en ressort principalement les 2 graphes suivants. indcs_2015_consequences.jpg indc_2015_emissions.jpg C'est le défaut de ces engagement non-contraignants: comme il n'y a personne vue comme un arbitre honnête ni ayant le pouvoir de faire respecter les engagements, la logique de la tragédie des communs joue à plein. Il n'y a pas vraiment de dynamique pour préserver le climat, ni de confiance réciproque, et ce d'autant qu'il n'y a pas de confiance, ni dans la tenue des engagements, ni dans la qualité de la vérification.

Les paramètres techniques

Un des problèmes qui se pose pour qu'un accord soit crédible est la capacité à vérifier son application. En effet, un moyen de respecter les engagements est de ne pas tout compter. Des erreurs dans le décompte des émissions masque aussi la réalité de la situation et donc trompe sur ce qui est possible et les conséquences des éventuels engagements pris. Or il s'avère que dans les pays en développement, la comptabilité des émissions n'est pas fiable: la Chine a ainsi annoncé réévaluer à la hausse sa consommation de charbon de 17% pour les années précédentes. Comme la Chine est le premier émetteur mondial et que la combustion du charbon représente plus de 80% de ses émissions, on voit que ce n'est pas une question mineure. Le problème est évidemment que mieux contrôler demande des moyens et risque de faire paraître certains pays sous un jour peu favorable. Les pays en développement, qui sont a priori les plus concernés par une sous-évaluation des émissions, y sont a priori peu favorables. Cependant, il me semble qu'il y a des chances d'amélioration sur ces points très techniques.

Ce qui a peu de chances de se réaliser sur ce point est plutôt un comptage plus sain des émissions dues à la «biomasse», essentiellement sur le bois. Les politiques favorisant la production d'énergie renouvelable sont des politiques qui encouragent l'utilisation du bois. À petite échelle, l'utilisation du bois est sans doute neutre sur le plan des émissions de CO₂. À grande échelle, c'est nettement plus douteux: cela implique de couper des arbres et donc un fort risque de contribuer à la déforestation. Cette dernière n'est pas incluse dans les statistiques énergétiques et donc pas incluse dans les classements généralement publiés. De plus, le pays qui brûle le bois n'ajoute rien à ses propres émissions: elles sont en fait ajoutées à celui d'où provient le bois. On voit qu'il y a une différence significative avec les combustibles fossiles où c'est toujours le consommateur qui se voit imputer les émissions. Le minimum serait d'exiger que les pays qui brûlent du bois importé justifient des plantations effectuées, via leurs propres actions, dans les pays exportateurs.

L'argent

Une des promesses faites aux pays pauvres est de les aider à hauteur de 100 milliards de dollars US par an. Un fonds a été créé pour recevoir les dons, principalement des états. Actuellement, les contributions atteignent royalement 10 milliards de dollars. Évidemment, cela ne veut pas dire que l'objectif ne sera pas atteint. En effet, il faut comprendre qu'il ne s'agit pas là uniquement de dons: l'aide au développement française inscrite en lois de finances est de l'ordre de 3G€, faire un don de 1G€ par est donc une réorientation importante de la politique d'aide aux pays pauvres. Le comptage effectué par l'OCDE pointe vers aussi vers les prêts bilatéraux, les prêts des banques de développement ainsi que vers les aides à l'export. En comptant tout ça, on arrive déjà à environ 60G$. Les banques de développement ayant promis de faire plus dernièrement, on devrait arriver au chiffre symbolique.

Pour conclure, inutile d'attendre ce qui serait un accord de long terme sur la question climatique à Paris. Cela supposerait de s'accorder sur une masse d'émissions pour le reste du 21ᵉ siècle ou alors sur un prix du carbone mondial, une méthode pour s'assurer de l'application des dispositions du traité. Cet objectif est totalement hors d'atteinte puisque les états sont logiquement jaloux de leur souveraineté. Il n'y aura donc pas de contrainte, ni réelle, ni écrite sur le papier en ce qui concerne les émissions de gaz à effet de serre. Par contre, il y a maintenant un grand nombre d'engagements nationaux et sans doute, au moins sur le papier, un mécanisme ne permettant que des objectifs plus ambitieux par pays pour les négociations qui suivront celles de Paris. Le freinage progressif des émissions peut potentiellement s'engager à partir de là. De l'autre côté, on peut espérer qu'il y aura sans doute quelques ajustements bienvenus sur la comptabilité, ce qui permet de dégager la voie pour des accords réellement plus contraignants. Les problèmes financiers sont plus ou moins résolus, ce qui devrait permettre aux pays les plus pauvres de signer.

12 novembre 2015

L'intenable objectif des 2°C

L'objectif officiel des négociations en cours sur le climat est de limiter le réchauffement climatique à moins de 2°C par rapport à l'époque pré-industrielle (cf par exemple les conclusions de la Conférence de Cancun en 2010). J'ai déjà exprimé ma conviction par deux fois que cet objectif était intenable. Cette année, on va y revenir, diverses voix de connaisseurs du domaine se sont clairement exprimées sur le sujet en disant en substance que les scénarios du GIEC qui annonçait réussir la quadrature du cercle ne faisaient que servir la soupe aux politiques pour leur permettre d'afficher une réussite de façade.

Mais d'abord, commençons par voir ce qui est nécessaire pour limiter le réchauffement à 2°C. Le GIEC se base pour cela sur divers modèles économétriques où les émissions de CO₂ sont une donnée de sortie qu'on met dans un modèle du climat. Un certain nombre de ces modélisations ont eu lieu, et le GIEC a établi des sortes de scénarios moyens qui donnent une idée générale de ce qu'il faut faire pour les respecter. Ils sont désignés sous le titre de Representative Concentration Pathways suivi du forçage radiatif (une mesure de l'effet de serre additionnel). 4 scénarios moyens sont donc pris par le GIEC: les RCP2.6, RCP4.5, RCP6 et RCP8.5. Le scénario RCP2.6 est celui correspond à l'objectif officiel de la limitation du réchauffement à moins de 2°C. AR5_syr_scenarios_synthese.jpg AR5_CO2_budgets.jpg

Comme expliqué dans le tableau ci-dessus, le scénario qui permet de limiter le réchauffement à 2°C implique que les émissions de CO₂ soient limitée à 1000Gt. Comme proposé dans cet éditorial originellement publié dans Nature Geoscience, on peut alors se livrer à un petit calcul:

  1. La déforestation représente 4 ou 5 Gt/an. Si on considère qu'elle va s'arrêter en 2050 avec une baisse linéaire, on obtient entre 80 et 100Gt
  2. La production de ciment et plus précisément la calcination du calcaire est le principal procédé émetteur de CO₂ non compté dans les statistiques énergétiques. En comptant qu'aujourd'hui, elles représentent entre 1.5 et 2Gt/an, on peut compter que d'ici 2100 environ 100Gt seront émises (l'éditorial parle de 150Gt).
  3. Depuis 2010, 5 ans ou presque se sont écoulés, et on peut penser que la situation en 2020 sera surtout la poursuite des tendances actuelles. Actuellement, la combustion des combustibles fossiles pour la production d'énergie émet grosso modo 32Gt/an. En 10 ans, on atteint 320Gt.
  4. Si on suppose qu'après 2020, il y a une baisse linéaire des émissions, pour ne pas dépasser les 480Gt qui restent, il faut que les émissions venant de la production d'énergie s'arrêtent en 30 ans, soit en 2050.

Comme l'hypothèse d'une baisse franche dès 2020 et l'élimination en 30 ans des industries des combustibles fossiles sont des hypothèses héroïques, on peut déjà se dire qu'atteindre l'objectif officiel va être très compliqué.

Mais ce n'est pas tout: le scénario RCP2.6 ne compte pas vraiment atteindre le zéro émission des combustibles fossiles en 2050. Par contre, des émissions négatives sont prévues à partir de 2070, que ce soit dans la production d'énergie ou dans l'extension des forêts. RCP_ff_AR5.jpg emissions_450ppm_AR5.jpg Pour cela, la plupart des modèles font appel au BECCS pour BioEnergy, Carbon Capture & Storage, en clair, on brûlerait du bois, activité supposée neutre en carbone et on capturerait le CO₂ produit grâce aux technologies de capture et séquestration du carbone. Sachant qu'il est douteux qu'à grande échelle, brûler du bois soit vraiment neutre en carbone et qu'il n'existe qu'une poignée d'usines pratiquant la capture et la séquestration du CO₂ de par le monde, cela paraît tout de même sacrément optimiste! Un autre petit détail: utiliser autant de biomasse nécessiterait d'y consacrer de l'ordre de 5 millions de km² de terres arables, soit un peu plus de la moitié de la superficie des USA… C'est pourquoi on peut affirmer que 2°C, c'est faisable … mais uniquement dans les modèles!

Ces modèles qui permettent d'atteindre l'objectif officiel ont tout de même un défaut: ils permettent de créer un écran de fumée devant la situation réelle des choses. En effet, écrire un scénario où on peut se permettre d'extraire massivement du CO₂ de l'atmosphère permet d'émettre plus au total, avant que la capture ne commence à faire son effet. Cela permet de conserver le discours politique sur les négociations: il faut toujours agir maintenant si on veut «sauver la planète», ce "maintenant" se déplaçant au gré des sommets sur le climat et des rapports du GIEC. Il est en quelque sorte toujours 5 minutes avant minuit. Pour illustrer le problème, en 2010, le programme des Nations Unies pour l'environnement a publié un document sur les efforts à faire pour combler entre les politiques menées ou annoncées et ce qu'il faudrait faire pour atteindre l'objectif des 2°C: l'objectif des émissions à l'horizon 2020 était de 44Gt d'équivalent CO₂ pour l'ensemble des gaz à effet de serre. En 2015, le résumé pour les décideurs de la nouvelle édition mentionne 42Gt pour … 2030! En 5 ans, on a gagné 10 ans d'émissions «gratuites»: c'est fort!

C'est pourquoi des voix se sont élevées pour dire qu'il fallait que les scientifiques cessent de tenir ces scénarios pour crédibles et de les maintenir en avant. Il faut remarquer que c'est déjà le cas pour l'objectif de limiter le réchauffement à 1.5°C: les scénarios n'étaient déjà pas très nombreux en 2010, ils ont disparu aujourd'hui. On pourrait certes penser qu'abandonner l'objectif plus ou moins présent depuis les années 90 dans les négociations risquerait d'en couper l'élan: si tout est perdu, à quoi bon? Mais en fait, les conséquences du réchauffement climatiques empirent progressivement avec son amplitude et signaler que l'objectif originel ne peut plus être atteint serait surtout un signe que la situation est hors de contrôle et que la détérioration est déjà bien engagée. Si on continue à apporter des bonnes nouvelles aux responsables politiques, ils sont en quelque sorte protégés des conséquences de la procrastination puisqu'ils peuvent toujours prétendre que l'objectif sera atteint pendant que les négociations piétinent.

Des échos clairs de la situation sont parus en langue anglaise, et dernièrement dans la presse en français. Mais à la fin de la COP21, il ne faudra pas se laisser abuser: si les engagements ne permettent pas de tenir l'objectif des 2°C ce n'est pas par manque de volonté politique aujourd'hui, mais parce que l'objectif est devenu inatteignable.

11 novembre 2015

Le réchauffement climatique

À l'occasion de la prochaine conférence sur le climat qui va se tenir à Paris, la COP21 selon son acronyme anglais, je vais écrire quelques billets pour en couvrir quelques aspects. Ce premier billet est consacré à la base scientifique du phénomène et des prévisions que font les modèles sur le futur du climat. Rien de novateur a priori, il s'agit surtout de fixer les idées en partant du dernier rapport du 1er groupe de travail du GIEC.

On peut définir le réchauffement climatique de façon générale par l'accumulation de chaleur par la Terre sur une longue durée. Cela se traduit par une hausse des températures moyennes à la surface du globe, de façon non uniforme: la répartition du stock de chaleur peut changer entre la surface des océans et les continents, par exemple. Mais cette accumulation peut se mesurer depuis l'espace: en effet, le seul moyen pour la Terre d'évacuer de la chaleur est de la rayonner et le principal apport — et de très loin — est la lumière du Soleil. Comme depuis les années 70, des satellites mesurent ces 2 données en permanence, il est désormais établi avec certitude que la Terre accumule de la chaleur. Cet apport est évalué à environ 0.45W/m² — en répartissant uniformément à la surface de la Terre — en moyenne entre 1971 et 2010 (p7 du résumé technique). En conséquence de quoi, les températures moyennes ont augmenté avec une tendance d'environ +0.12°C par décennie depuis les années 50 (p5) et sur les 10 années les plus chaudes jamais mesurées, 9 sont au 21ᵉ siècle et la manquante est 1998, année la plus chaude du 20ᵉ siècle.

Une fois les observations acquises, il reste à les expliquer. Comme la luminance du Soleil n'a pas beaucoup varié ces dernières décennies, il faut se tourner vers d'autres explications, et il s'avère que c'est bien l'accumulation de gaz à effet de serre qui expliquent le mieux les observations. RFs_AR5.jpg Il faut dire que l'effet de serre a une longue histoire tant théorique que pratique. Dès la fin du 19ᵉ siècle, on s'est aperçu que la température moyenne à la surface de la Terre était trop élevée par rapport à un bête calcul d'équilibre thermique. Il fallait donc expliquer la différence: rapidement, on s'est aperçu que divers gaz absorbaient dans l'infrarouge, comme la vapeur d'eau ou le gaz carbonique. D'où des tentatives de déterminer la variation de température moyenne si on augmentait la concentration de l'atmosphère en CO₂. Au fond, le modèle de l'effet de serre est assez simple à comprendre: en absorbant une partie du rayonnement émis par la surface de la Terre, l'atmosphère agit comme une couverture qui fait monter la température. Une partie de la chaleur est piégée et ce d'autant plus qu'une partie de l'énergie absorbée revient aussi à la surface de la Terre par des phénomènes de conduction thermique. Comme les bandes d'absorption du CO₂ ne sont pas confondues avec celles de l'eau, augmenter sa concentration provoque plus d'absorption et donc une hausse de la température.

Quant à l'origine de l'augmentation de CO₂, il n'y a aucun doute sur sa réalité et sur son origine. Cela vient de l'utilisation de combustibles fossiles, de la déforestation ainsi que de quelques procédés industriels. Le GIEC parle d'émissions depuis 1750, mais en fait, avant la Seconde Guerre Mondiale, les émissions étaient bien moins élevées. Ce n'est qu'avec l'exploitation massive du pétrole que les émissions ont véritablement décollé. fossil_fuels_AR5WG1.jpg Au total en 2010, les émissions de CO₂ dues aux activité industrielles (combustion de combustibles fossiles plus divers procédés) dépassent les 30 milliards de tonnes (Gt) par an, auxquelles il faut ajouter 5Gt/an pour la déforestation et l'équivalent d'un peu moins de 15Gt/an pour les autres gaz à effet de serre comme le méthane et le N₂O, pour un total d'à peu près 50Gt/an d'équivalent CO₂.

Ensuite, le GIEC détermine des scénarios moyens et lie des masses d'émissions à une probabilité de rester sous une certaine élévation de température. Il est important de noter que ces quantités sont données à partir de 2011: nous sommes en 2015 et ces budgets sont déjà entamés. AR5_CO2_budgets.jpg Pour accomplir l'objectif proclamé d'avoir plus de 2 chances sur 3 de limiter le réchauffement à moins de 2°C, il restait donc à peu près 1000 Gt de CO₂ possibles à émettre (les autres gaz à effet de serre ne sont pas comptés dans ce budget, mais modélisés à part).

Le premier effet du réchauffement climatique est la hausse du niveau des mers par 2 voies: la dilatation thermique et la fonte des glaciers terrestres. Ces 2 termes expliquent environ 80% de la hausse observée du niveau des mers; le reste est dû à la différence entre le pompage des nappes phréatiques et du stockage dans des barrages. La précision des observations de la hausse du niveau des mers s'est grandement améliorée à partir des années 90 quand le premier des satellites d'altimétrie radar a été lancé. Avec ses successeurs, on observe depuis plus de 20 ans une hausse d'environ 3mm/an du niveau moyen des mers. Au 21ᵉ siècle, la différence entre les situations où il y aurait un fort réchauffement et celui où il serait plus limité est relativement faible: si on limite le réchauffement à 2°C, on peut s'attendre à une hausse du niveau des mers de 40cm contre 75cm dans le cas de la prolongation tendancielle (grosso modo +4 ou +5°C). Mais une vraie différence apparaît à plus long terme: la fonte de la calotte du Groenland se produit vers un réchauffement de +1.5°C et une hausse du niveau des mers de 6m à l'échelle de plusieurs millénaires, et à l'échelle de plusieurs siècles, le cas du fort réchauffement conduit à une élévation de l'ordre de 4 à 5m en moyenne, contre moins d'un mètre s'il est contenu. Combiné aux autres changements annoncés dans la répartition des précipitations, de la hausse de la fréquence des épisodes de fortes précipitations, on comprend qu'il y a là motif à agir, ne serait-ce que pour limiter la vitesse des changements les plus néfastes.

28 octobre 2015

Tract ou journal?

Mardi après-midi, est paru sur le site du Monde un article intitulé Le nucléaire, une solution pour le climat ?, signé par Pierre Le Hir. A priori, on s'attendrait à une comparaison des émissions de CO₂ entre diverses technologies, mais en fait, il semble bien qu'il s'agit en fait de relayer la parution d'un argumentaire anti-nucléaire par diverses associations opposée à cette technologie. En effet, la structure de l'article est composée d'une introduction où on parle de la position d'EDF, puis un corps où l'argumentaire des opposants est développé, pour terminer pour citer le GIEC, mais surtout dans ses remarques les plus négatives.

Évidemment, le nucléaire ne règlera pas à lui tout seul le problème des émissions de CO₂ et du réchauffement climatique, mais comme personne ne prétend qu'une technologie peut y parvenir seule, la question est plutôt de savoir s'il peut apporter quelque chose. On peut alors se retourner vers quelques faits simples. Tous les ans, l'AIE publie un inventaire mondial des émissions de CO₂ venant de la production d'énergie, ainsi que son résumé, gratuit et accompagné d'un tableur. La dernière édition disponible aujourd'hui, celle de 2014, recense les émissions de 2012. On y constate une différence d'émissions de 4 tonnes de CO₂ par habitant entre la France et l'Allemagne, dont 3.3 pour le seul poste «production de chaleur & d'électricité». La source de cette différence est bien connue: en Allemagne, presque 50% de la production d'électricité est assurée par du charbon et les 2/3 à partir de combustibles fossiles, alors qu'en France, les moyens décarbonnés assurent plus de 90% de la production et le nucléaire entre 75 et 80%. Comme on peut le constater, cette expérience montre que le nucléaire a bien le potentiel de réduire substantiellement les émissions dans certains pays, et non des moindres! CO2_FRvsDE.jpg

Un autre argument avancé est que le nucléaire émet lui aussi du CO₂. Ce n'est pas faux: lors de la construction, on a besoin de ciment et d'acier, qui nécessitent d'émettre du CO₂ pour les produire. Afin de comparer tous les effets, le concept d'émissions sur le cycle de vie a été développé. Il s'agit de comptabiliser toutes les émissions qui ont servi à produire de l'énergie, du début de la construction à la démolition. Le GIEC fournit dans le résumé technique de la partie sur les solutions possibles au problème du réchauffement climatique le graphe suivant p41 (coupé pour ne tenir compte que des technologies actuellement disponibles). LCA_technos.jpg On constate que le nucléaire est parmi les moins émetteurs: la médiane des études le met à égalité ou presque avec l'éolien. On est donc bien en peine de trouver le moyen de production d'électricité qui produirait vraiment moins de CO₂ par unité d'énergie, ce qui est quand même l'essentiel pour lutter contre le réchauffement climatique. Le solaire phovoltaïque, par exemple, émet plus que le nucléaire, ce qui ne l'empêche pas d'être apprécié par les opposants au nucléaire. C'est à peine si l'auteur de l'article mentionne cela, tout au plus il mentionne que le GIEC classe le nucléaire parmi les sources à faibles émissions de carbone.

Les autres problèmes du nucléaire existent bien, mais aucun des problèmes des alternatives ne sont exposés. Par exemple, nulle mention du problème de l'intermittence de l'éolien ou du solaire. Le scénario de l'ADEME qui prévoit un mix électrique 100% renouvelable est mentionné, sans dire que certaines technologies nécessaires n'existent pas à l'heure actuelle. Enfin, quand on mentionne les problèmes d'acceptation par la population, c'est évident que tout dépend de la perception qu'en ont les gens … qui serait peut-être améliorée par une information impartiale qui éviterait de n'instruire qu'à charge.

Cet article semble donc être avant tout une reprise de la communication des associations anti-nucléaires. Même pour un «compte-rendu», on serait tout de même en droit d'attendre que les inexactitudes dans leurs positions ne soient pas relayées complaisamment. Et qu'à la question posée dans le titre, on apporte la véritable réponse que les faits appellent: Oui, le nucléaire est une solution pour le climat, mais seulement partielle et s'il devient mieux accepté et moins cher!

25 septembre 2015

Optimisation

Il est récemment apparu que le groupe Volkswagen, célèbre fabricant d'automobiles, avait inclus dans le logiciel embarqué dans certains de ses véhicules une fonction permettant de détecter qu'un test officiel était en cours et d'ajuster les paramètres du moteur pour s'assurer de respecter les réglementations anti-pollution. Lors d'essais en conditions réelles, une association s'est aperçue que les Volkswagen émettaient bien plus sur route que lors des tests, contrairement au véhicule tank d'une marque concurrente, BMW. Après quelques péripéties, Volkswagen a admis qu'un logiciel lui permettait d'adapter les émissions lors d'un test.

On comprend bien que ce type de manœuvre soit interdite: pour que les normes anti-pollution soient utiles, il faut que les tests soient représentatifs, dans une certaine mesure, du comportement réel des émissions de polluants. Utiliser un logiciel qui modifie les réglages du moteur quand un test est détecté ruine complètement cette représentativité puisqu'on peut alors faire des choses très différentes entre le test et l'utilisation réelle. Les mesures effectuées et répercutées dans la presse indiquent une multiplication par 30 et plus des émissions de NOx entre les tests et la conduite sur route de montagne (voir p62 du pdf). Que la production d'oxydes d'azote soit facilement modifiée n'est pas une surprise: cela résulte de la modification du mélange, où plus d'air injecté résulte dans une plus grande quantité d'oxydes d'azotes créés.

Le premier constat qu'on peut faire est que les automobiles sont désormais en grande partie contrôlées par leurs ordinateurs de bord qui sont capables de faire un certain nombre d'ajustements d'elle-mêmes. Avec l'augmentation de la puissance de calcul, on a non seulement droit au GPS, mais il est aussi possible d'essayer de deviner le comportement de l'automobiliste pour passer les rapports de vitesse, des boîtes automatiques avec de plus en plus de rapports, etc. Dans le cas présent, les ordinateurs de bords sont peut-être désormais capables d'ajuster les paramètres du moteur pour optimiser la puissance et la couple ou encore la consommation de carburant, comme le font les pilotes de F1 en piste. Avec les avancées en termes de machine learning, on peut construire des machines qui reconnaissent bien des situations et leur apprendre différents comportements suivant le situation. Bien sûr cela a des conséquences en termes de pollution, puisque le moteur ne passe sans doute pas les tests anti-pollution en dehors d'un mode de fonctionnement relativement étroit. Parmi les autres désagréments, on peut aussi maintenant pirater des voitures pour les mettre en carafe. C'est le revers de la médaille du surplus de confort et de l'optimisation des performances.

L'optimisation, justement: aujourd'hui, les produits complexes comme les automobiles sont le résultats de compromis et donc d'optimisations: on cherche à obtenir les meilleures performances, au meilleur prix. Les performances sont elle-mêmes très diverses: il faut que la voiture soit confortable, facile à conduire, performante, peu polluante: ces contraintes ne sont pas nécessairement toutes compatibles entre elles. D'où l'idée d'établir des comportements différents suivant la situation: avec la puissance de calcul actuelle, c'est envisageable! C'est même facilité par le côté stéréotypé des tests officiels, dont il est bien difficile de s'échapper. En effet, un test officiel a pour but d'être reproductible afin de donner une autorisation à la vente: le réaliser dans des conditions contrôlées et une procédure très idéalisée aide à atteindre ce but. Il se doit aussi de ne pas être trop long ou trop compliqué faute de quoi, il serait extrêmement cher et ouvrirait la porte à la contestation. Cette affaire Volkswagen va sans doute amener à ce que les tests d'homologation se déroulent dans des conditions plus proches de la réalité et pourquoi pas en situation réelle. On peut aussi noter que le fait d'établir des normes peut conduire à perdre de vue le but final de l'optimisation. C'est un peu ce qui s'est produit avant la crise des subprimes: un certain nombre de produits financiers ont été construits pour répondre à une spécification émise par les agences de notation. Les ingénieurs employés par les banques ont été chargés d'y répondre, avec pour seul but de passer le test des agences et non d'éviter le défaut de paiement. Pour Volkswagen, ceux qui ont décidé d'inclure la fonction «spécial test» ont perdu de vue le but global qui était fixé: atteindre de bonnes performances tout en polluant un minimum.

Enfin, cette histoire montre aussi qu'il est bien difficile de cacher éternellement des comportements peu recommandables lorsqu'on est une firme mondiale. Il y aura toujours quelqu'un pour tester les produits quelque part dans le monde! Et comme ils sont souvent motivés, on peut s'attendre à ce qu'ils arrivent à leurs fins. Le comportement dont il est question est bien difficile à discerner pour le commun des mortels: bien malin qui peut déterminer la composition des gaz d'échappements sans équipement perfectionner ou comparer tests officiels avec comportement routiers sans un minimum d'organisation. Alors de là à cacher une fonction qui ferait juste tomber un produit en panne après une certaine date, ce serait du pur délire tellement c'est un comportement facile à déceler: décidément, les tenants de la prétendue «obsolescence programmée» sont très proches des théoriciens du complot! Au fond, la meilleure garantie que les produits vendus aujourd'hui respectent bien la loi, c'est qu'ils soient vendus à grande échelle.

7 septembre 2015

Repli sur soi de la France

Depuis 2011, la guerre civile fait rage en Syrie et en Libye. Depuis 2014, une créature de la guerre civile syrienne, Daesh, s'est répandue en territoire irakien. Rien que pour la seule Syrie, la lecture du chapeau de la notice wikipedia nous apprend qu'il y a 11 millions de déplacés, soit à peu près la moitié de la population estimée avant la guerre. Fuyant les destruction, la brutalité des combats et des différentes force en présence, il y a bien sûr de nombreux réfugiés qui ont quitté le pays, d'abord pour les états voisins. Des camps y ont été installés. Mais comme la guerre dure depuis 4 ans et demi, l'espoir d'une solution quelconque au conflit semble toujours lointaine, l'afflux de réfugiés continue. De plus en plus de ces réfugiés cherchent donc des solutions définitives, plus loin de leur pays d'origine, vers des pays où ils espèrent pouvoir vivre en paix. Cela les amène naturellement à vouloir venir en Europe et particulièrement dans les pays les plus riches, en Europe de l'Ouest, où la paix civile règne, quoiqu'on puisse en penser, depuis 70 ans. Et c'est ainsi que les demandes d'asile sont en forte augmentation depuis 2011. demandes.jpg Quant aux demandes acceptées, on peut voir l'évolution sur les 2 graphes ci-dessous. La Suède ne figure pas sur le 2e graphe, du fait du grand nombre de demandes acceptées par rapport à la population: près de 3000 demandes acceptées par million d'habitant. Pour mémoire et permettre une comparaison, l'accroissement naturel de la population française est d'environ 0.4% soit 4000 par million d'habitants. The Economist propose aussi un graphe plus complet. On peut y constater que la France est le troisième pays qui accepte le moins facilement d'accorder l'asile, après la Hongrie, dirigée par un parti flirtant avec l'extrême-droite, et la Grèce, dont on connaît les difficultés actuelles. asile_prop.jpg asile_vs_pop.jpg Ces graphes semblent indiquer quelque chose d'assez logique: bien loin d'être le résultat d'un accroissement de la misère dans le monde, l'afflux actuel d'immigrants est dû aux guerres civiles et aux réfugiés qu'elles engendrent. Cela semble confirmé par les chiffres de l'ONU.

Pendant ce temps-là en France, la rhétorique des partis classiques se sert toujours des immigrants économiques — ou de ceux qui voudraient vivre des aides sociales — pour refuser autant que faire se peut d’accueillir ces réfugiés. La semaine dernière sur Europe 1, Laurent Fabius a disserté sur la nécessité de ne pas accueillir les migrants économiques. Ce dimanche, Alain Juppé a fait de même en rajoutant un agrandissement de la liste des «pays sûrs», cette fiction légale qui permet de déclarer sûrs des pays qui n'en sont pas vraiment. Cette semaine, j'ai pu entendre Christian Estrosi qui demandait peu ou prou qu'on coule à peu près tous les navires en dehors de l'Union Européenne poru éviter qu'ils ne servent aux passeurs tout en proclamant, bien sûr, son attachement au droit d'asile. François Hollande a finalement accepté le principe de quotas de réfugiés, qu'il refusait jusque là, mais c'est après la publication de la photo d'un enfant mort sur une plage.

Il faut dire que nos dirigeants sont assez représentatifs de la position moyenne des Français. La semaine dernière, un sondage rapportait que 56% étaient opposés à l’accueil des réfugiés. Ce dimanche, un autre sondage donnait à peu près les mêmes proportions. En prime, on voyait que les personnes interrogées affirmaient que la France était aussi voire plus accueillante que l'Allemagne! Comme on vient de le voir et même sans prendre en compte les évènement récents, ce n'est absolument pas le cas et la France est nettement plus restrictive. Cette perception est favorisée par les dirigeants qui ne manquent pas de jouer sur «la France, pays des Droits de l'Homme», mais en même temps, les dirigeants continuent à le dire sans doute parce qu'ils savent que ce préjugé de la France très accueillante est bien ancré dans la population.

L'impression qui se dégage est que les politiques modérés ont disparu, préfèrent se taire ou suivre la rhétorique dominante sur la question. Au fond, il semble quand même bien que les Français soient de plus en plus hostiles à l'immigration et c'est pour ça que des discours plus violents se rencontrent plus souvent de nos jours: il ne me semble pas que dans les années 90, un dirigeant de haut niveau au RPR ou à l'UDF aurait appelé à couler des bateaux. De la même façon, il semble bien qu'être opposé à l'immigration est un plus pour obtenir des voix de nos jours: on a donc de plus en plus d'élus clairement opposés à l'accueil d'étrangers en France, quelle qu'en puisse être la raison et quelle que puisse être la situation internationale, guerres civiles ou pas. C'est malheureusement cohérent avec un repli sur soi de la population française et avec une disparition progressive des discours rationnels dans la vie publique. Ce n'est pas un secret que ce blog se lamente régulièrement sur le manque de prise des arguments raisonnables sur des questions diverses comme les OGMs ou le nucléaire. Là encore, on a un exemple similaire: en dépit d'indices très concordants, il semble bien que les Français soient imperméables pour une bonne part à un discours de vérité qui lie l'arrivée actuelle d'étranger aux guerres civiles qui s'éternisent au Proche-Orient. Malheureusement, on pourrait être engagé dans une sorte de cercle vicieux, où un sentiment de déclin fait préférer des positions plus extrêmes et moins basées sur l'analyse des faits, ce qui n'aboutit qu'à des échecs et à une perpétuation du sentiment de déclin.

2 mai 2015

Le scénario d'électricité 100% renouvelable de l'ADEME

Médiapart a publié sur son site un pré-rapport d'une étude commandée par l'ADEME sur la faisabilité d'une production d'électricité totalement renouvelable en France. Par la suite, devant cette fuite, l'ADEME n'a guère eu d'autre choix que de publier elle-même ce document provisoire sur son site web. Ce post concerne le contenu de ce document, et il fait suite à celui concernant d'autres scénarios de production électrique 100% renouvelable (ou quasiment).

Comme explique dans le post précédent, le scénario de l'ADEME peut s'appuyer sur des précédents et ne sort pas de nulle part. En fait, pour faire le scénario le plus crédible possible, on peut déduire de ces précédents les choses suivantes:

  1. L'éolien terrestre va constituer la première source d'électricité. La production est répartie tout au long de l'année avec en moyenne un surplus en hiver, ce qui ressemble à la consommation. De plus, c'est aujourd'hui la source renouvelable d'électricité la moins chère aujourd'hui; les baisses de prix à prévoir pour en faire l'acteur dominant peuvent se révéler faibles. La France bénéficie aussi d'une situation relativement favorable du point de vue de l'intermittence avec une forte différenciation entre les régimes de vent au sud (Mistral et Tramontane) et au nord (vents d'Ouest venant de l'Atlantique). En supposant une amélioration de la technologie, le facteur de charge — la quantité produite rapporté au maximum possible — augmente à conditions météorologiques constantes, ce qui limite les besoins de stockage ou de lignes THT.
  2. Comme l'éolien ne suffit pas à lui tout seul, il faut lui adjoindre une autre source: en général, le photovoltaïque est indiqué car on peut en installer un peu partout, sur les toits dans le pire des cas. Comme une baisse des prix importante s'est produite ces dernières années, il suffit de prolonger la tendance pour obtenir des prix bas. Cependant, le photovoltaïque et l'énergie solaire en général présentent 2 gros défauts: la production est concentrée l'été et en milieu de journée ce qui provoque des pics de production.
  3. En conséquence, il va falloir mobiliser de la demande mobile au cours de la journée ou de la semaine. En invoquant un mix de smart grid, de chauffage électrique et de voitures électriques, comme dans le scénario du Fraunhofer Institut, c'est réalisable. Il faut cependant rester à des puissances déplaçables raisonnables sous peine de paraître peu crédible.
  4. Pour compléter la gestion dynamique de la demande, il faudra du stockage. En effet, il est impossible de s'affranchir totalement de l'intermittence rien qu'avec le solaire et l'éolien: pour passer les périodes sans vent ni soleil, il faudrait construire énormément plus de capacités de production que l'énergie totale consommée ne le nécessite. Il faut aussi limiter cette composante, car cela coûte cher, tant en production qu'en argent. De ce côté, la France présente un atout avec ses lacs de barrage qui permettent de limiter cet appel au stockage.
  5. Construire des lignes THT et se reposer sur le commerce international est aussi utile: c'est une façon relativement économique d'éponger les surplus et de remplir les creux. Une nouvelle fois, une minimisation des besoins est importante, non pas tant à cause des coûts que de l'opposition générale que la construction de ces lignes suscite
  6. Enfin, évidemment, il faut que les coûts des technologies favorisées soient présentés comme plutôt faibles, sinon le scénario ne semblerait pas très intéressant.

Le scénario de référence

Pour sélectionner la répartition entre technologies ainsi que la répartition spatiale des installations, un logiciel d'optimisation est utilisé pour minimiser les coûts totaux avec en entrée les coûts de chaque technologie par région ainsi que les coûts des lignes THT à installer. Les puissances à installer sont calculées région par région, les réseau THT est optimisé en minimisant les liens entre régions. Les conditions aux bornes sont que la situation commerciale de la France est neutre — autant d'imports que d'exports sur l'année — avec une capacité d'import-export fixée à l'avance au niveau actuel, que le stockage est équilibré sur l'année — autant d'entrées que de sorties — et que la consommation totale annuelle est de 422TWh.

Pour couvrir cela dans le scénario de référence, environ 106GW d'éolien et 63GW de solaire PV sont installés pour compléter les installations hydro-électriques déjà présentes aujourd'hui, 3 GW de bois ainsi que diverses technologies plus ou moins obligatoires à présenter (solaire à concentration, géothermie, ordures ménagères …) mais qui n'ont aucun impact substantiel sur le résultat de la simulation. Le réseau THT modélisé a une capacité de 68GW, une augmentation a priori raisonnable de 30% par rapport à ce qui serait nécessaire aujourd'hui selon le même modèle. Le stockage est représenté par les 7GW de stations de pompage — plus ou moins ce qui existe déjà en France —, 12GW nouveaux de stockage court terme ainsi que 17GW de stockage long terme sous forme de méthane pour servir l'hiver. On peut voir la répartition complète pour les moyens de production «primaires» ci-dessous, ainsi que la répartition de la production qui en découle. mix_install_reference.jpg mix_prod_reference.jpg

Comme on peut le voir, l'éolien sous ses diverses formes représente l'essentiel de la production primaire avec environ les 2/3 du total, l'éolien terrestre en assurant plus de la moitié à lui seul. Le solaire PV et l'hydraulique se partagent quasiment le reste à part presque égales avec une petite place pour les autres technologies. L'importance de l'hydraulique permet à ce scénario de partir sur des bases plus sympathiques que ceux étudiant l'Allemagne: avec les autres technologies renouvelables plus ou moins pilotables ou fonctionnant de façon continue, presque 25% de la demande est couverte. L'importance du stockage n'apparaît pas sur ces graphes — dommage! Mais la façon de le gérer est la principale innovation, me semble-t-il, de cette étude et ce qui permet de la rendre réaliste. En effet, les études passées en revue dans le post précédent achoppent sur deux points: s'il n'y a qu'un seul moyen de stockage adaptable, la puissance installée augmente fortement pour aller chercher l'ensemble du surplus dans les heures de forte production intermittente. En conséquence, le facteur de charge finit par baisser de façon dramatique ce qui fait exploser les coûts: une bonne partie des installations est de fait à l'arrêt toute l'année ou presque. Si on ne met pas de stockage, on doit alors utiliser du réseau à foison, ce qui finit par devenir irréaliste à cause de l'impopularité des lignes THT.

Le stockage est réparti en 3 classes: le court terme, le moyen terme (pompage) et le long terme (méthane). Un des points les plus importants est que le stockage de long terme coûte plus cher que les autres et il faut absolument en minimiser la puissance installée. De même pour les autres, même s'ils sont modélisés avec un coût nettement plus faible, les faire tourner le plus possible minimise les coûts totaux. Pour minimiser la puissance installée de l'entrée et de la sortie en stockage de long terme, l'étude autorise largement le recours aux transvasements entre stockages ainsi que le recours aux importations, même pour le remplissage (cf par exemple les figures 53 et 54 p44). On peut dire que c'est un succès: le facteur de charge de la transformation électricité vers gaz est d'environ 40% avec des mois où elle tourne en permanence comme le mois de juin (cf figure 72 p67) et pour le mois de février, c'est la sortie qui fonctionne à plein régime tout le mois. La flexibilité du stockage associé à son coût raisonnable est à mon avis ce qui explique, avec la proximité des coûts des technologies utilisées, le tir groupé sur les coûts qu'on constate dans l'étude. Cette façon de gérer le stockage permet aussi de limiter la gestion de la demande à une dizaine de GW. Associé aux 30GW de stockage, ça permet d'absorber l'ensemble des à-coups tout en restant dans une zone qui semble à peu près réaliste: c'est la première étude 100% renouvelable que je lis qui entre dans cette catégorie.

Le scénario de référence est complété par des variantes ou des concurrents:

  1. Un scénario où la demande est plus forte: 510 TWh contre 422TWh. C'est le 3e pire cas au niveau des coûts à cause de l'usage de certaines des technologies les plus chères qui sont écartées de ce fait du scénario de référence. Mais on reste à 5% du coût au MWh du scénario de référence, contrairement à ce que disent les titres (cf plus bas).
  2. Un scénario où il y a moins d'hydroélectricté disponible. En conséquence, c'est plus cher car il faut à la fois installer des moyens de production supplémentaires, accompagnés d'un peu de stockage et de réseau. Le MWh est 3% plus cher que dans le scénario de référence.
  3. Un scénario où les énergies marines sont nettement moins chères. Surprise: le coût au MWh est moins élevé en conséquence (-5%). Ça permet de constater que quand les prix baissent, on paie moins cher. C'est un scénario qui pourra laisser un peu d'espoir aux partisans de ces énergies, dont les perspectives sont pratiquement inexistantes si elles restent aussi chères et que le stockage baisse ses prix comme prévu par le scénario de référence.
  4. Un scénario où le coût des lignes THT est doublé. C'est le pire cas au niveau des coûts au MWh (+8%)! Ça s'explique par le fait que la simulation se met à installer des moyens de production chers et à renforcer le stockage. Combiné au dernier scénario, ça montre que le NIMBY est potentiellement très toxique pour les énergies renouvelables électriques (cf plus bas).
  5. Un scénario où on accepte 5% d'électricité non-EnR fabriquée en France et un autre où on en accepte 20%. Ces scénarios permettent de s'apercevoir que le stockage, même avec les hypothèses les plus optimistes ne fait pas vraiment le poids face aux combustibles fossiles, même frappés par un prix du carbone de 100€/tonne. Le scénario avec 80% d'EnR est le moins cher à coût du capital constant (-6%). Le stockage de long terme disparaît totalement au profit des turbines à gaz: c'est peut-être la meilleure preuve qu'il est très difficile de se débarrasser des combustibles fossiles. Les combustibles fossiles remplissent actuellement la fonction qui est dévolue au stockage de long terme, puisque le stockage d'énergie est juste une sorte de tas avec des choses à brûler quand on besoin d'énergie
  6. Un scénario avec 40% d'EnR où le nucléaire apparaît en force. Arrive à rester moins cher malgré le prix du nucléaire dans la fourchette haute des énergies: le stockage est quasi-totalement éliminé à part le pompage, le réseau est fortement diminué, ce qui compense le coût du nucléaire.
  7. Un scénario sans solaire PV. C'est un des plus chers (presqu'autant que le scénario haute consommation), car il faut recourir aux énergies marines — les plus chères de l'étude — et augmenter les capacités de stockage. Cette variante montre le côté relativement complémentaire du PV avec l'éolien.
  8. Un scénario sans éolien avec de grands rotors. Un peu plus cher (+2%), il suffit juste de jouer à la marge sur le PV, le réseau et le stockage. Cette variante montre à mon sens — même s'il est difficile d'en être sûr vue qu'elle n'est pas très détaillée — que la flexibilité du stockage permet d'amortir le profil plus intermittent.
  9. Un scénario avec un taux d'actualisation de 2%, extraordinairement faible. Sans surprise, c'est le moins dispendieux des scénarios: quand des moyens de production à coûts fixes sont financés presque gratuitement, c'est forcément moins cher!
  10. Un scénario où l'éolien terrestre est plafonné à 47GW environ, soit 2 fois moins que l'optimum de la simulation, et le PV de grandes dimensions à 24GW, une baisse d'un tiers. C'est le 2e scénario le plus cher (+7%) car ce sont les moyens de production les moins chers de l'étude. Il faut recourir aux énergies marines pour combler le manque. Dans ce scénario, le NIMBY est un gros problème pour tout le monde, y compris pour bâtir le réseau (cf variante 4.) d'où sa forte toxicité potentielle.

Les problèmes du document

Le premier problème de ce document, c'est qu'il n'est pas fini. Outre qu'il n'y a pas de résumé et qu'on peut facilement noter la présence de coquilles et de phrases bizarres, cela donne sans doute lieu à un contre-sens. Une des conclusions du rapport est que la maîtrise de la demande est un élément clé pour limiter le coût (titre p84) mais que les contraintes d'acceptabilité liées au réseau ne sont pas un obstacle (titre p86) ou encore que de fortes contraintes d’acceptabilité sociale sont compatibles avec un mix 100% renouvelable (titre p81). Ces phrases sont assez attendues dans un rapport de ce type, qui est après tout souvent commandé pour montrer la faisabilité du scénario étudié et relayer ce que pense le commanditaire. Mais en fait, la figure 77 (p71, oui, il faut suivre) qui sert de base à la publicité pour la maîtrise de la demande est fausse: le MWh ne coûte pas 151€ dans le cas de la haute consommation mais 125€ comme indiqué p112 dans le dernier tableau ainsi que dans la discussion p85. La différence est due au fait que sur la figure 71, le coût total est divisé par une consommation fixe de 422TWh et non par la consommation de la variante… D'ailleurs si on lit le dernier tableau pour les coûts totaux — qui paraît coller avec les hypothèses, lui — on voit que toutes les variantes, sauf une, se tiennent dans ±8% du scénario de référence. L'exception est le cas où le coût du capital est de 2%. On peut trouver la répartition des coûts pour certains scénarios sur le graphe ci-dessous: cout_MWh3_annote.jpg

Que l'augmentation de la consommation ne soit pas un gros problème découle en fait des hypothèses prises. Régulièrement des études sur le potentiel des énergies renouvelables trouvent qu'il y a potentiellement assez d'énergie à capter pour couvrir les besoins de consommation de n'importe quel pays développé. Donc tant que les gisements d'énergie peu chères ne sont pas épuisés, l'augmentation du volume d'énergie produite n'est pas un problème de coûts. C'est donc naturellement que dans le scénario à forte consommation, où les énergies chères sont peu utilisées, que le coût de production de l'électricité «primaire» augmente dans des proportions raisonnables (+6%). D'ailleurs, il est important de remarquer que la contradiction dans le discours plaidant à la fois pour de fortes économies d'énergie et assurant que les énergies renouvelables vont devenir peu chères très bientôt: les économies d'énergies ne sont nécessaires que si toutes les sources d'énergies sont chères dans le cas contraire, elles ne servent que comme une sorte d'assurance contre une forte hausse des prix. gisements_utilises.png Par contre, ce qui pourrait se produire, c'est une forte hausse des besoins de stockage et de renforcement du réseau. On note effectivement une augmentation du coût du stockage dans le scénario à haute consommation … mais la modélisation du réseau, qui inclut des frais fixes, a pour conséquence que le scénario à haute consommation a les coûts de réseau par MWh consommé les plus bas! Les deux se compensent à peu près et on touche là à une des limites de la simulation.

En effet, le modèle suppose que le coût du réseau de distribution jusqu'aux lignes haute tension de 63 et 90kV est supposé fixe (p69). Or, plus il y a de moyens de production décentralisés, comme l'éolien ou le solaire PV, plus il faut renforcer le réseau, de la basse tension aux lignes haute tension, et non seulement les lignes THT pour le transport à grande distance. En effet, le solaire PV sur toiture est branché sur le réseau de distribution mais la puissance produite dépasse facilement la puissance couramment consommée pour une habitation, les grandes centrales solaires et l'éolien sont souvent connectés au réseau haute tension. L'étude ignore donc ce poste de coûts, pour être réellement représentatif, il aurait sans doute ajouter un petit quelque chose. C'est en tout cas ce que laisse penser un document de la Dena allemande dont on peut simplement extraire un graphe, en se rappelant que le réseau basse tension est tout de même moins cher au km que les lignes THT: expansion_reseau_allemand.jpg

Quant aux prix, il est important de se rappeler que ce sont les hypothèses de départ et non les conclusions de l'étude: en d'autres termes, le mix final et les coûts donnés à la fin dépendent directement de ces paramètres. Or, il s'avère que les projections à long terme sont dans le domaine de l'énergie le plus souvent fausses; il n'est qu'à voir la qualité des prévisions en ce qui concerne le prix du pétrole. Les hypothèses prises sont résumées par les figures suivantes: prix_sources_enr.jpg prix_stockage.jpg Il est aussi important de connaître le taux d'actualisation pris pour estimer ces coûts: 5.25%. Malheureusement, pour des installations de production, le taux le plus souvent choisi est 8%, en sus de l'inflation. C'est par exemple le taux pris par la Cour des Comptes et EDF pour évaluer les coûts du nucléaire actuel. Avec un taux aussi bas, et en prenant pour base une note du Syndicat des Énergies Renouvelables, on trouve qu'actuellement avec un taux de 5.25%, l'éolien devrait coûter aux alentours de 60€/MWh… La note du Syndicat des Énergies Renouvelables, venant en réponse à un rapport de la CRE trouvant en substance que les rentabilités étaient trop élevées, malgré un rythme d'installation atone, montre que peu sont prêts à investir avec une rentabilité aussi faible. D'un autre côté on voit des technologies fort chères ou quasiment inexistantes baisser radicalement leurs prix. C'est ainsi le cas de sources comme la biomasse ou l'éolien en mer. L'éolien en mer a fait l'objet d'appel d'offres et le prix est ressorti à environ 200€/MWh (sans compter l'indexation) par deux fois. De même les technologies de stockage sont actuellement quasi inexistantes, une seule existe vraiment: les stations de pompage. Dans ce cadre, la technologie de conversion par électrolyse semble se voir attribuer une baisse de prix d'un facteur 4 par rapport à ce qui attendu pour une construction aujourd'hui. Quant au stockage de court terme, il s'agit selon les propres termes du rapport d'une méta-technologie. Pour le dire simplement, il s'agit donc bien là d'hypothèses, qui servent de point de départ à la simulation: en déduire qu'un système 100% renouvelable serait bon marché est une erreur de logique, le système est à un prix raisonnable si ces hypothèses se vérifient.

Le nucléaire se voit attribuer un prix de 80€/MWh pour un facteur de charge de 80%. Avec l'utilisation réelle, le prix ressort d'ailleurs plutôt à 85€/MWh soit environ 30% de plus que l'éolien terrestre dans le modèle. Ce prix correspond grosso modo au prix de Flammanville 3 avant les derniers retards annoncés, soit 9.5G€, avec le taux d'actualisation annoncé (5.25%). La simulation avec peu d'énergie renouvelables est aussi désavantagée par divers facteurs: par exemple, il y a une limite basse pour l'installation de solaire PV sur toiture, une technologie chère dans le modèle, qu'on peut remplacer par l'alternative similaire des grandes centrales PV. Ça coûte environ 400M€ annuels avec les hypothèses du modèle, soit 1€/MWh. Ça peut sembler dérisoire, mais dans une simulation où tous les scénarios se tiennent dans quelques pourcents, ça a son importance. Mais un scénario avec 55% de nucléaire reste alors compétitif malgré le surcoût et les hypothèses de prix enthousiastes pour le stockage. Enfin, il est remarquable que le scénario le moins cher soit celui où les combustibles fossiles produisent quasiment autant qu'en 2012 … les émissions ne baissent que grâce à la fin du charbon et du fioul dans la production d'électricité. C'est la preuve s'il en fallait une qu'il sera difficile de se débarrasser des combustibles fossiles.

Quelques conclusions

Cette étude est la plus réaliste des diverses études modélisant une production d'électricité 100% renouvelable que j'aie lue. Grâce aux installations hydrauliques déjà présentes aujourd'hui et la gestion du stockage — innovante me semble-t-il — la puissance d'entrée des moyens de stockage reste limitée, de même que l'utilisation de la gestion active de la demande. La somme des deux ne dépasse pas 40GW, ordre de grandeur de la puissance moyenne consommée. On reste dans un domaine raisonnable, contrairement par exemple à l'étude du Fraunhofer Institut, où la somme des deux atteignait parfois 100GW, à peu près 2 fois la puissance moyenne consommée. Même si tout n'est pas parfait, cette étude permet de déterminer quels sont les éléments de succès ou de d'échec d'une production nationale d'électricité basée entièrement sur les énergies renouvelables. Il faut donc de l'éolien et du solaire PV abordable, une capacité d'importation intacte, du stockage peu cher et découpé en catégories d'utilisation (court terme, semaine, long terme), de la demande gérable à distance, typiquement basée sur le chauffage électrique. Les facteurs d'échec sont, à part la non-réalisation des facteurs de succès, le développement d'une réaction de NIMBY qui empêcherait la construction de nombreuses éoliennes et de lignes THT.

Comme les capacités à prévoir les inventions et les prix dans le futur sont très limitées, la question à laquelle répond cette étude est en fait: «que faut-il changer pour que la production d'électricité en France se fasse totalement à partir d'énergies renouvelables?». La réponse est donc que l'éolien terrestre doit baisser ses prix de 25%, l'éolien en mer d'un facteur 3 environ, le solaire PV d'un facteur 2, et surtout des technologies de stockage doivent apparaître et devenir compétitives. On doit aussi interdire quasiment les combustibles fossiles, faute de quoi leur utilisation ne serait pas très différente d'aujourd'hui. En outre, une gestion dynamique de la demande doit être mise en place, en grande partie basée sur le chauffage électrique — qu'on ne doit donc pas décourager — et pour le reste sur les voitures électriques — qui doivent encore se tailler une part de marché significative. Enfin, aucun mouvement de NIMBY ne doit apparaître.

Il n'est pas certain que tous ces points puissent se réaliser aisément tous en même temps: pour prendre un exemple, parmi les supporters des éoliennes, on ne trouve pas spécialement de supporters du chauffage électrique ou des lignes à haute tension. Dans un autre genre, la Cour des Comptes avait constaté que 40% des permis de construire d'éoliennes étaient retoqués par l'administration et sur ceux qui passaient ce filtre, un tiers était attaqué par des personnes privées. Au Royaume-Uni, les éoliennes sont suffisamment impopulaires pour que le parti conservateur compte en son sein de nombreux opposants à leur déploiement dans ses rangs, et cette opposition sert de justification au développement de l'éolien en mer pour lequel, d'ailleurs, l'opposition populaire aux éoliennes terrestre est en ce moment à peu près la seule justification.

Pour finir, il reste à répondre la question «Que faire à la vue de cette étude?». La réponse est en fait «pas grand-chose!». Si chercher à faire que les prix des énergies renouvelables baisse ne veut pas dire en installer massivement. En effet, elles sont aujourd'hui nettement plus chères que les alternatives. Par exemple, la position de départ de d'EDF avant négociation est de demander 55€/MWh pour l'électricité nucléaire venant d'un parc rénové, bien moins cher que ce qui est présenté dans l'étude. En conséquence, d'ici 2035, il n'y a pas besoin de changer grand-chose. De plus, certains tarifs de rachat pour les énergie renouvelables restent très élevés et produiront des effets jusque dans les années 2040, comme par exemple ceux de l'éolien en mer. Dans ce cadre, procéder à un déploiement massif dès aujourd’hui serait se faire mal tout de suite pour espérer que ça aille à peu près bien dans une trentaine d'années!

1 mai 2015

Scénarios d'électricité 100% renouvelable: quelques exemples internationaux

L'ADEME fait réaliser actuellement une étude de modélisation sur la faisabilité d'un système électrique français où la totalité de la production proviendrait d'énergies renouvelables. Une version du document résumant les conclusions de la modélisation a été publiée par Médiapart; c'est clairement une version de travail, puisqu'il n'y a pas de résumé au début du document. Cette publication du document non fini par la presse a amené l'ADEME à le publier à son tour sur son propre site. Avant de se tourner vers les résultats du scénario de l'ADEME, il peut être utile de regarder ce qu'ont donné d'autres modélisations ailleurs dans le monde car ce scénario de l'ADEME ne sort pas de nulle part.

PJM et l'Université du Delaware

PJM Interconnection est le nom d'une entreprise américaine gérant le réseau d'une partie des USA, sa zone de gestion originelle comprenait la Pennsylvanie, le New Jersey et le Maryland, d'où son nom. Au début des années 2000, elle a absorbé des réseaux électriques voisins pour s'agrandir considérablement: le réseau géré aujourd'hui comprend en sus des zones de départ la ville de Chicago, l'Ohio, les 2 Virginies, ainsi que des parties du Kentucky, de l'Illinois, du Michigan et de la Caroline du Nord. Dans son rapport annuel 2013, l’entreprise dit avoir transporté un peu moins de 794TWh annuels, avoir un pic de demande à 165GW et desservir 61M de personnes. Pour résumer, une population légèrement inférieure à celle de la France est desservie avec une consommation annuelle et un pic de puissance supérieurs de 60%.

Un papier de chercheurs de l'Université du Delaware, dont il a été question fin 2012, prétend montrer que les énergies renouvelables peuvent couvrir l'essentiel de la consommation à un coût comparable ou inférieur à celui des technologies classiques, un but finalement très proche de l'étude de l'ADEME. Les 100% d'énergie renouvelable ne sont pas atteints, mais c'est tout comme, puisqu'un scénario avec 99.9% de la consommation d'électricité couverte par les énergies renouvelables. Ce papier souffre cependant de tares certaines.

La première est celle du périmètre. La consommation prise en compte est celle de PJM entre 1999 et 2002: 31.5 GW moyens sur l'année soit à peu près 275TWh. Comme expliqué plus haut, PJM a sur son aire actuelle une consommation de l'ordre de 800TWh: la consommation prévue est 3 fois inférieure à la consommation réelle. Ce ne serait pas grave si l'aire prévue pour installer les moyens de production renouvelables était aussi réduite à l'aire ancienne de PJM mais la Figure 2 montre que les données météo utilisées couvrent toute l'aire actuelle. De fait, une division par 3 de la consommation est prévue par ce papier, sans le dire, bien sûr.

La deuxième est la surévaluation de la production à puissance installée donnée. Les puissances installées et les productions sont donnés dans le tableau n°3. On constate que dans le scénario 99.9% renouvelables, il y a 124GW d'éolien terrestre et une production moyenne de 50.3GW, soit un facteur de charge de 40%. Si on croise les données d'installations en service en Pennsylvanie avec la production constatée, on trouve qu'il est plutôt de l'ordre de 30%. De fait, à peu près toutes les études «100% renouvelables» supposent une augmentation importante du facteur de charge de l'éolien, en faisant l'hypothèse que les éoliennes de grande taille s'imposeront (et auront bien les performances attendues).

La troisième, c'est l'importance de la production jetée. La production moyenne annuelle est de 91.5GW (soit environ 800TWh) pour une consommation de 31.5GW: les 2/3 de ce qui est produit est jeté. La raison est que dans leur modèle, le stockage est cher et il vaut alors mieux construire en de multiples exemplaires que d'installer des capacités de stockage — qui sont tout de même présentes avec des véhicules électriques qui servent de réserve. En conséquence, il est assez difficile de croire que le mix choisi est moins cher que la situation actuelle comme le clament les auteurs. Ils arrivent à cette conclusion en faisant plus que tripler le prix réel payé aux producteurs avec les externalités qui ne sont pas incluses dans le prix actuel, comme les émissions de CO₂. Mais même ainsi, ça semble très difficile et reposer sur des hypothèses très optimistes de réduction des coûts. Actuellement, les coûts des énergies renouvelables font l'hypothèse que la totalité de la production est consommée et rémunérée. Si seuls 1/3 étaient véritablement utilisés et payés, les producteurs d'énergie éolienne réclameraient 3 fois plus pour couvrir leurs frais. Ainsi, la baisse des prix attendue devrait couvrir aussi les coûts de cette énergie jetée: la baisse des prix attendue est donc très forte et les consommateurs paieraient aussi nettement plus.

Energieziel 2050 d'une équipe du Fraunhofer Institut

En 2010, une équipe du Fraunhofer Institut (IWES) a publié une étude, commandée par le gouvernement allemand, sur un scénario 100% renouvelables (résumé en anglais). La totalité de l'énergie consommée en Allemagne, et non seulement l'électricité, devait provenir de sources renouvelables. Une partie du scénario était déjà écrite, puisque les besoins en énergie étaient déterminée à partir d'une étude du WWF. La caractéristique de ce modèle est que l'utilisation de combustibles en dehors des transports — provenant exclusivement de biomasse — est restreinte à moins de 400TWh, contre plus de 1300TWh actuellement, soit une réduction par un facteur supérieur à 3 (p23-24). L'électricité remplit certains besoins pratiquement exclusivement remplis par des combustibles en Allemagne, comme le chauffage des habitations. C'est accompagné de réductions de consommation extraordinaires dans ces domaines: ainsi, pour le chauffage et l'eau chaude, un gain d'un facteur supérieur à 15 est prévu, ce qui est, disons, très ambitieux. Au final, la consommation d'électricité n'est réduite que de 7% en passant d'un peu plus de 500TWh à un peu moins de 470TWh.

La stratégie adoptée dans ce scénario est de se reposer sur un petit socle d'hydraulique et de géothermie, puis d'utiliser massivement de l'éolien et du solaire photovoltaïque. Comme ce sont des sources intermittentes, les «trous» sont bouchés, dans l'ordre d'appel, par la biomasse en cogénération, les importations puis par le déstockage et enfin des centrales à (bio)gaz sans cogénération. Les surplus de solaire et d'éolien sont stockés sous forme de chaleur, dans des batteries — via la gestion de la demande — ou d'hydrogène — via des électrolyseurs avec une alternative où du méthane est stocké. Une utilisation massive de la gestion de la demande est faite, en la déplaçant dans le temps, à relativement court terme pour la plupart, même si une partie de la charge des véhicules électriques est retardée de 5 jours au maximum.

La modèle repose donc notamment sur l'installation de 60GW d'éolien terrestre, 45 GW en mer et de 120 GW de photovoltaïque. 44GW d'électrolyseurs sont utilisés pour éponger les surplus, pour être brûlés dans 28GW de centrales au gaz à cycle combiné. Quant à la demande pilotée, elle peut passer de 0 à plus de 50GW en environ 12h, ce qui n'est pas rien quand on sait que la consommation totale de 470TWh équivaut à une puissance moyenne d'environ 54GW. Les auteurs obtiennent la production globale décrite dans la figure ci-dessous (p98), dans le cas du stockage de l'hydrogène (le cas du méthane est identique à ceci près que 7TWh de pertes de conversion supplémentaires sont contrebalancés par autant d'imports): IWES_H2_prod.jpg

On constate que, comme pour le papier de l'Université du Delaware, le facteur de charge de l'éolien terrestre a été boosté par rapport à l'existant: il atteint 32% pour un facteur de charge constaté qui a rarement dépassé les 20% jusqu'à présent.

Pour ce qui est de la modulation de la demande et de la vitesse de démarrage des électrolyseurs, on peut se rendre compte de ce que ça donne en été en regardant le graphe ci-dessous (p86): il ne faut pas se rater! La courbe de demande totale, le trait plein rouge décolle de la demande incompressible (pointillés) de 50GW en moins de 12h. Les électrolyseurs sont parfois sollicités pour leurs 44GW dans un laps de temps encore plus réduit. On constate aussi qu'il n'y a pas de charge pour les véhicules électriques la nuit: tout se passe de jour. Pour donner deux éléments de comparaison, la différence entre la consommation à 6h du matin et 9h du matin en juin en France est de 12GW, le pic record de consommation de 102GW de 2012 avait une hauteur d'environ 10GW comparé aux heures avoisinantes: les auteurs demandent là au réseau de supporter une pente de consommation à peu près double d'aujourd'hui pendant une durée nettement plus longue. IWES_profil_ete.jpg

Côté stockage, les électrolyseurs nécessaires n'existent pas aujourd'hui. D'abord parce que la production d'hydrogène se fait essentiellement à partir de combustibles fossiles aujourd'hui, mais aussi parce que les électrolyseurs actuels sont plutôt faits pour fonctionner en permanence. Or, on leur demande dans ce scénario d'être disponibles toute l'année mais de ne tourner que l'équivalent de 25% du temps. C'est sans doute possible, mais le fait que les électrolyseurs soient aussi peu répandus aujourd'hui pointent vers un coût certain, voire de réelles difficultés techniques. Ce scénario souffre aussi de la présence de sources «magiques», comme la géothermie ou les imports d'énergie renouvelable. La géothermie est aujourd'hui réservée à des situations géologiques spéciales comme celles de l'Islande ou de la Californie dont il ne semble pas que l'Allemagne se rapproche. Ailleurs les coûts semblent très élevés et le potentiel finalement faible. Mais pourtant c'est une source qui produit dans ce scénario 10% du nécessaire à puissance constante. De même, le profil des importations fait plutôt penser à des centrales thermiques classiques (à combustibles fossiles) qu'à des productions renouvelables.

le SRU et les chemins vers l'électrique 100% renouvelable

Le SRU — littéralement le Conseil des Experts sur les Questions Environnementales — est une émanation du gouvernement allemand, établi comme son nom l'indique pour le conseiller sur les politiques environnementales. En 2011, il a publié un document dont le but est de montrer comment bâtir un système électrique 100% renouvelable (version en allemand). Plusieurs scénarios sont évoqués: l'un qui repose sur une autosuffisance totale de l'Allemagne, sans échanges avec les voisins; un deuxième fait l'hypothèse que 15% des besoins allemands peuvent provenir de Norvège, un dernier repose sur un réseau incluant l'Europe et l'Afrique du Nord, similaire au défunt Desertec.

Ce scénario prévoit des installations étudiées selon des considérations de coûts. Seulement, dans des projections à long terme, les prix sont toujours sujet à caution. Ils le sont particulièrement dans ces scénarios où l'éolien en mer devient moins cher que le terrestre en 2050. Comme on peut le constater sur le graphe de la p77, quelqu'un a peut-être un peu abusé de la fonction exponentielle. En effet, pour l'éolien terrestre devienne plus cher que le marin, il faut que le surplus de production marine compense les surcoûts importants de construction en mer, de déplacement pour entretien, etc. Franchement, ça ne paraît absolument pas crédible. SRU_prices.jpg

Avec un éolien en mer à 42€/MWh, celui-ci figure en bonne place dans tous les scénarios, avec 73GW installés qui produisent 317TWh. À partir de là, il est possible de construire des scénarios où les renouvelables produisent 700TWh annuels à un prix de 115€/MWh quand il n'y a pas d'échange (cf Table 3-5 p98). Mais il existe un moyen de réduire encore les coûts: accepter qu'il y ait des échanges internationaux. Le rapport va même jusqu'à affirmer que à propos d'échanges entre l'Allemagne (p95-96):

A simple model for such cooperation is an energy supply network comprising Germany, Denmark, and Norway (or Sweden), whose interchange and reciprocal dependency even the most hardened skeptics would have to admit will entail little or no risk in terms of ensuring a reliable electricity supply.

Des esprits forts pourraient se dire que tout dépend des quantités à échanger voir à importer. Avec 500TWh, les 15% représentent 75TWh; quand la consommation est de 700TWh, ça représente 105TWh. À titre de comparaison, les exportations (nettes) françaises en 2014 — une excellente année de ce point de vue — représentent 65TWh: avec de tels volumes, l'Allemagne deviendrait le premier importateur mondial d'électricité. Accessoirement, la production électrique norvégienne de 2012 était d'un peu moins de 150TWh: ces importations représenteraient entre la moitié et les 2/3 de la production actuelle de la Norvège, source de ces importations! Il est possible que les Norvégiens ne voient pas forcément d'un très bon œil la construction massive de barrages que cela suppose. Mais dans ce cas, c'est miraculeux (p107): le prix moyen dans le cas d'une consommation de 700TWh est de 72€/MWh, certes deux fois plus élevé que le prix spot actuel … mais moins cher que ce que paie un ménage allemand entre la production «standard» et la taxe EnR. En passant, les capacités d'interconnexion nécessaires entre l'Allemagne sont quelque part entre 40 et 70GW (c'est à dire entre 75 et 90% de la demande moyenne). SRU_interconnect_2050_DKNO.jpg

Cela dit, le scénario pan-européen et incluant les pays d'Afrique du Nord est encore plus extraordinaire, puisque le réseau européen ressemblerait à ça: Path_EUNA_2050.png Pour mémoire, en 2010, les interconnexions de l'Europe de l'Ouest ressemblaient plutôt à ça (avec des valeurs en MW donc 1000 fois plus élevées que sur le graphe ci-dessus): interconnect_EU_2010.png Les choses n'ont pas fondamentalement changé depuis, même si une ligne entre la France et l'Espagne a été inaugurée récemment … 20 ans après que sa construction ait été décidée.

Alors, comment faire un scénario 100% renouvelables?

La lecture des ces scénarios nous renseigne sur la façon de construire un scénario de réseau électrique entièrement alimenté par des énergies renouvelables, autres que l'hydraulique. Les ingrédients semblent être les suivants:

  1. De l'éolien, de préférence en supposant que le facteur de charge va augmenter fortement, notamment en supposant que les pylônes et les rotors seront plus grands dans le futur. L'éolien a l'avantage d'être présent un peu toute l'année et d'avoir un surplus l'hiver, lorsque la consommation est plus élevée — que ce soit à cause du chauffage, de l'éclairage … ou des vacances! Son défaut principal actuel est son intermittence, l'augmentation du facteur de charge amoindrit ce problème
  2. De quoi déplacer de la demande de façon importante. En effet, pour compléter l'éolien, la technologie favorite est le solaire photovoltaïque. Il n'a échappé à personne que, comme le soleil ne brille pas la nuit, l'intermittence est très forte dès lors qu'on installe des puissances importantes. Pour éviter de gaspiller de l'énergie et profiter au maximum de la production solaire, il faut déplacer la demande de façon forte.
  3. Des interconnexions: évidemment, aujourd'hui, le stockage n'existant quasiment pas, la solution toute trouvée est d'exporter les surplus et d'importer pour combler les trous. Pour le futur, supposer que construire des lignes THT est moins cher que le stockage n'est pas une hypothèse forte. Ça permet de diminuer la puissance des installations de stockage et aussi d'exporter une partie des problèmes dus à l'intermittence. Minimiser les constructions de lignes THT est cependant une bonne idée: il n'a échappé à personne que ce sont des projets fondamentalement impopulaires et en prévoir trop serait prêter le flanc aux critiques … et plomber les coûts.
  4. Un peu de stockage de l'électricité: quoi qu'il arrive, à cause de l'intermittence du photovoltaïque et de l'éolien, il faut stocker une partie de l'énergie produite. Il faut le faire à tous les horizons de durée de façon à bien amortir les fluctuations de la production. Dans une simulation économique, il faut aussi supposer que ces moyens qui n'existent pas encore ne sont pas trop chers

Avec cela, on peut construire un système basé totalement sur les énergies renouvelables. Ce n'est donc pas une surprise de constater que le scénario de l'ADEME suit exactement ces principes.

2 mars 2015

Sarkozy ou le mandat de la marmotte

Nicolas Sarkozy a donné au Figaro une interview où il évoque la politique qu'il a l'intention de mener si jamais il revenait au pouvoir. Ses intentions peuvent se résumer par la volonté de baisser massivement les impôts ainsi que les dépenses publiques.

Parmi les politiques prônées, figure le recul à 63 ans du départ à la retraite en trois ans après son retour au pouvoir. Malheureusement, comme le rapport de la Cour des Comptes à propos des retraites complémentaires le laisse entendre, reculer d'une seule année l'âge de départ à la retraite est déjà insuffisant. Comme je m'en étais fait l'écho, le plan de base proposé par la Cour pour redresser les comptes des régimes complémentaires passait par un recul de 2 ans de l'âge de départ, en seulement 4 ans. Ce plan comporte aussi des hausses d'impôts, le contraire de ce qu'annonce l'ancien président de la République. Le rapport contient aussi de lourdes allusions à la médiocre gestion du régime général, ses déficits récurrents et sa plus grande générosité qui rend l'équilibre financier plus difficile.

On peut alors voir l'inscription d'une limite de dépenses publique de 50% du PIB dans la Constitution pour ce qu'elle est: une tromperie. En effet, non seulement elle serait nuisible si jamais elle était appliquée, en empêchant par exemple tout plan de relance en cas de crise, mais Nicolas Sarkozy serait aussi bien incapable de la respecter car incapable de faire passer les mesures qui rendraient cet objectif atteignable. Aujourd'hui cela représente un effort à réaliser d'environ 140G€ de réduction des dépenses annuelles dont une grande partie devrait porter sur les dépenses sociales, car on imagine mal Nicolas Sarkozy organiser par exemple une baisse supplémentaire du budget de la défense à l'heure où l'armée est au maximum de ses capacités d'intervention. Mais dans le même temps, il ne sait pas présenter des mesures permettant de faire ces économies sur les dépenses sociales.

Même si cette interview semble essentiellement destinée à la consommation par les troupes de son parti, il est extrêmement déplorable que ses propositions soient déjà périmées dès leur énonciation. On peut en fait craindre une répétition de son premier mandat, où les demi-mesures sur le plan économique ont été masquées par un discours se voulant radical et par l'agitation permanente sur le thème de la sécurité. Bref, un nouveau mandat paraît d'ores et déjà se placer sous le signe de l'éternel retour.

14 février 2015

Les faits n'ont aucune importance

Cette semaine, la mairie de Paris a annoncé des mesures visant à limiter la pollution atmosphérique. La plus remarquée de ces mesures est la décision de restreindre la circulation automobile en interdisant la circulation en dehors du périphérique et des bois à un certain nombre de véhicules autorisés ailleurs, mais trop anciens aux yeux de la maire de Paris.

Après quelques billets sur le sujet, il est intéressant de résumer les quelques épisodes précédents. Il est totalement impossible que les seuls gaz d'échappement, et plus particulièrement ceux des voitures diesel, soient responsables des fameux 42000 décès prématurés, qui ont d'ailleurs une réalité surtout mathématique et non celle de lier une cause à un effet directement tangible. Les émissions de polluants ont fortement baissé depuis 20 ans, ces efforts se poursuivent aujourd'hui, grâce au renouvèlement de toutes sortes de machines et au durcissement des normes. La baisse des concentrations des particules dans l'air parisien est moins rapide, parce qu'une bonne part de ces particules viennent de l'extérieur de la région parisienne. Dernièrement, les effets des concentrations des particules de moins de 1µm ont été comparées au tabagisme passif, dont on estime qu'il est la cause de 1100 décès par an soit environ 40 fois moins que les 42000 morts. Si ces particules de moins de 1µm sont créées par la combustion de carburants divers, elles ne représentent plus que la moitié des émissions de particules provenant du trafic routier.

Les justifications des mesures laissent pantois:

  1. Les éléments techniques sont donnés pèle-mêle sans aucune mise en perspective et sans doute dans l'unique but de faire peur. C'est ainsi que le chiffre de 42000 morts figure en bonne place, mais lorsque la comparaison avec le tabagisme passif est faite, le nombre de morts dus au tabagisme passif, bien plus faible, n'est pas donné. De la même façon, les conclusions qu'on pourrait tirer de la publication de l'InVS ne le sont pas: avec un surplus de décès de 0.5% par 10µg/m³, on peut en déduire qu'il existe en Île de France une corrélation entre la pollution aux particules et environ 1500 décès, essentiellement après 75 ans, d'ailleurs.
  2. Le trafic automobile est donné comme le plus gros émetteur de polluant sans précision, alors qu'évidemment, suivant le type de polluant, cette situation varie beaucoup. Si le trafic automobile est responsable de la plus grande part des émissions de NOx, pour les particules, il est minoritaire.
  3. La mairie de Paris n'hésite pas à déclarer que sa politique de restriction de la circulation est à l'origine de la baisse des émissions de polluants alors qu'elles y évoluent de façon parallèle au reste de du territoire français. Elle s'attribue le mérite de résultats dont elle n'est donc pas à l'origine.
  4. L'importance des pièces d'usure (pneus, plaquettes de freins) dans les émissions de particules n'est mentionné que p6, bien loin de l'avant propos justifiant l'ensemble des mesures … mais juste avant d'énoncer les mesures d'interdiction de circulation prise au vu des normes imposées aux moteurs!

On arrive assez rapidement à la conclusion que les justifications ne sont là que pour la forme, pour pouvoir prendre des mesures qui vont dans le sens de l'idéologie de la majorité municipale. C'est ainsi qu'on y retrouve un certain nombre d'expressions connotées dont l'encouragement des mobilités douces, parmi lesquelles le vélo et la marche à pied, dont tous ceux qui les pratiquent couramment savent qu'elles n'ont rien de tel. Les mesures à prendre sont ainsi connues à l'avance et ne portent que sur le trafic routier: mobilisation de places de parking en surface pour en faire autre chose, subventions diverses à l'achat de véhicules moins polluants et surtout restrictions de circulation suivant l'âge du véhicule — ou la norme respectée, on ne sait trop. C'est bien sûr cette dernière mesure qui frappera le plus de monde, une partie importante du trafic à Paris provenant aussi de banlieue.

Le premier aspect de cette mesure de restriction est son aspect vexatoire: Paris intra-muros possède un réseau dense de transports en communs, les habitants peuvent donc se dispenser de voiture, ce qui est le cas d'environ la moitié des ménages parisiens. De plus, le périphérique n'est pas concerné par ces restrictions, alors que c'est sans doute la route la plus fréquentée de France et par conséquence la plus polluée. Si, véritablement, Anne Hidalgo souhaitait réduire la pollution des automobiles, pourquoi exclure le périphérique de son plan? De même, pourquoi les voitures particulières polluantes seraient autorisées à circuler le week-end? Enfin, pourquoi aucune mesure n'est-elle prise pour les autres émetteurs de polluants que le trafic automobile?

D'un autre côté, cette mesure de restriction ressemble aussi à une gesticulation. En effet, au fur et à mesure du temps qui passe, les véhicules les plus vieux sont mis au rebut. C'est ainsi que fin 2012, les voitures particulières Euro 4 et plus représentaient à peu près 40% du parc selon le rapport 2014 du CITEPA (p145). Cette part est vouée à augmenter, et il semble qu'en fait les restrictions les plus onéreuses portent sur les interdictions faites aux cars ainsi que le dernier niveau d'interdiction de circulation, en 2020, qui portera sur les véhicules inférieurs à la norme Euro 5. L'effet des ces restriction sera de plus probablement limité: le rapport prospectif d'Airparif sur les émissions de polluants prévoyait qu'à réglementation constante les émissions de PM2.5 — de fait celles concernées par les réglementations Euro — diminueraient de 80% entre 2008 et 2020. Les efforts supplémentaires portent donc sur une masse d'émissions fortement réduites. Enfin, réduire les émissions dans Paris intra-muros ne fait rien contre les émissions qui ont lieu juste à côté, en Île de France, et plus largement ailleurs en Europe, ce qui a son importance quand les 2/3 des particules viennent de l'extérieur!

Une politique pragmatique de diminution de la pollution devrait à mon sens suivre certaines grandes lignes:

  1. Pour le secteur des industries et de du trafic routier, reconnaître que les normes élaborées au niveau européen sont le déterminant principal de la réduction à long terme des polluant et qu'il n'y a pas besoin d'en rajouter aux niveaux inférieurs, national et local.
  2. Le diesel n'apportant aucun bénéfice par rapport au super en termes de pollution, les taxes sur les 2 devraient être alignées sur le niveau des taxes sur le super, afin de renforcer l'incitation financière à économiser les carburants. Ça ne se décide pas au niveau de la mairie de Paris.
  3. Le bonus-malus devrait être la seule incitation à acheter des véhicules consommant moins, à condition de ne plus se baser sur le vieux test NEDC mais plutôt sur le WLPT pour éviter que les optimisation des constructeurs ne corrompent trop le système.
  4. Une action locale que pourrait mener la mairie de Paris pour diminuer la pollution est la chasse aux chauffage au fioul et aux cheminées à foyer ouvert. Il ne s'agit pas tellement d'interdire que de faire de la publicité pour les inserts — qui divisent par 4 les émissions de particules provenant du bois par rapport aux foyers ouverts — et de subventionner la fin des vieilles chaudières au fioul, dont certaines des plus grosses sont d'ailleurs celles qui chauffent des HLMs.

Mais comme la parole publique est surtout concentrée sur les méfaits supposés du diesel, qui ont largement disparu et vont continuer à diminuer, peu de temps a été consacré à des propos utiles. Personne ou presque n'a parlé récemment du fait que les cheminées à foyer ouvert étaient les plus gros émetteurs de particules fines en France. Personne pour dire qu'il faudrait aussi remplacer les vieilles chaudières au fioul, qui brûlent essentiellement la même chose que le diesel et émettent aussi des particules. En conséquence de quoi, l'action dans ce domaine a consisté à interdire, ce qui a évidemment échoué devant l'incompréhension générale.

Tout ceci s'explique par la source de ces mesures. Il ne s'agit pas de lutter d'abord contre la pollution, mais surtout de satisfaire une idéologie. Les faits n'ont alors strictement aucune importance: ils peuvent pointer dans le même sens ou dans la direction opposée aux mesures sans impact sur celles-ci. On peut penser que les Parisiens, qui fréquentent assidûment un métro pollué par les particules de pneu et de métal, ne sont pas extraordinairement préoccupés par le niveau actuel de pollution aux particules à l'extérieur. Par contre, ils sont gênés par le trafic routier et ces gens qui viennent envahir les boulevards depuis la banlieue. Les électeurs sont aussi plus favorables qu'ailleurs aux thèses des Verts. La maire de Paris a alors tout intérêt à limiter par tous les moyens la circulation en dehors du périphérique.

26 janvier 2015

Les prévisions trop optimistes du COR

Le 16 décembre dernier, le COR a présenté une actualisation de ses projections sur l'état des finances des systèmes de retraites français. Comme il apparaît qu'elles prévoient toujours un retour à l'équilibre en 2020, le gouvernement s'est proposé de ne rien faire de plus que les dernières modifications, présentées en 2013. Malheureusement, ces prévisions comportent un énorme biais optimiste.

Les résultats des projections financières dépendent bien sûr d'hypothèses économiques. Quand elles sont optimistes, les résultats laissent penser que la situation financière des régimes de retraite est meilleure qu'elle ne le sera en réalité. Pour les projections à court terme, le COR dépend d'hypothèses actées par les projets de loi de finances pour la sécurité sociale. À plus long terme, il est plus libre de décider, mais les prévisions ne sont pas forcément plus réalistes. Il y a 5 scénarios de long terme, dénommés A', A, B, C et C', du plus optimiste au plus pessimiste.

Pour être jugées réalistes, les hypothèses économiques doivent à mon avis respecter a minima une première contrainte, qui est de s'être réalisée dans un passé relativement récent. Ce n'est pas le cas des hypothèses de chômage: dans les scénarios A', A et B, le COR prévoit un taux de chômage de long terme de 4.5%. Dans les scénarios C et C', le taux de chômage est de 7%. Il faut bien noter qu'il s'agit de taux de long terme, qu'on peut approximer par des moyennes sur longue durée, par exemple 10 ans. En effet, le COR ne fait pas vraiment l'hypothèse que le taux de chômage soit constant à un certain niveau, mais plutôt qu'il oscille autour de cette valeur. Si on regarde le taux de chômage en France sur une longue durée, on s'aperçoit que le taux de 4.5% a été dépassé pour la dernière fois en 1978. Quant au chômage de long terme, les données de l'INSEE permettent de tracer ce graphe: chomageLT.jpg On y voit que le taux de chômage moyen sur 10 ans est supérieur à 7% depuis 1987, soit plus de 25 ans. Le vrai taux de long terme semble être aux alentours de 9% depuis le milieu des années 90, soit à peu près 20 ans. Le COR évalue quand même une hypothèse de 10% de chômage: le surcroît de déficit en 2040 est de 0.3% du PIB dans le scénario C' … sachant que le déficit prévu avec 7% de chômage est déjà de 1.2% du PIB. Même si ce n'est pas le déterminant principal, le surcroît de déficit est tout de même notable.

Une deuxième contrainte me semble devoir être respectée pour que les scénarios soient réalistes: que le scénario central soit cohérent avec la tendance récente et, aussi, que les scénarios pessimistes représentent une situation mauvaise qu'on voit ailleurs. Sur le plan de la croissance économique, cela voudrait dire qu'une stagnation soit sérieusement envisagée. De même, la croissance moyenne sur 10 ans réellement constatée devrait servir de scénario central. Si on regarde la situation française, on constate que depuis 2008, la moyenne est plutôt aux alentours de 1%, soit l'hypothèse du scénario C', le plus pessimiste. CroissanceLT.jpg Quant à la masse salariale, source principale de ressources du système de retraites, elle suit désormais à peu près le PIB. L'expansion du salariat est terminée, les marges des entreprises sont plutôt basses en France en ce moment. Bref, le scénario C ou C' devraient être le scénario central et des scénarios plus pessimistes de stagnation économique devraient être présents parmi les scénarios étudiés. Bien sûr, le scénario C' prévoyant déjà de graves problèmes financiers pour les systèmes de retraite, des scénarios encore plus pessimistes seraient simplement catastrophiques sur ce plan. Cependant, ils ne seraient pas totalement dénués de sens, vu ce qui se passe dans certains pays vieillissants comme le Japon ou l'Italie.

D'ici 2020, grâce à l'intarissable optimisme du gouvernement — qui prévoit jusqu'à 4% de hausse annuelle de la masse salariale — le COR conclut que le déficit du système de retraites diminuera et que l'équilibre financier sera atteint aux alentours de 2020. En conséquence, le gouvernement prévoit de ne rien faire. Mais quelle crédibilité accorder à ces prévisions dont la réalisation semble hors d'atteinte aujourd'hui? Le moins qu'on puisse dire c'est qu'un tel optimisme ne sert qu'à se mettre la tête dans le sable et ne rend absolument pas service aux salariés actuels, qui sont les futurs retraités.

4 janvier 2015

Les graves difficultés financières de l'AGIRC

Le 18 décembre dernier, la Cour des Comptes a publié un rapport sur la situation des retraites complémentaires des salariés du privé, gérées par deux associations siamoises, l'AGIRC et l'ARRCO. L'AGIRC gère la retraite complémentaire des cadres, l'ARRCO celle des autres employés; elles sont gérées par les syndicats de salariés et les organisations patronales. Le système français veut que la retraite de base ne tienne compte que du salaire jusqu'au plafond de la sécurité sociale, la pension versée à ce titre ne peut représenter plus de la moitié de ce plafond. Les retraites complémentaires apportent un complément de revenu et sont indispensables pour atteindre l'objectif d'un taux de remplacement de 66%. Pour les cadres, dont le salaire dépasse généralement le plafond de la sécurité sociale, la pension versée par l'AGIRC représente couramment 50% de la pension totale. Ces deux régimes sont actuellement en déficit. La situation financière est particulièrement difficile pour l'AGIRC dont les réserves seront épuisées d'ici à fin 2017 si rien ne change, comme cela a été annoncé dans la presse à l'été 2014.

Les origines des difficultés actuelles

Les difficultés actuelles des régimes complémentaires trouvent d'abord leur origine dans les situations économique et démographique. Il est bien connu qu'il y a de plus en plus de retraités par rapport aux actifs. Par ailleurs, la croissance de la masse salariale a été de seulement 0.2% par an en termes réels depuis 2009, parallèlement à une croissance économique presque nulle depuis 2012. Malgré les ajustements depuis 2010, le déficit actuel est pire que celui qui était prévu en 2010 si on ne faisait rien. Deficit_AGIRC_ARRCO.jpg

La différence entre les prévisions et la réalité s'explique d'abord par les prévisions systématiquement trop optimistes du gouvernement. Si on pouvait comprendre qu'en 2010, année où la croissance était de 2%, on prévoit une croissance tendancielle de 1.5% par an et une inflation d'environ 2% par an, c'est nettement plus difficile à comprendre en 2013, où la possibilité d'une stagnation économique à long terme et d'une inflation durablement faible étaient plus que des hypothèses. Malheureusement, on l'a encore constaté en 2013, les prévisions du COR sont toujours basées à court terme sur les prévisions économiques du gouvernement ce qui oblige à revenir en permanence sur les ajustements précédents, car ils sont toujours insuffisants.

C'est ainsi que les gestionnaires des retraites complémentaires ont pris des mesures de gel des retraites complémentaires, dont les bénéfices ont été largement amoindris par une inflation quasi nulle, et d'augmentation des impôts (0.25 point). Il s'attendaient aussi à pouvoir demander une plus grande durée de cotisation suite à la réforme de 2013, mais leur espoir a été déçu parce que la réforme de 2013 a prévu de boucher le déficit immédiat essentiellement par des augmentations d'impôts (p27). Cette réforme a été aussi largement sous-dimensionnée, au point d'ailleurs, qu'un gel des retraites de base, non prévu à l'origine, a été mis en place au printemps 2014.

Mais il y a aussi des actes du gouvernement qui minent la santé financière des retraites complémentaires, et plus particulièrement de l'AGIRC. Comme la plafond de la sécurité sociale est réévalué en fonction du salaire moyen et qu'il y a de plus en plus de cadres, les ressources possibles de l'AGIRC sont peu à peu préemptées par le régime de base. En effet, au dessus du plafond les cotisations à l'AGIRC remplacent en totalité les cotisations au régime général et elles y sont nettement plus élevées. L'ARRCO est peu concernée, puisque 94% des cotisations des non-cadres sont prélevées en dessous du plafond de la sécurité sociale (p46). Au total, si le plafond de la sécurité sociale avait été réévalué selon le salaire médian et non moyen depuis les années 1970, les retraites complémentaires toucheraient 2G€ de plus par an en cotisations (p49). D'autre part, en dessous du plafond, le quinquennat Hollande a préempté la plupart des hausses possibles: en arrivant au pouvoir en 2012, il a décrété une augmentation des cotisations de 0.5 point pour financer ses dispositions sur les «carrières longues» puis, en 2013, une augmentation progressive de 0.6 point.

Le cumul des mesures prises sous le quinquennat Hollande pour les retraites de base et retranscrites telles quelles pour les retraites complémentaires conduisent d'ailleurs à un déficit supplémentaire chaque année au moins jusqu'en 2030 (p26). Un certain nombre de charges nouvelles ont été créées comme l'élargissement de l'éligibilité aux «carrières longues» et le compte pénibilité. Si pour le régime général de base un surcroît d'impôt les finance, rien n'a été prévu pour les retraites complémentaires: la hausse des cotisations décidées en 2013 couvre à peine le coût de l'élargissement du dispositif «carrières longues»! Pire encore, la loi de 2013 prévoyait dans son étude d'impact un amélioration de 2G€/an à l'horizon 2030 pour les régimes complémentaires. Mais cela ignorait toutes les mesures qui emportaient un coût pour ces régimes! En fait, selon les organismes de retraite complémentaire, le bénéfice est, en 2030, limité à 570M€ annuels (p103-104). On mesure là l'impéritie et l'amateurisme dont le gouvernement Hollande fait preuve sur la question des retraites.

C'est ainsi que le déficit global des retraites complémentaires est attendu à environ 5G€ en 2014 et que les réserves accumulées pendant la première décennie de ce siècle (60G€ au total) vont être épuisées dès la fin 2017 pour l'AGIRC et en 2023 pour l'ARRCO. Malgré une bonne gestion avant la crise, louée par la Cour, les régimes complémentaires sont dans une mauvaise situation financière.

Les remèdes

Comme d'habitude sur les retraites, il n'y a guère que 3 paramètres sur lesquels on peut jouer: le niveau des pensions, le taux de cotisation et l'âge auquel on passe d'actif à retraité. La mesure la moins douloureuse est le report progressif de l'âge de la retraite: personne ne perd de revenu immédiatement, cela permet aussi de faire rentrer plus d'argent par l'ensemble des autres impôts. Malheureusement, le terme rapproché de l'échéance pour l'AGIRC rend indispensable l'usage des deux autres paramètres. Dans le passé, les utiliser ne signifiait pas une baisse du montant nominal perçu, grâce à l'inflation et à la croissance économique. De plus, le déficit est tel qu'il faudrait baisser les pensions de l'AGIRC d'environ 10% ou augmenter les cotisations de 2 points voire plus. On voit que l'ajustement s'annonce douloureux.

La Cour donne deux exemples et un tableau détaillant l'impact de chacune des mesures à l'horizon 2030. Elle se montre aussi sceptique sur les chances de l'AGIRC à parvenir à sortir seule de l'ornière sans adossement à l'ARRCO. La Cour appelle aussi de façon à peine voilée à mettre fin de facto au système de la «retraite à 60 ans», en enjoignant les gestionnaires à reporter l'âge de la retraite pour bénéficier d'une retraite complémentaire sans abattement sans attendre que le gouvernement daigne prendre des mesures (p40 et 45). Remedes_AGIRC_ARRCO.jpg effets_remede1.jpg

Personnellement, je pense que la majeure partie de l'ajustement à court terme devrait être assumée par les pensions versées. Du fait d'une faible inflation, l'impact sur le pouvoir d'achat des retraités des mesures de gel des pensions a été très limité et ils ont été protégés des effets de la crise. En face, même les cadres ont fait face à des gels de salaires et à l’augmentation des impôts. Une baisse très notable des pensions complémentaires des cadres à court terme est devenue indispensable. À plus long terme, l'ajustement doit se faire via l'allongement de la durée du travail, particulièrement pour les cadres, dont l'espérance de vie est notablement supérieure à celle des autres salariés. Une augmentation de la durée du travail supérieure à celle prônée par la Cour dans son premier scénario me semble nécessaire: il faudrait sans doute augmenter progressivement l'âge de la retraite de 3 ans pour les cadres, peu importe d'ailleurs que le régime général de base suive ou pas.

Ce rapport me semble aussi être un réquisitoire contre la réforme de 2013 et l'impéritie du gouvernement actuel. Il était clair tout au long de l'année 2013 que l'ajustement programmé était sous-dimensionné et ne tenait aucun compte des régimes autres que le régime général de base. Rien n'a été fait pour le régime des fonctionnaires qui pèse de plus en plus sur les finances publiques. Les régimes complémentaires ont été totalement ignorés et les marges de manœuvre financières largement préemptées pour le régime de base. Le gouvernement s'est refusé à allonger immédiatement la durée de cotisation nécessaire à une retraite à taux plein: on peut subodorer qu'il préfère que ce soient d'autres que lui qui portent le chapeau de la fin effective et dans tous les cas — y compris pour les carrières longues — de la «retraite à 60 ans».

30 novembre 2014

Du dieselisme passif

Mardi 25 novembre, les particules fines et le diesel ont refait surface dans les médias, toujours pour dénoncer l'ampleur scandaleuse de la pollution. Cela faisait suite à une présentation à la presse des résultats de mesures effectuées à l'aide d'un instrument embarqué à bord du ballon Generali qui flotte au-dessus du parc André Citroën, dans le 15ᵉ arrondissement de Paris. Cette fois-ci, la comparaison choc est que la pollution aux particules de moins de 1µm de diamètre équivalait aux dommages causés par le tabagisme passif.

Si on se rend sur le site de l'Institut National du Cancer, on constate que 1100 décès sont attribués chaque année au tabagisme passif sur l'ensemble de la France. Pourtant, il n'y a pas si longtemps, on nous annonçait que la pollution aux particules était responsable de 42000 morts par an en France, ce qui avait suscité mon premier billet sur le sujet. Les articles et la présentation affirment que les particules d'un diamètre de moins de 1µm sont les plus nocives. En conséquence, on ne peut que s'émerveiller des progrès rapides de la lutte contre la pollution aux particules, puisqu'en seulement 2 ans et demi, le nombre de décès a été divisé par un facteur 40. Malheureusement, il semble que personne n'ait remarqué ces progrès dans la presse, puisque les articles sont toujours aussi négatifs et appellent toujours à pourchasser le diesel. Cette estimation est même inférieure à celle à laquelle je m'étais risqué dans mes billets précédents.

De plus, le seul jour du 13 décembre 2013 semble concentrer le feu des critiques, alors que les mesures ont été effectuées entre septembre 2013 et août 2014 et qu'un autre épisode de pollution aux particules a eu lieu en mars 2014. Ce n'est guère étonnant: il s'est avéré par la suite que plus de la moitié des particules n'étaient pas dues à la combustion, mais aux activités agricoles, puisque 51% étaient composées de nitrate d'ammonium et seulement 11% dérivaient de l'usage de combustibles fossiles. En conséquence de quoi, il y a dû y avoir relativement peu de particules de moins de 1µm, car la combustion de matières — dérivés du pétrole, bois — provoque essentiellement l'émission de ces particules. Si d'autres causes sont responsables d'un pic de pollution, la proportion de particules de moins de 1µm est moindre. En mars dernier, le diesel était le premier accusé; qu'il soit apparu après coup que le diesel n'ait joué qu'un rôle marginal dans le pic de pollution n'a pas suscité de retour dans la presse.

Avec les diagrammes publiés sur le blog {sciences²} de Libération, on s'aperçoit que les concentrations varient d'un facteur 30 sur l'année de mesures. En moyenne sur l'année, les concentrations sont plus proches du minimum que du maximum constaté lors d'un pic de pollution: les pics de pollution sont de courte durée et ils comptent relativement peu dans la moyenne. Si on regarde le cas des particules de moins de 10µm, on s'aperçoit que la moyenne est de l'ordre de 2 fois le minimum (cf graphe ci-dessous) PM10_201309_201408.jpg Si on applique la même règle aux particules de moins de 1µm, au lieu d'un studio où on a brûlé 8 clopes, on trouve qu'en moyenne sur l'année, il y a autant de particules que si on avait brûlé 0.5 cigarette. Comme bien sûr on ne peut jamais atteindre le zéro équivalent-clope, il faut bien constater qu'on ne peut pas vraiment dire que la pollution à Paris est équivalente au tabagisme passif.

On peut aussi constater qu'une fois de plus, ce qui a été relayé dans la presse portait sur l'aspect négatif: rapporter la concentration de particules de moins de 1µm en termes de nombre est assez révélateur. En effet, les organismes de mesure de la pollution parlent plutôt en termes de masse globale des particules. Bien évidemment, une grosse particule va peser bien plus lourd qu'une petite: si la masse est proportionnelle au volume, une particule de 2.5µm pèse 15 fois plus qu'une particule de 1µm. On voit que le nombre de petites particules peut rapidement devenir proprement astronomique. Est-ce cela signifie qu'elles sont dangereuses à proportion de leur nombre? Pas forcément! Dans ce cadre, l'affirmation qu'aucun seuil réglementaire d’émissions n’a été encore fixé pour les nanoparticules relève du mensonge pur et simple: comme les normes anti-pollution s'attaquent à la masse de toutes les particules émises lors du test, quelque qu'en soient leurs tailles, les particules de moins de 1µm sont bien évidemment incluses. De plus, la norme Euro 6 impose une limite en nombre, dans le but de s'attaquer directement aux émissions de particules de moins de 0.1µm!

Comme d'habitude, cet évènement a été rapidement récupéré par les opposants au diesel. Il n'est besoin que d'observer que le fioul domestique, qui n'est rien d'autre du diesel auquel on a ajouté un colorant rouge, ne fait l'objet d'aucune mention. Or, l'usage du fioul pour se chauffer en hiver est bien mieux corrélé aux pics de pollution que la consommation de gazole! Inutile donc de rappeler aussi que la combustion du bois est le premier émetteur de particules de moins de 1µm, qu'en moyenne les 2/3 des particules en Île de France viennent d'ailleurs, que les normes anti-pollution mettent les voitures neuves essence et diesel au même niveau ou presque. Le mal est forcément le trafic parisien fortement diésélisé et il faut bannir les voitures diesel. Même si je considère que le diesel bénéficie d'un avantage fiscal infondé et que je suis favorable à l'alignement de la fiscalité du diesel sur celle du super 95, je remarque que la campagne de diabolisation du diesel est mensongère et s'attaque surtout à des problèmes qui se posaient il y a 20 ans.

26 octobre 2014

Vers un doublement de la CSPE

Le 15 octobre dernier, Philippe de Ladoucette, le président de la CRE était entendu par la commission d'enquête sur les tarifs de l'électricité à l'Assemblée Nationale (retranscription, vidéo). À l'occasion, la CRE rendait public deux rapports, l'un sur les tarifs régulés d'EDF et un autre sur les perspectives de la CSPE. Ce billet est consacré au rapport sur la CSPE. La CSPE est une taxe un peu fourre-tout qui sert à la fois à financer les tarifs sociaux de l'électricité, la péréquation avec les îles sous administration française (Corse, DOMs, etc.) ainsi que les tarifs de rachats divers dont ceux des énergies renouvelables. L'élément le plus remarquable de ce rapport sur la CSPE est qu'il la voit passer de 16.5€/MWh cette année à 30.2€/MWh en 2025. CSPE_2003-2025.jpg

La situation présente

Ces dernières années, avec notamment la forte hausse du prix du pétrole et la bulle du photovoltaïque en 2010, les charges à couvrir ont fortement augmenté, ce qui a provoqué l'apparition d'un déficit de plus de 4G€ qu'il va falloir résorber. Cette année, avec 16.5€/MWh, la taxe couvre les charges courantes prévues à 6.2G€. L'année prochaine, le stock de dette devrait commencer à se résorber, la CSPE étant augmentée plus vite que les charges courantes. Elle atteindra 19.5€/MWh pour des charges courantes de 17.7€/MWh. Aujourd'hui, plus de 60% des charges relèvent des énergies renouvelables et un gros quart de la péréquation, les tarifs sociaux n'en représentent que 5% environ.

La hausse des prix du pétrole a eu un impact sur le coût de la péréquation: dans les îles, les centrales sont bien souvent des centrales au fioul. De ce fait, le coût de la péréquation atteint environ 1.9G€ en 2014, en incluant les EnR de ces régions. Le plus gros poste relève des tarifs de rachats de toute sortes et aux prix les plus divers, de la cogénération — à base de combustibles fossiles… — au solaire photovoltaïque qui représentent 3.5G€ cette année pour les installations métropolitaines. Le solaire photovoltaïque de métropole absorbe à lui seul 2.1G€ de subventions. Avec 14% de la production éligible aux tarifs de rachat, ce dernier capture à lui seul 62% des subventions! L'explication de cette situation est que les subventions sont accordées sur la base des coûts de chaque type d'énergie subventionnée, sans vraiment prendre en compte l'utilité de chacune. Cette situation paraît amenée à perdurer comme le montrent les prévisions de la CRE.

La situation future

La CRE prévoit une forte hausse de la CSPE, marquée dans un premier temps par une hausse rapide dans les 3 années qui viennent pour combler la dette accumulée, puis par la mise en service de nouvelles installations. Elle devrait atteindre 10.6G€ annuels en 2025, soit une taxe de 30.2€/MWh. La trajectoire prévue figure sur le graphe ci-dessous. evolution_unitaire_2013-2025.jpg

Comme la dette accumulée va être résorbée dans les quelques années qui viennent, la hausse de la taxe unitaire s'explique par la hausse des charges courantes. Comme les tarifs sociaux restent une petite partie du coût, les raisons sont à trouver dans les 2 gros contributeurs actuels: la péréquation et les tarifs de rachat. Le coût de la péréquation passe de 1.7G€ à 2.5G€ (Figure 81 p112) soit une augmentation de 50%. La plus grosse part de l'augmentation est donc causée par l'autre poste important, les tarifs de rachat qui passent de 3.5G€ en 2014 à environ 8G€ en 2025: ils font plus que doubler. evolution_EnR_2013-2025.jpg L'essentiel des subventions va à 2 technologies en 2025: le solaire PV et l'éolien en mer. À eux deux, ils capturent 5G€ sur 8G€ de subventions. Un constat s'impose: aux conséquences de la bulle du photovoltaïque vont se superposer les conséquences des appels d'offres sur l'éolien en mer qui se sont soldés par des tarifs extrêmement onéreux, puisqu'à l'horizon 2020, l'indexation amènera le prix à 220€/MWh environ. Avec 2.1G€ annuels de subventions dédiés aux contrats photovoltaïques signés avant 2013 et qui courent sur 20 ans de production, leur coût total s'élève à 42G€. Pour l'éolien en mer, la CRE prévoit sur la durée de vie des contrats actuellement passés 38G€ de subventions (p5). On voit que ce sont des sommes du même ordre. On peut conclure que la politique menée pour soutenir le secteur des énergies renouvelables électrique ne tient absolument pas compte du coût pour le consommateur.

60% des subventions en 2025 iront à des contrats mis en œuvre après 2013, ce qui montre que la bulle photovoltaïque de 2009-2010 ne sera certainement pas la seule responsable de la forte hausse de la taxe. Les estimations de la CRE conduisent peu ou prou à un chiffres d'affaires des secteurs sous obligation d'achat de 15G€/an pour une production d'environ 85TWh, soit environ 15% de la production d'électricité française. Si EDF obtient les 55€/MWh qu'il demande pour son parc nucléaire dans le futur, le chiffres d'affaires du parc nucléaire sera d'environ 25G€ pour plus de 400TWh de production. Une nouvelle fois, on voit que les coûts des EnR sont loin d'être maîtrisés!

Par ailleurs, durant son audition, le président de la CRE a précisé que ses prévisions étaient conservatrices. En effet, les calculs ont été effectués en prenant des hypothèses qui tendent à minimiser les subventions versées:

  1. La CRE prévoit une hausse du prix spot de l'électricité. Or, comme je l'avais constaté, plus il y a d'énergies subventionnées, plus les cours ont tendance à baisser. Cependant, cet effet est assez faible: une erreur de 10€/MWh (soit environ 20%) sur le prix de gros entraîne une variation de 700M€ des charges. Cela montre une fois de plus que l'essentiel des surcoûts ne vient pas des volumes produits mais des contrats signés en faveur de technologies très loin d'être compétitives
  2. Pas de renouvellement de contrat à terme quand ce n'est pas prévu par la réglementation actuelle. Cela vaut surtout pour l'éolien. Au vu de ce qui se passe aujourd'hui avec le petit hydraulique et la cogénération, la prudence est de mise, même si une nouvelle fois, l'impact devrait être faible, étant donné que l'éolien terrestre fait partie des EnR les moins chères.
  3. Elle prévoit aussi que les installation suivent la programmation effectuée suite au Grenelle de l'Environnement, en l'adaptant suivant ce qui s'est passé depuis et en abaissant les objectifs. C'est ainsi que l'essentiel des capacités nouvelles d'ici 2025 proviennent de l’éolien terrestre, que la progression du photovoltaïque est limitée et qu'il n'y a pas de nouvel appel d'offres pour l'éolien en mer. C'est pratiquement le cas le plus favorable au consommateur.
  4. Cette hypothèse est rendue encore plus optimiste par les projets du gouvernement actuel qui tient absolument à faire baisser la part du nucléaire dans la production d'électricité et à augmenter la part des renouvelables. En tenant compte de la production hydraulique actuelle, cela voudrait dire qu'en 2025, la part de la production électriques provenant des EnR subventionnées serait de 25 à 30%, soit à peu près de 2 fois plus que ce que prévoit la CRE. Même si on ne croit pas ce que raconte le gouvernement, cela va créer une pression à la hausse car pour paraître atteindre les nouveaux objectifs, il va sans doute falloir relever les tarifs de rachat et lancer d'autres appels d'offres particulièrement onéreux.

Quelques conclusions

Il est aussi intéressant qu'aucune des modalités de soutien ne trouve grâce aux yeux de la CRE (voir p3 et suivantes). On comprend qu'à chaque fois, les tarifs lui paraissent en tout ou partie trop élevés par rapport aux bénéfices attendus et aux coûts réels de chaque technologie.

Face à une telle augmentation, il n'est pas très étonnant que cette taxe bien visible par les consommateurs-électeurs devienne un sujet digne d'intérêt pour les parlementaires. Même si le sujet de l'augmentation de cette taxe est peu abordé dans les médias, les plaintes des électeurs au sujet de leur facture doivent remonter auprès des politiques. Quand de l'autre côté les prévisions annoncent une hausse importante de la taxe, la question de l'assiette de la taxe surgit à nouveau. Il faut dire que le but officiel est de réduire les émissions de gaz à effet de serre. Mais comme le gaz, par exemple, est exonéré, on voit que plus il y a d'énergies renouvelables dans la production électrique française, plus elle est taxée et plus il est en fait intéressant de se tourner vers le gaz et donc d'émettre du CO₂. Comme les coûts évalués par la CRE relèvent essentiellement de contrats déjà actés, si le gouvernement veut éviter la grogne des consommateurs d'électricité, il ne lui reste guère que l'option d'étaler les coûts sur d'autres consommateurs, comme les consommateurs de fioul et de gaz, qui à leur tour grogneront. Il n'y a donc pas vraiment d'issue favorable possible sur cette question!

Enfin, la question des bénéfices à retirer des énergies renouvelables n'est jamais ou presque abordée. Cela nécessiterait de comparer à des alternatives — par exemple, remplacer les quelques centrales à charbon françaises qui resteront après 2015 par des centrales au gaz coûterait certainement moins cher à la tonne CO₂ évitée. Les énergies renouvelables électriques sont devenues dans le débat public des buts en elles-même. Pas étonnant dans ces conditions que la distribution des subventions montre un grand laisser-aller.

5 octobre 2014

Faut-il prendre au sérieux les objectifs de la loi sur l'énergie de cette année?

Pour continuer cette série de billets sur la loi sur l'énergie actuellement en discussion au Parlement, je vais aborder dans ce billet les objectifs prévus par l'article 1 de la loi. Ces objectifs sont censés déterminer la politique énergétique suivie par la France ces prochaines années. Malheureusement, ils me semblent impropres à pouvoir engendrer une politique cohérente. D'une part parce qu'ils me paraissent irréalistes, mais aussi parce qu'ils semblent avoir été écrit à la va-vite, effet renforcé après la passage en commission parlementaire du texte.

Les modifications verbeuses et contradictoires des parlementaires

Il peut d'abord être utile de comparer la version originelle du projet de loi et celle qui est sortie de la commission ad hoc. On peut constater que la version du gouvernement contient 4 objectifs pour le futur article L. 100-1, 6 pour le L. 100-2 et 5 pour le L.100-4. Au sortir de la commission, il y a 7 objectifs pour le L. 100-1, 8 pour le L. 100-2 et 7 pour le L. 100-4. Plus on ajoute d'objectifs, moins il est difficile de justifier qu'une politique corresponds aux buts énoncés: à force d'en ajouter, il devient possible de justifier à peu près toutes les politiques possibles, à charge pour le gouvernement de choisir les objectifs qu'il veut atteindre parmi ceux qui se contredisent.

Par ailleurs, certains de ces ajouts n'apportent rien ou presque, voire se contredisent entre eux. Ainsi pour le futur L. 100-1, les parlementaires ont jugé bon de donner 3 objectifs quasiment équivalents:

(…)
« 3° Maintient un coût de l’énergie compétitif ;
« 4° (Supprimé)
« 5° Garantit la cohésion sociale et territoriale en assurant l’accès de tous à l’énergie sans coût excessif au regard des ressources des ménages ;
« 6° (nouveau) Lutte contre la précarité énergétique ; (…)

On ne peut pas dire qu'il y ait une grande différence entre un coût compétitif, la lutte contre la précarité énergétique et l'énergie sans coût excessif au regard des ressources des ménages: ces 3 objectifs ont les mêmes conséquences pratiques et il doit bien être possible d'en proposer une synthèse claire, en gardant le seul 3° — qui existe déjà dans la version actuelle — ou par exemple en écrivant: Maintient un coût de l’énergie compétitif et abordable pour tous sur l'ensemble du territoire de la République.

Mais ce n'est pas tout: pour le futur L. 100-2, ils ont fait ajouter la phrase Procéder à l’augmentation progressive de la contribution climat-énergie, qui (sic), dans la perspective d’une division par quatre des gaz à effet de serre qui semble contradictoire avec les dispositions qu'ils ont fait ajouter juste avant!

Les objectifs chiffrés ont-ils été bien énoncés

Le futur article L. 100-4 porte les objectifs chiffrés. Certains des chiffres proviennent d'engagements européens déjà pris ou en passe de l'être. C'est le cas des 23% d'énergie renouvelables dans la consommation finale en 2020 et de la baisse de 40% des émissions de gaz à effet de serre entre 1990 et 2030. D'autres comme la baisse de la consommation d'énergie finale de 50% d'ici à 2050 ou la baisse de la part du nucléaire à 50% dans la production d'électricité relèvent des choix du gouvernement actuel.

J'ai déjà parlé l'an dernier, en mal, de la division par 2 de la consommation d'énergie finale d'ici à 2050, lorsque François Hollande avait annoncé cet objectif. Pour revenir aux arguments chiffrés, il faut remarquer que l'objectif fixé en Allemagne est une baisse de seulement 40%, pour une population attendue en baisse de 10%, alors qu'en France, on attend une population en hausse de 10%. L'effort est donc extrêmement conséquent et inédit. Les chances sont fortes que l'activité économique soit fortement impactée. Il se trouve que la loi donne un objectif complémentaire: le rythme de baisse de l'intensité énergétique finale à atteindre en 2030, 2.5%/an. L'intensité énergétique est la quantité d'énergie consommée — corrigée des conditions météo — rapportée au PIB, c'est donc une mesure d'efficacité. Or, il se trouve que la division par 2 de la consommation finale d'énergie implique un rythme de baisse moyen de 1.8% par an. Ce qui veut dire que le gouvernement se fixe grosso modo comme objectif une croissance moyenne de 0.7% par an d'ici à 2050. Je ne suis pas convaincu que ce soit le message que veuille faire passer le gouvernement!

Mais il s'avère aussi que l'objectif de rythme annuel de baisse de l'intensité énergétique est pratiquement hors d'atteinte: en dehors des pays ayant traversé une grave dépression et les anciens pays du bloc communiste, je ne sais pas si on peut trouver des exemples. On peut même voir qu'en France, le rythme de baisse de l'intensité énergétique finale est à peu près constant depuis au moins 30 ans à environ -1.1% par an, comme on peut le voir ci-dessous: intensite_fr_1981-2013.jpg Les statisticiens du ministère de l'énergie indiquent dans le bilan énergétique annuel (p103) que le rythme depuis 2005 est de -1.3% par an. On voit donc qu'il faudrait qu'une modification rapide et fondamentale de la société française se produise et que les fondements de l'activité économique changent du tout au tout. Des gains de productivité inédits devraient se produire pendant une longue durée!

D'autre part, si le gouvernement entend réduire le chômage, une croissance de l'ordre de 1.5% par an est nécessaire. Cela rend aussi plus facile d'équilibrer les comptes de l'assurance maladie, des caisses de retraite, etc. Bref, s'il veut tenir ces autres engagements qui me semblent nécessaires à la paix civile dans notre pays et très conformes aux demandes des citoyens, c'est un rythme de gains d'efficacité énergétique de l'ordre de 3.5%/an pendant 30 ans qu'il faut viser. En attendant, si la tendance actuelle se poursuit, le gouvernement s'est donné pour objectif une récession moyenne de 0.5% du PIB par an pendant plus de 30 ans. Avis aux amateurs!

Une nouvelle fois, la source ultime de cet engagement est connue: diviser par 2 la consommation finale d'énergie est à peu près la seule façon d'espérer se passer de nucléaire sans augmenter les émission de CO₂. Tous les scénarios écologistes sont bâtis sur cette hypothèse, mais même ainsi, se passer de nucléaire relève de l'exploit. Mais au final, on voit bien qu'aucun gouvernement véritablement sain d'esprit ne s'engagera dans une telle politique. La tendance est claire: si on veut réellement diviser la consommation d'énergie par 2 d'ici à 2050, c'est une dépression de 30 ans qui est prévisible. Même avec un objectif très optimiste de gains d'efficacité, la croissance restera très faible. Il se passera donc avec ces objectifs ce qui s'est passé partout dans le monde face à ce type d'engagement intenable: il sera abandonné lorsqu'il deviendra trop voyant qu'on ne peut pas l'atteindre. Il reste toutefois qu'il devient difficile de prendre au sérieux aucun des objectifs mentionnés dans cette loi quand on voit que le gouvernement fixe un objectif de croissance de 0.7%/an à rebours de tout ce qu'il promet par ailleurs! Mais cela n'empêchera pas dans l'intervalle de prendre des décisions néfastes sur cette base…

1 octobre 2014

Quel contrôle des coûts pour les EnRs?

Ségolène Royal a répété à de multiples reprises à la radio dimanche dernier que les EnRs et les travaux d'isolation allaient rapporter de l'argent au lieu d'en coûter. Cela implique normalement que les coûts pour la collectivité soient contrôlés de façon à ce qu'on tire le maximum des énergies renouvelables les moins chères. En effet, utiliser les énergies renouvelables les moins chères permet d'en utiliser le maximum pour un montant donné: on maximise de cette façon le rendement des investissements.

Lors de son interview, Ségolène Royal a mentionné une famille habitant dans une habitation nouvelle dont la facture d'énergie était de 96 centimes d'euro par mois. La suite de l'entretien montrait quelle était la recette: une bonne isolation, certes, mais aussi l'installation de panneaux solaires qui permettent de toucher des subsides très intéressants qui s'élèvent dans le cas de cette nouvelle habitation à plus de 280€/MWh produit. On peut comparer cela au coût de la fourniture d'énergie dans le Tarif Bleu d'EDF, destiné aux particuliers: il était en 2012 d'environ 45€/MWh (rapport de la CRE, Figure 54, p78). La différence est évidemment payée par une taxe, la CSPE: autrement dit, si ce ménage ne paye que 96 centimes par mois, c'est que la collectivité paye le reste.

Les charges de la CSPE représentent, pour sa partie finançant les énergies renouvelables, plus de 3.5G€ cette année. Comme l'indique le site de la CRE, le montant de la taxe devrait être de 22.5€/MWh mais elle est limitée à 16.5€/MWh parce que la hausse de la taxe est limitée à 3€/MWh par an. Un déficit de plus en plus important est en train de se creuser, qu'il faudra bien combler un jour. Toujours est-il qu'on peut constater que les seules EnRs électriques réclament un financement de l'ordre de 12€/MWh dont l'essentiel va à 3 sources d'énergie: l'éolien, la biomasse et le solaire PV, ce dernier se taillant la part du lion. Ces 3 sources représentent environ 3% de la production totale d'électricité en France … pour un chiffre d'affaires global égal à 25% de l'ensemble!

En Allemagne, le montant de la taxe a explosé en quelques années à cause du rythme d'installation des panneaux solaires et l'absence de contrôle des coûts. Elle est aujourd'hui de 62.4€/MWh, soit plus que le coût des productions classiques ou encore près de 2 fois le prix spot de l'électricité en Allemagne. La taxe EnR allemande est une des raisons pour lesquelles le prix de l'électricité pour les particuliers atteint 300€/MWh. Comme on le voit, le contrôle des coût devrait constituer une partie essentielle de la politique menée si on veut préserver le pouvoir d'achat des Français — comme l'affirme Ségolène Royal. La Cour des Comptes a aussi publié un rapport très critique à ce sujet l'an dernier.

On pouvait donc s'attendre à ce que des mesures soient prises sur ce terrain. En lisant le projet de loi, on constate qu'il y en a … aucune! Il y a bien des dispositions tenant compte des demandes de la commission européenne — mais dont bien sûr l'essentiel des installations, éoliennes et solaire seront exonérées — et l'article 50 sur un comité de gestion de la CSPE qui sera chargé de faire ce que fait actuellement la CRE. C'est tout. À un député proposant une réforme, il est répondu qu'une mission d'information a été mise en place … alors que le problème est connu depuis plusieurs années: la commission sénatoriale de 2012 sur les coûts de l'électricité a déjà abordé le sujet! Que rien ne soit prévu dans ce projet de loi est donc un pur scandale. À côté de cela, Ségolène Royal continue de chanter les louanges de l'éolien en mer. L'appel d'offres de ce printemps s'est soldé par un prix d'environ 220€/MWh en 2022. Aucun compte ne semble avoir été tenu du rapport de la Cour des Comptes. Bref, le robinet est toujours grand ouvert.

Au-delà de la protection du pouvoir d'achat, un contrôle des coûts est aussi important car plus les sources d'énergies qui incluent des EnRs sont taxées, plus on favorise les autres sources. En effet, le ratio des prix devient plus favorable aux autres énergies et les effets d'éventuelles taxes carbones est neutralisé par l'inflation liée aux EnRs. Aujourd'hui, le gaz est soumis à une taxe carbone minime qui va atteindre 4.45€/MWh en 2016, soit moins de 10% du prix du gaz (hors taxes). La CSPE est de 16.5€/MWh cette année, elle atteindra donc 22.5€/MWh en 2016 soit probablement plus de 20% du prix hors taxes de l'électricité. Autrement dit, l'expansion des renouvelables décourage l'emploi d'une source peu carbonée comme l'électricité française (environ 50g de CO₂ par kWh) en faveur de l'emploi d'un combustible fossile comme le gaz naturel (environ 200g de CO₂ par kWh). L'absence de contrôle des coûts est un encouragement à émettre plus de CO₂, à rebours de tous les objectifs proclamés.

Pour conclure, le manque de dispositions visant à contrôler les coûts dus aux énergies renouvelables, notamment électriques, me semble un pur scandale. Alors que la ministre proclame urbi et orbi que son projet de loi va rapporter de l'argent, qu'elle veut faire baisser les émissions de CO₂, elle acte en approuvant des projets hors de prix et en ne prenant aucune autre mesure des incitations financières exactement inverses. Au fond, c'est significatif des buts de ce projet de loi: il ne s'agit pas tellement de développer au maximum les énergies renouvelables pour un prix raisonnable et de réduire les émissions de CO₂ par ce biais, mais d'en construire pour elles-mêmes, pour des qualités qu'on leur donne a priori, parce que cela va dans le sens de l'idéologie dominante au PS et surtout chez leur allié les Verts.

- page 1 de 8