epi.proteos.info

Aller au contenu | Aller au menu | Aller à la recherche

26 octobre 2014

Vers un doublement de la CSPE

Le 15 octobre dernier, Philippe de Ladoucette, le président de la CRE était entendu par la commission d'enquête sur les tarifs de l'électricité à l'Assemblée Nationale (retranscription, vidéo). À l'occasion, la CRE rendait public deux rapports, l'un sur les tarifs régulés d'EDF et un autre sur les perspectives de la CSPE. Ce billet est consacré au rapport sur la CSPE. La CSPE est une taxe un peu fourre-tout qui sert à la fois à financer les tarifs sociaux de l'électricité, la péréquation avec les îles sous administration française (Corse, DOMs, etc.) ainsi que les tarifs de rachats divers dont ceux des énergies renouvelables. L'élément le plus remarquable de ce rapport sur la CSPE est qu'il la voit passer de 16.5€/MWh cette année à 30.2€/MWh en 2025. CSPE_2003-2025.jpg

La situation présente

Ces dernières années, avec notamment la forte hausse du prix du pétrole et la bulle du photovoltaïque en 2010, les charges à couvrir ont fortement augmenté, ce qui a provoqué l'apparition d'un déficit de plus de 4G€ qu'il va falloir résorber. Cette année, avec 16.5€/MWh, la taxe couvre les charges courantes prévues à 6.2G€. L'année prochaine, le stock de dette devrait commencer à se résorber, la CSPE étant augmentée plus vite que les charges courantes. Elle atteindra 19.5€/MWh pour des charges courantes de 17.7€/MWh. Aujourd'hui, plus de 60% des charges relèvent des énergies renouvelables et un gros quart de la péréquation, les tarifs sociaux n'en représentent que 5% environ.

La hausse des prix du pétrole a eu un impact sur le coût de la péréquation: dans les îles, les centrales sont bien souvent des centrales au fioul. De ce fait, le coût de la péréquation atteint environ 1.9G€ en 2014, en incluant les EnR de ces régions. Le plus gros poste relève des tarifs de rachats de toute sortes et aux prix les plus divers, de la cogénération — à base de combustibles fossiles… — au solaire photovoltaïque qui représentent 3.5G€ cette année pour les installations métropolitaines. Le solaire photovoltaïque de métropole absorbe à lui seul 2.1G€ de subventions. Avec 14% de la production éligible aux tarifs de rachat, ce dernier capture à lui seul 62% des subventions! L'explication de cette situation est que les subventions sont accordées sur la base des coûts de chaque type d'énergie subventionnée, sans vraiment prendre en compte l'utilité de chacune. Cette situation paraît amenée à perdurer comme le montrent les prévisions de la CRE.

La situation future

La CRE prévoit une forte hausse de la CSPE, marquée dans un premier par une hausse rapide dans les 3 années qui viennent pour combler la dette accumulée, puis par la mise en service de nouvelles installations. Elle devrait atteindre 10.6G€ annuels en 2025, soit une taxe de 30.2€/MWh. La trajectoire prévue figure sur le graphe ci-dessous. evolution_unitaire_2013-2025.jpg

Comme la dette accumulée va être résorbée dans les quelques années qui viennent, la hausse de la taxe unitaire s'explique par la hausse des charges courantes. Comme les tarifs sociaux restent une petite partie du coût, les raisons sont à trouver dans les 2 gros contributeurs actuels: la péréquation et les tarifs de rachat. Le coût de la péréquation passe de 1.7G€ à 2.5G€ (Figure 81 p112) soit une augmentation de 50%. La plus grosse part de l'augmentation est donc causée par l'autre poste important, les tarifs de rachat qui passent de 3.5G€ en 2014 à environ 8G€ en 2025: ils font plus que doubler. evolution_EnR_2013-2025.jpg L'essentiel des subventions va à 2 technologies en 2025: le solaire PV et l'éolien en mer. À eux deux, ils capturent 5G€ sur 8G€ de subventions. Un constat s'impose: aux conséquences de la bulle du photovoltaïque vont se superposer les conséquences des appels d'offres sur l'éolien en mer qui se sont soldés par des tarifs extrêmement onéreux, puisqu'à l'horizon 2020, l'indexation amènera le prix à 220€/MWh environ. Avec 2.1G€ annuels de subventions dédiés aux contrats photovoltaïques signés avant 2013 et qui courent sur 20 ans de production, leur coût total s'élève à 42G€. Pour l'éolien en mer, la CRE prévoit sur la durée de vie des contrats actuellement passés 38G€ de subventions (p5). On voit que ce sont des sommes du même ordre. On peut conclure que la politique menée pour soutenir le secteur des énergies renouvelables électrique ne tient absolument pas compte du coût pour le consommateur.

60% des subventions en 2025 iront à des contrats mis en œuvre après 2013, ce qui montre que la bulle photovoltaïque de 2009-2010 ne sera certainement pas la seule responsable de la forte hausse de la taxe. Les estimations de la CRE conduisent peu ou prou à un chiffres d'affaires des secteurs sous obligation d'achat de 15G€/an pour une production d'environ 85TWh, soit environ 15% de la production d'électricité française. Si EDF obtient les 55€/MWh qu'il demande pour son parc nucléaire dans le futur, le chiffres d'affaires du parc nucléaire sera d'environ 25G€ pour plus de 400TWh de production. Une nouvelle fois, on voit que les coûts des EnR sont loin d'être maîtrisés!

Par ailleurs, durant son audition, le président de la CRE a précisé que ses prévisions étaient conservatrices. En effet, les calculs ont été effectués en prenant des hypothèses qui tendent à minimiser les subventions versées:

  1. La CRE prévoit une hausse du prix spot de l'électricité. Or, comme je l'avais constaté, plus il y a d'énergies subventionnées, plus les cours ont tendance à baisser. Cependant, cet effet est assez faible: une erreur de 10€/MWh (soit environ 20%) sur le prix de gros entraîne une variation de 700M€ des charges. Cela montre une fois de plus que l'essentiel des surcoûts ne vient pas des volumes produits mais des contrats signés en faveur de technologies très loin d'être compétitives
  2. Pas de renouvellement de contrat à terme quand ce n'est pas prévu par la réglementation actuelle. Cela vaut surtout pour l'éolien. Au vu de ce qui se passe aujourd'hui avec le petit hydraulique et la cogénération, la prudence est de mise, même si une nouvelle fois, l'impact devrait être faible, étant donné que l'éolien terrestre fait partie des EnR les moins chères.
  3. Elle prévoit aussi que les installation suivent la programmation effectuée suite au Grenelle de l'Environnement, en l'adaptant suivant ce qui s'est passé depuis et en abaissant les objectifs. C'est ainsi que l'essentiel des capacités nouvelles d'ici 2025 proviennent de l’éolien terrestre, que la progression du photovoltaïque est limitée et qu'il n'y a pas de nouvel appel d'offres pour l'éolien en mer. C'est pratiquement le cas le plus favorable au consommateur.
  4. Cette hypothèse est rendue encore plus optimiste par les projets du gouvernement actuel qui tient absolument à faire baisser la part du nucléaire dans la production d'électricité et à augmenter la part des renouvelables. En tenant compte de la production hydraulique actuelle, cela voudrait dire qu'en 2025, la part de la production électriques provenant des EnR subventionnées serait de 25 à 30%, soit à peu près de 2 fois plus que ce que prévoit la CRE. Même si on ne croit pas ce que raconte le gouvernement, cela va créer une pression à la hausse car pour paraître atteindre les nouveaux objectifs, il va sans doute falloir relever les tarifs de rachat et lancer d'autres appels d'offres particulièrement onéreux.

Quelques conclusions

Il est aussi intéressant qu'aucune des modalités de soutien ne trouve grâce aux yeux de la CRE (voir p3 et suivantes). On comprend qu'à chaque fois, les tarifs lui paraissent en tout ou partie trop élevés par rapport aux bénéfices attendus et aux coûts réels de chaque technologie.

Face à une telle augmentation, il n'est pas très étonnant que cette taxe bien visible par les consommateurs-électeurs devienne un sujet digne d'intérêt pour les parlementaires. Même si le sujet de l'augmentation de cette taxe est peu abordé dans les médias, les plaintes des électeurs au sujet de leur facture doivent remonter auprès des politiques. Quand de l'autre côté les prévisions annoncent une hausse importante de la taxe, la question de l'assiette de la taxe surgit à nouveau. Il faut dire que le but officiel est de réduire les émissions de gaz à effet de serre. Mais comme le gaz, par exemple, est exonéré, on voit que plus il y a d'énergies renouvelables dans la production électrique française, plus elle est taxée et plus il est en fait intéressant de se tourner vers le gaz et donc d'émettre du CO₂. Comme les coûts évalués par la CRE relèvent essentiellement de contrats déjà actés, si le gouvernement veut éviter la grogne des consommateurs d'électricité, il ne lui reste guère que l'option d'étaler les coûts sur d'autres consommateurs, comme les consommateurs de fioul et de gaz, qui à leur tour grogneront. Il n'y a donc pas vraiment d'issue favorable possible sur cette question!

Enfin, la question des bénéfices à retirer des énergies renouvelables n'est jamais ou presque abordée. Cela nécessiterait de comparer à des alternatives — par exemple, remplacer les quelques centrales à charbon françaises qui resteront après 2015 par des centrales au gaz coûterait certainement moins cher à la tonne CO₂ évitée. Les énergies renouvelables électriques sont devenues dans le débat public des buts en elles-même. Pas étonnant dans ces conditions que la distribution des subventions montre un grand laisser-aller.

5 octobre 2014

Faut-il prendre au sérieux les objectifs de la loi sur l'énergie de cette année?

Pour continuer cette série de billets sur la loi sur l'énergie actuellement en discussion au Parlement, je vais aborder dans ce billet les objectifs prévus par l'article 1 de la loi. Ces objectifs sont censés déterminer la politique énergétique suivie par la France ces prochaines années. Malheureusement, ils me semblent impropres à pouvoir engendrer une politique cohérente. D'une part parce qu'ils me paraissent irréalistes, mais aussi parce qu'ils semblent avoir été écrit à la va-vite, effet renforcé après la passage en commission parlementaire du texte.

Les modifications verbeuses et contradictoires des parlementaires

Il peut d'abord être utile de comparer la version originelle du projet de loi et celle qui est sortie de la commission ad hoc. On peut constater que la version du gouvernement contient 4 objectifs pour le futur article L. 100-1, 6 pour le L. 100-2 et 5 pour le L.100-4. Au sortir de la commission, il y a 7 objectifs pour le L. 100-1, 8 pour le L. 100-2 et 7 pour le L. 100-4. Plus on ajoute d'objectifs, moins il est difficile de justifier qu'une politique corresponds aux buts énoncés: à force d'en ajouter, il devient possible de justifier à peu près toutes les politiques possibles, à charge pour le gouvernement de choisir les objectifs qu'il veut atteindre parmi ceux qui se contredisent.

Par ailleurs, certains de ces ajouts n'apportent rien ou presque, voire se contredisent entre eux. Ainsi pour le futur L. 100-1, les parlementaires ont jugé bon de donner 3 objectifs quasiment équivalents:

(…)
« 3° Maintient un coût de l’énergie compétitif ;
« 4° (Supprimé)
« 5° Garantit la cohésion sociale et territoriale en assurant l’accès de tous à l’énergie sans coût excessif au regard des ressources des ménages ;
« 6° (nouveau) Lutte contre la précarité énergétique ; (…)

On ne peut pas dire qu'il y ait une grande différence entre un coût compétitif, la lutte contre la précarité énergétique et l'énergie sans coût excessif au regard des ressources des ménages: ces 3 objectifs ont les mêmes conséquences pratiques et il doit bien être possible d'en proposer une synthèse claire, en gardant le seul 3° — qui existe déjà dans la version actuelle — ou par exemple en écrivant: Maintient un coût de l’énergie compétitif et abordable pour tous sur l'ensemble du territoire de la République.

Mais ce n'est pas tout: pour le futur L. 100-2, ils ont fait ajouter la phrase Procéder à l’augmentation progressive de la contribution climat-énergie, qui (sic), dans la perspective d’une division par quatre des gaz à effet de serre qui semble contradictoire avec les dispositions qu'ils ont fait ajouter juste avant!

Les objectifs chiffrés ont-ils été bien énoncés

Le futur article L. 100-4 porte les objectifs chiffrés. Certains des chiffres proviennent d'engagements européens déjà pris ou en passe de l'être. C'est le cas des 23% d'énergie renouvelables dans la consommation finale en 2020 et de la baisse de 40% des émissions de gaz à effet de serre entre 1990 et 2030. D'autres comme la baisse de la consommation d'énergie finale de 50% d'ici à 2050 ou la baisse de la part du nucléaire à 50% dans la production d'électricité relèvent des choix du gouvernement actuel.

J'ai déjà parlé l'an dernier, en mal, de la division par 2 de la consommation d'énergie finale d'ici à 2050, lorsque François Hollande avait annoncé cet objectif. Pour revenir aux arguments chiffrés, il faut remarquer que l'objectif fixé en Allemagne est une baisse de seulement 40%, pour une population attendue en baisse de 10%, alors qu'en France, on attend une population en hausse de 10%. L'effort est donc extrêmement conséquent et inédit. Les chances sont fortes que l'activité économique soit fortement impactée. Il se trouve que la loi donne un objectif complémentaire: le rythme de baisse de l'intensité énergétique finale à atteindre en 2030, 2.5%/an. L'intensité énergétique est la quantité d'énergie consommée — corrigée des conditions météo — rapportée au PIB, c'est donc une mesure d'efficacité. Or, il se trouve que la division par 2 de la consommation finale d'énergie implique un rythme de baisse moyen de 1.8% par an. Ce qui veut dire que le gouvernement se fixe grosso modo comme objectif une croissance moyenne de 0.7% par an d'ici à 2050. Je ne suis pas convaincu que ce soit le message que veuille faire passer le gouvernement!

Mais il s'avère aussi que l'objectif de rythme annuel de baisse de l'intensité énergétique est pratiquement hors d'atteinte: en dehors des pays ayant traversé une grave dépression et les anciens pays du bloc communiste, je ne sais pas si on peut trouver des exemples. On peut même voir qu'en France, le rythme de baisse de l'intensité énergétique finale est à peu près constant depuis au moins 30 ans à environ -1.1% par an, comme on peut le voir ci-dessous: intensite_fr_1981-2013.jpg Les statisticiens du ministère de l'énergie indiquent dans le bilan énergétique annuel (p103) que le rythme depuis 2005 est de -1.3% par an. On voit donc qu'il faudrait qu'une modification rapide et fondamentale de la société française se produise et que les fondements de l'activité économique changent du tout au tout. Des gains de productivité inédits devraient se produire pendant une longue durée!

D'autre part, si le gouvernement entend réduire le chômage, une croissance de l'ordre de 1.5% par an est nécessaire. Cela rend aussi plus facile d'équilibrer les comptes de l'assurance maladie, des caisses de retraite, etc. Bref, s'il veut tenir ces autres engagements qui me semblent nécessaires à la paix civile dans notre pays et très conformes aux demandes des citoyens, c'est un rythme de gains d'efficacité énergétique de l'ordre de 3.5%/an pendant 30 ans qu'il faut viser. En attendant, si la tendance actuelle se poursuit, le gouvernement s'est donné pour objectif une récession moyenne de 0.5% du PIB par an pendant plus de 30 ans. Avis aux amateurs!

Une nouvelle fois, la source ultime de cet engagement est connue: diviser par 2 la consommation finale d'énergie est à peu près la seule façon d'espérer se passer de nucléaire sans augmenter les émission de CO₂. Tous les scénarios écologistes sont bâtis sur cette hypothèse, mais même ainsi, se passer de nucléaire relève de l'exploit. Mais au final, on voit bien qu'aucun gouvernement véritablement sain d'esprit ne s'engagera dans une telle politique. La tendance est claire: si on veut réellement diviser la consommation d'énergie par 2 d'ici à 2050, c'est une dépression de 30 ans qui est prévisible. Même avec un objectif très optimiste de gains d'efficacité, la croissance restera très faible. Il se passera donc avec ces objectifs ce qui s'est passé partout dans le monde face à ce type d'engagement intenable: il sera abandonné lorsqu'il deviendra trop voyant qu'on ne peut pas l'atteindre. Il reste toutefois qu'il devient difficile de prendre au sérieux aucun des objectifs mentionnés dans cette loi quand on voit que le gouvernement fixe un objectif de croissance de 0.7%/an à rebours de tout ce qu'il promet par ailleurs! Mais cela n'empêchera pas dans l'intervalle de prendre des décisions néfastes sur cette base…

1 octobre 2014

Quel contrôle des coûts pour les EnRs?

Ségolène Royal a répété à de multiples reprises à la radio dimanche dernier que les EnRs et les travaux d'isolation allaient rapporter de l'argent au lieu d'en coûter. Cela implique normalement que les coûts pour la collectivité soient contrôlés de façon à ce qu'on tire le maximum des énergies renouvelables les moins chères. En effet, utiliser les énergies renouvelables les moins chères permet d'en utiliser le maximum pour un montant donné: on maximise de cette façon le rendement des investissements.

Lors de son interview, Ségolène Royal a mentionné une famille habitant dans une habitation nouvelle dont la facture d'énergie était de 96 centimes d'euro par mois. La suite de l'entretien montrait quelle était la recette: une bonne isolation, certes, mais aussi l'installation de panneaux solaires qui permettent de toucher des subsides très intéressants qui s'élèvent dans le cas de cette nouvelle habitation à plus de 280€/MWh produit. On peut comparer cela au coût de la fourniture d'énergie dans le Tarif Bleu d'EDF, destiné aux particuliers: il était en 2012 d'environ 45€/MWh (rapport de la CRE, Figure 54, p78). La différence est évidemment payée par une taxe, la CSPE: autrement dit, si ce ménage ne paye que 96 centimes par mois, c'est que la collectivité paye le reste.

Les charges de la CSPE représentent, pour sa partie finançant les énergies renouvelables, plus de 3.5G€ cette année. Comme l'indique le site de la CRE, le montant de la taxe devrait être de 22.5€/MWh mais elle est limitée à 16.5€/MWh parce que la hausse de la taxe est limitée à 3€/MWh par an. Un déficit de plus en plus important est en train de se creuser, qu'il faudra bien combler un jour. Toujours est-il qu'on peut constater que les seules EnRs électriques réclament un financement de l'ordre de 12€/MWh dont l'essentiel va à 3 sources d'énergie: l'éolien, la biomasse et le solaire PV, ce dernier se taillant la part du lion. Ces 3 sources représentent environ 3% de la production totale d'électricité en France … pour un chiffre d'affaires global égal à 25% de l'ensemble!

En Allemagne, le montant de la taxe a explosé en quelques années à cause du rythme d'installation des panneaux solaires et l'absence de contrôle des coûts. Elle est aujourd'hui de 62.4€/MWh, soit plus que le coût des productions classiques ou encore près de 2 fois le prix spot de l'électricité en Allemagne. La taxe EnR allemande est une des raisons pour lesquelles le prix de l'électricité pour les particuliers atteint 300€/MWh. Comme on le voit, le contrôle des coût devrait constituer une partie essentielle de la politique menée si on veut préserver le pouvoir d'achat des Français — comme l'affirme Ségolène Royal. La Cour des Comptes a aussi publié un rapport très critique à ce sujet l'an dernier.

On pouvait donc s'attendre à ce que des mesures soient prises sur ce terrain. En lisant le projet de loi, on constate qu'il y en a … aucune! Il y a bien des dispositions tenant compte des demandes de la commission européenne — mais dont bien sûr l'essentiel des installations, éoliennes et solaire seront exonérées — et l'article 50 sur un comité de gestion de la CSPE qui sera chargé de faire ce que fait actuellement la CRE. C'est tout. À un député proposant une réforme, il est répondu qu'une mission d'information a été mise en place … alors que le problème est connu depuis plusieurs années: la commission sénatoriale de 2012 sur les coûts de l'électricité a déjà abordé le sujet! Que rien ne soit prévu dans ce projet de loi est donc un pur scandale. À côté de cela, Ségolène Royal continue de chanter les louanges de l'éolien en mer. L'appel d'offres de ce printemps s'est soldé par un prix d'environ 220€/MWh en 2022. Aucun compte ne semble avoir été tenu du rapport de la Cour des Comptes. Bref, le robinet est toujours grand ouvert.

Au-delà de la protection du pouvoir d'achat, un contrôle des coûts est aussi important car plus les sources d'énergies qui incluent des EnRs sont taxées, plus on favorise les autres sources. En effet, le ratio des prix devient plus favorable aux autres énergies et les effets d'éventuelles taxes carbones est neutralisé par l'inflation liée aux EnRs. Aujourd'hui, le gaz est soumis à une taxe carbone minime qui va atteindre 4.45€/MWh en 2016, soit moins de 10% du prix du gaz (hors taxes). La CSPE est de 16.5€/MWh cette année, elle atteindra donc 22.5€/MWh en 2016 soit probablement plus de 20% du prix hors taxes de l'électricité. Autrement dit, l'expansion des renouvelables décourage l'emploi d'une source peu carbonée comme l'électricité française (environ 50g de CO₂ par kWh) en faveur de l'emploi d'un combustible fossile comme le gaz naturel (environ 200g de CO₂ par kWh). L'absence de contrôle des coûts est un encouragement à émettre plus de CO₂, à rebours de tous les objectifs proclamés.

Pour conclure, le manque de dispositions visant à contrôler les coûts dus aux énergies renouvelables, notamment électriques, me semble un pur scandale. Alors que la ministre proclame urbi et orbi que son projet de loi va rapporter de l'argent, qu'elle veut faire baisser les émissions de CO₂, elle acte en approuvant des projets hors de prix et en ne prenant aucune autre mesure des incitations financières exactement inverses. Au fond, c'est significatif des buts de ce projet de loi: il ne s'agit pas tellement de développer au maximum les énergies renouvelables pour un prix raisonnable et de réduire les émissions de CO₂ par ce biais, mais d'en construire pour elles-mêmes, pour des qualités qu'on leur donne a priori, parce que cela va dans le sens de l'idéologie dominante au PS et surtout chez leur allié les Verts.

29 septembre 2014

Vers des rénovations obligatoires

Le projet de loi sur l'énergie de ce quinquennat va être étudié à l'assemblée dans l'hémicycle à partir de ce mercredi 1er octobre. Le projet original est passé en commission où plus de 2000 amendements ont été étudiés pour arriver à la version approuvée par la commission parlementaire sur le sujet. Pour l'occasion, Ségolène Royal a fait un passage à la radio ce dimanche pour défendre cette loi.

J'écrirai peut-être d'autres articles sur le sujet de ce projet de loi dans les prochains jours. Pour commencer, cet article porte sur l'article 5, qui modifie l'article de loi qui permet au gouvernement d’édicter la règlementation thermique. La nouvelle rédaction va donner pouvoir à l'état d'édicter l'obligation d'effectuer des travaux d'isolation lorsqu'on ravale une façade ou rénove une toiture.

Ce faisant, on s'engage de plus en plus vers un régime de rénovations obligatoires. C'est clairement une idée qui fait son chemin. C'est par exemple ce que soutient cette vidéo (The Shift Project): il est clairement proposé dans cette conférence d'obliger à faire des travaux d'isolation à la vente de certains logements. C'est aussi ce qui transparaît dans le paragraphe sur le bâtiment de ce billet d'Arnaud Gossement, avocat spécialisé dans ce types de questions énergétiques.

À mon sens, cette idée est à double tranchant. Dans le meilleur des cas, elle peut effectivement atteindre son but d'accélérer le rythme de rénovation des bâtiments. Dans le pire des cas, elle peut freiner d'autres travaux — ceux qu'on veut lier à des travaux d'isolation — ou renforcer les blocages sur le marché immobilier, en agrandissant la différence entre la somme reçue par le vendeur et celle payée par l'acheteur. Le blocage peut s'opérer de plusieurs façons:

  1. La plus immédiate est celle du coût: en liant des actes qui n'étaient pas a priori liés jusque là, on impose une dépense supplémentaire à des gens qui n'en ont pas forcément les moyens ou l'envie. Une réponse très simple est alors de ne pas faire de travaux ou de faire des travaux qui ne tombent pas sous le coup des obligations. Par exemple, dans le cas d'une rénovation de toiture, on peut décider de ne plus faire que remplacer les ardoises ou les tuiles en trop mauvais état pour éviter l'obligation d'isolation imposée en cas de rénovation complète.
  2. Une autre est qu'il n'est pas évident que le coût de ces travaux imposés puissent être répercutés sur les locataires: on renforce donc la faiblesse des rendements locatifs en France … ce qui a normalement pour contrecoup de moindres dépenses d'entretien ou d'amélioration.
  3. La plus insidieuse est qu'on va vers un système normatif où il va falloir se justifier. Une justification a toujours un coût. De plus la normalisation de ces travaux peut les complexifier notablement. Pour en revenir à mon billet précédent, entre la règlementation thermique de 2005 et celle de 2012, il y a eu une multiplication par 5 de la longueur de la norme.

Sur une note plus polémique, ce type d'article contredit aussi directement les propos de Ségolène Royal lors de son passage radio où elle a souvent affirmé que les économies d'énergie imposées par cette loi allaient rapporter de l'argent. Pourquoi imposer aux gens des rénovations par la loi, si elles sont véritablement rentables pour eux? Dans ce cas, édicter des normes peut se révéler totalement contreproductif en les obligeant à se justifier de ce qu'ils auraient fait naturellement. Au contraire, de tels articles de loi montrent que les prix de l'énergie ne sont pas suffisamment élevés pour justifier d'investir fortement pour réaliser des économies d'énergie. Les travaux visés sont toutefois ceux qui sont le plus proches de la rentabilité, voire déjà rentables aux prix actuels: une étude de l'UFE de 2012, le lobby des électriciens, montrait que l'isolation des combles et l'isolation par l'extérieur avaient au moins des taux de rentabilité positifs dans la plupart des cas.

Pour conclure, je suis partagé sur ce genre d'articles de loi: d'un côté ils sont relativement limités dans leurs conséquences immédiates et concernent des rénovations raisonnables, mais de l'autre la pente sur laquelle le gouvernement s'engage est très glissante. Ces obligations de rénovations peut d'abord se traduire par moins de rénovations. Mais la mesure peut rencontrer un succès certain et la tentation deviendra grande pour l'utiliser pour forcer toute sortes de travaux, nettement plus loin de la rentabilité. On aurait alors une réglementation qui aurait pour effet de freiner les rénovation à cause de l'obligation d'effectuer des travaux très loin du seuil de rentabilité et qui deviendrait sans doute aussi de plus en plus tatillonne pour parer à ceux qui tenteraient de la contourner. De plus, pour les locations, il faut accepter que les investissements se traduisent par une hausse des loyers, ce qui est tout sauf assuré!

8 septembre 2014

Quelques éléments sur les débats immobiliers

Hier, Verel signalait la publication par le Monde daté de vendredi 5 d'une page de tribunes consacrées aux débats sur l'immobilier et le changement de direction du gouvernement en la matière. N'étant pas abonné, je n'avais accès qu'à la tribune de Cécile Duflot, ancien ministre du logement, etc. Cela n'étonnera personne que je sois en désaccord avec elle et que je trouve la défense de son bilan absolument renversante.

Une des tribunes relevait que les investisseurs institutionnels avaient fui le marché locatif des logements et une autre, écrite par un PDG du secteur du BTP, relevait l'avalanche de normes nouvelles. Ces deux points sont importants: ils expliquent une partie des affres français du logement et pourquoi certaines mesures de la loi ALUR étaient néfastes.

Le faible rendement financier de l'investissement en logements

Contrairement à Cécile Duflot, je ne pense pas que l'obsession de la rente (soit) l'ennemie de la production de logement et soit à l'origine des problèmes français du logement — en fait des grandes villes françaises. En effet, les obsédés de la rente seraient sans doute très tentés d'investir dans des logement pour en tirer encore plus de rentes si le rendement était bon. Inversement, si le rendement est franchement mauvais, il n'y a guère d'alternative que les associations philanthropiques ou les subventions. Or, tout pointe vers une dégradation des rendements locatifs depuis le début des années 2000.

Sur le site du ministère du logement, on trouve des données rassemblées par Jacques Friggit qui étudie le secteur du logement depuis longtemps déjà. On peut donc trouver parmi ces données le graphe suivant qui montre que le prix d'achat d'un logement a nettement plus augmenté que les loyers. rdt_locatif_fr.jpg En conséquence, les investisseurs institutionnels ont fui, comme on en a eu des échos anecdotiques, sous la forme de l'émoi face aux ventes à la découpe qui engendré une loi en la matière pour que les occupants du logement bénéficient de tarifs préférentiels. Cela dit, il reste des logements possédés par des investisseurs institutionnels. Pour connaître le différentiel de rendement, on peut consulter des documents de foncières cotées en bourse. Comme elles sont tenues de valoriser leur patrimoine au prix du marché, on peut connaître le rendement. Il se trouve que la place de Paris compte un exemple de foncière, dotée d'une filiale spécialisée dans les logements, fort utile. La foncière mère a publié une présentation sur ses comptes semestriels 2014 où on trouve p23 le tableau ci-dessous. rdt_cptes_FDR_2014S1.jpg Pour la filiale dont le patrimoine français est principalement concentré à Paris, j'ai pris les comptes de 2013 (p11): rdt_cptes_FDL_2013.jpg

À la vue de ces chiffres, il n'est pas bien difficile de comprendre pourquoi les institutionnels ont fui: après tout s'ils peuvent obtenir de bons rendements, ils veulent bien supporter des tracas administratifs. Ce qui veut dire en passant que le coût de ces derniers sont reportés sur les locataires. Mais s'il y a un rendement bien supérieur dans une activité connexe où le marché est moins régulé, pourquoi se fatiguer?

Cela montre aussi l'inanité de la comparaison avec l'Allemagne sur le contrôle des loyers. En Allemagne, les prix du m² semblent proches de 1000€ dans de nombreuses villes. Pas étonnant dans ces conditions qu'on puisse à la fois avoir de forts rendements locatifs et des loyers bas. Il est aussi peu surprenant que le contrôle des loyers n'y soit pas vu comme une contrainte: avec des rendements au-delà de 6%/an brut, il n'y a pas de difficultés à trouver des preneurs. À l'inverse, en France, les rendements sont déjà bas, surtout à Paris, ce qui veut dire que plafonner les loyers mène à une baisse de l'activité de construction et surtout un moindre entretien des immeubles, d'où à terme un parc de logements à louer qui se dégrade.

Enfin, l'effondrement des rendements n'est pas sans poser de questions. La première approche est de considérer que c'est une situation passagère — c'est la position de Jacques Friggit si on lit ses 200+ planches — et qu'au fur et à mesure, les prix à l'achat reviendront sur leur moyenne de long terme. L'autre approche est de considérer que la situation va perdurer — ce que je pense. Les politiques menées ont combiné restriction du foncier et empêchements divers à rallier les centre-villes. Il faudrait le vérifier, mais on a dû assister à une éviction des locataires au profit des propriétaires-résidents dans le centre de villes comme Paris.

Les normes

Étant donné la situation actuelle de prix élevés, le gouvernement a tout intérêt à ne pas augmenter les prix de construction via une inflation normative. En effet, si les prix de la construction restent contenus, cela place une limite à l'inflation des prix immobiliers dans leur ensemble. Si les prix montent trop, on aboutit à un surcroît de construction. Or, la démarche suivie depuis quelques années va en sens inverse.

Un premier exemple est celui de la réglementation thermique qui vise à limiter les consommations d'énergie pour le chauffage. Pour la RT2005, l'arrêté technique comptait 28 pages, le manuel pour calculer les performances — plus difficile à trouver — comptait 192 pages. Pour la RT 2012, il y a maintenant 2 arrêtés techniques, celui qui concerne les logements compte 42 pages. Quant au manuel, c'est un beau bébé de 1379 pages. Certes, cette évaluation «au kilo de papier» n'est pas forcément proportionnelle à l'évolution de la complexité de la norme, mais on peut tout de même supposer que si on a besoin d'un manuel 5 fois plus long, c'est qu'il y a plus de choses à mesurer, plus de choses à prendre en compte, plus de justifications à donner, etc. Bref, non seulement les performances demandées ont augmenté, mais il y a un surcroît très notable de complexité et sans doute de justifications.

Un deuxième exemple est celui de la réglementation pour l'accessibilité aux handicapés. Tous les logements neufs doivent s'y conformer. Une nouvelle fois le ministère du logement met à notre disposition un site expliquant en quoi consistent les aménagements. Pour essayer d'évaluer l'impact sur le prix à confort équivalent, regardons l'effet sur un 2-pièces. Les 2-pièces neufs ont souvent une surface d'environ 42m². La circulaire nous dit qu'il faut laisser dans les WC, en plus de l'espace habituel, 1.30x0.80m² sur le côté de la cuvette — soit un agrandissement du cabinet d'un peu plus de 1m². Dans la salle de bains, il faut laisser libre un disque de 1.5mètre de diamètre: du fait de l'aménagement habituel, il s'agit d'un carré libre de 2.25m². Dans mon appartement — un 2-pièces — ce dégagement mesure environ 1m². On voit qu'il y a sans doute une perte de surface de l'ordre de 2m² sur l'appartement, soit environ 5% de la surface. En d'autres termes, l'immobilier est renchéri de 5% pour les habitants de 2-pièces. On peut aussi quantifier cela en termes financiers: avec du neuf à un peu plus de 4000€/m², on arrive à un surcoût de 8k€ …

Ce n'est pas que ces normes soient mauvaises en elles-mêmes: c'est même plutôt l'inverse, elles partent d'une bonne intention. Cependant, le résultat est un renchérissement du prix des logements. Pour les locations, ce surcoût doit se répercuter dans les loyers, faute de quoi le marché locatif ne voit pas de nouveau logements — hors subventions. On peut espérer des gains de productivité dans le secteur du BTP, mais c'est plutôt l'inverse qui s'est produit: le coût de la construction s'est élevé ces dernières années. Comme le notait Étienne Wasmer dans une interview après avoir remis son rapport sur l'immobilier locatif, il y a sans doute un problème de concurrence. Il n'est cependant pas dit que ce problème puisse se régler rapidement.

Le constat reste cependant qu'il y a sans doute un grand nombre de normes qui sont venues s'ajouter au cours des 15 dernières années et que la tendance est à la continuation de l'inflation normative: à titre d'exemple, le prochain projet de loi sur l'énergie risque d'être un grand pourvoyeur. Dans ce domaine il faut choisir: soit des normes tatillonnes et des prix élevés, soit des normes plus simples et un espoir de baisse (relative) des prix.

Pour conclure, dans le domaine de l'immobilier comme dans d'autres, il faut choisir et les bons sentiments ne font pas de bonne politique. Si les rendements locatifs sont bas, il y aura forcément une pression à la hausse sur les loyers et à la baisse sur les frais d'entretien. Une autre alternative est l'éviction progressive des locataires au profit de propriétaires-résidents. Mettre en œuvre un contrôle des loyers en France, alors que les rendements locatifs y sont bas aurait un impact à long terme néfaste. En Allemagne, où les rendements sont élevés, le contrôle des loyers ne sert à rien: il n'y a pas vraiment de pression sur les prix! Si on veut que les prix baissent ou au moins se stabilisent en France, il faudrait construire plus dans des zones déjà densément peuplées ou alors permettre de rallier le centre plus rapidement: aucune des 2 politiques n'a été suivie. Sur les normes, elles ne sont sans doute pas responsables à elles seules des problèmes du logement en France, mais à force d'empiler des normes qui renchérissent les logements neufs, personne ne peut plus en acheter.

1 septembre 2014

Le mirage de l'hydrogène

L'hydrogène est souvent présenté comme potentiel candidat pour des systèmes de stockage de l'énergie. L'idée est de produire de l'hydrogène par électrolyse à l'aide d'électricité «excédentaire» et de stocker ce gaz pour s'en servir pour le chauffage — par combustion directe —, pour servir de carburant dans des automobiles — en général, via des piles à combustible — ou encore pour produire de nouveau de l'électricité. Tous les projets sont toutefois restés à l'état de prototype jusqu'à présent.

J'avais abordé suite au rapport de l'OPECST de 2012 sur l'avenir de la filière nucléaire — et plus généralement sur l'avenir de la production d'électricité — les problèmes que posaient la transformation d'électricité en stock d'énergie utilisable plus tard. Au delà des problèmes techniques encore à résoudre, se pose un problème de rentabilité économique: pour que le stockage soit rentable, il faut l'installation ne soit pas trop chère à construire et à faire fonctionner et que la durée de fonctionnement soit élevée. Une note récente du Commissariat à la prospective vient de paraître et fournit quelques données qui vont dans le sens de l'extrême difficulté pour atteindre le seuil de rentabilité. À la lecture de la note, on se dit que l'utilisation de l'hydrogène comme vecteur énergétique relève du mirage: toujours visible à l'horizon, mais dont on ne se rapproche jamais malgré une longue marche dans sa direction.

Le dihydrogène est la molécule qui permet de récupérer le plus d'énergie par combustion rapporté à sa masse. C'est ce qui lui vaut une bonne image quand on parle de stockage de l'énergie. Mais il souffre en fait de graves tares:

  1. Pour un gaz, ce n'est pas tant l'énergie par unité de masse qui compte, mais la quantité d'énergie par unité de volume. En effet, c'est plutôt le volume du réservoir qui est limitant. Or la formule des gaz parfaits nous dit que le volume est proportionnel au nombre de molécules. Ce qui fait qu'au total, le contenu énergétique du dihydrogène est d'environ 3.5 kWh/Nm³ contre environ 11 kWh/Nm³ pour le méthane, principal constituant du gaz naturel. Le dihydrogène est donc un vecteur moins concentré en énergie que ce dont on a l'habitude aujourd'hui
  2. Il n'est pas envisageable de le liquéfier à grande échelle du fait de la température très basse de liquéfaction (-253°C) et aussi d'un gag dû à un phénomène de mécanique quantique
  3. Même s'il est plutôt moins détonnant que le méthane (contrairement à ce qui est dit dans la note), le dihydrogène fuit nettement plus facilement de son contenant. Cela le rend nettement plus dangereux que le méthane. Ce dernier est accompagné d'un gaz odorant dont les propriétés sont proches et qui fuit en même temps que le méthane. C'est impossible pour le dihydrogène qui peut fuir par des micro-fissures. Détecter toutes les fuites est donc nettement plus difficile.
  4. Bien sûr, le dihydrogène n'existe pas — ou quasiment — à l'état naturel, il faut donc le produire. Actuellement, il est principalement fabriqué par vaporeformage. Le but étant aussi d'éviter d'émettre du CO₂, il faut se reporter sur l'électrolyse, nettement plus gourmande en énergie. Cela nécessite donc de construire des usines et de payer l'énergie. Le coût va donc dépendre aussi du taux d'utilisation de l'usine et du rendement du procédé. Il se pose aussi des difficultés pour se procurer du platine en grande quantité pour servir de catalyseur.

La plupart de ces critiques peuvent trouver des réponses techniques, mais elles ont pour la plupart toutes un coût. Si on parle de plus en plus de remplacer le platine par des matériaux plus communs (exemple), les autres solutions sont de compresser l'hydrogène — on estime que compresser à 700 bars coûte 20% du contenu énergétique —, de construire des réservoirs en matériaux composites — donc des coûts de développement — etc. La critique la plus difficilement contournable est donc celle du coût de production. La note fournit des données chiffrées qui laissent peu d'espoir. couts_H2.jpg

Comme on peut le voir ci-dessus, dans tous les cas, l'hydrogène produit est très cher. Les 2 colonnes de gauche représentent à peut près les conditions actuelles de production, la colonne 6, le meilleur cas espéré à l'avenir: un électrolyseur qui coûte à l'achat 800€/kW installé qui tourne presqu'en permanence (7000h par an) et qui paie son électricité 60€/MWh. Dans ce cas, l'hydrogène coûte 94€/MWh thermiques, à comparer à un prix du gaz d'environ 20€/MWh en Europe.
La colonne 5 donne le coût pour un électrolyseur qui serait utilisé pour éponger d'éventuels excédents d'électricité, provenant de sources d'électricité intermittentes comme l'éolien ou le solaire. Dans ce cas, l'électricité serait gratuite, mais on ne peut pas imaginer que ce soit un phénomène courant durant l'année à cause du faible facteur de charge des éoliennes et des panneaux solaire et parce que les producteurs auraient du mal à vivre avec une large part de leur production payée 0€. Mais dans ce cas, on constate que le coût de production est de presque 270€/MWh: le coût est alors déterminé par les frais fixes de l'électrolyseur qu'il faut amortir sur une faible durée d'utilisation.
On voit aussi que la production d'électricité par ce biais est reservée aux cas d'urgence du fait d'un coût qui devient totalement prohibitif, un MWh électrique coûterait de l'ordre de 2 à 3 fois le MWh thermique.

Comme on le voit, pour que l'hydrogène devienne un vecteur énergétique crédible, il faut à la fois que les obstacles technologiques soient surmontés et que les prix baissent énormément. Si les électrolyseurs coûtent actuellement 2000€/kW, il faudrait qu'ils coûtent entre 100 et 200€/kW pour que les coûts deviennent à peu près raisonnables. Comme on voit qu'en plus l'hydrogène est loin d'être le vecteur énergétique le plus pratique, cela veut dire qu'il ne sera utilisé que si on ne peut faire autrement. On peut donc se dire que la situation qui a prévalu jusqu'ici se perpétuera: l'hydrogène continuera d'être évoqué comme prometteur pour quelques dizaines d'années encore.

24 août 2014

Du bilan de Cécile Duflot

Suite aux municipales et au remaniement qui a suivi, Cécile Duflot a choisi de ne pas rester au gouvernement. À l'époque, on comprenait déjà que c'était par désaccord sur la politique à mener par Manuel Valls, ainsi que dans une certaine mesure avec la politique qui avait été menée par le gouvernement Ayrault dont elle faisait partie. Depuis, elle a écrit un livre où il ressort du titre et des «bonnes feuilles» publiées dans la presse qu'elle est déçue de la politique menée et que son passage au gouvernement a été une désillusion. Cécile Duflot défend aussi régulièrement dans les médias son action de ministre en général, la loi qu'elle a fait voter en particulier (dite ALUR).

La parution de son livre et la rentrée qui s'annonce sont l'occasion pour elle de s'exprimer de nouveau, par exemple dans une interview au Monde. Dans la réponse à la deuxième question, elle y défend son bilan personnel et la politique qu'elle comptait mener. Il s'avère cependant que ses propos ne correspondent pas à la réalité.

  1. Elle commence par louer le contrôle des loyers au prétexte que c'est un engagement de campagne. Elle oppose aussi cette mesure aux solutions d'avant: elle prétend donc que le contrôle des loyers est une idée neuve. Bien sûr, il n'en est rien: la chose est suffisamment connue pour qu'il y ait consensus parmi les économistes sur sa nocivité. C'est ainsi que Paul Krugman en a fait le sujet d'une de ses premières tribunes. Le contrôle des loyers n'est pas non plus un inconnu en France, puisqu'il a été utilisé durant l'Entre-deux-guerres. Il semble qu'avant la 2e Guerre Mondiale, on estimait le manque de logements à 2 millions d'unités et que l'état général du parc de logements était désastreux. Les résultats à attendre du contrôle des loyers sont donc nocifs, surtout pour ceux qui cherchent à se loger. Que ce serait respecter un engagement de campagne ne signifie pas pour autant que les Français ne seraient pas déçus!
  2. Pour Cécile Duflot, il fallait arrêter de doper artificiellement l'immobilier à coups de défiscalisation. Il s'avère que Cécile Duflot a donné son nom à un dispositif de défiscalisation, créé par la loi de finances initiale pour 2013, la première du gouvernement Ayrault. Ce dispositif remplace le défunt Scellier. Il est donc utile des les comparer. Pour faire rentrer plus d'argent, à la fin de la mandature précédente, le Scellier ne permettait plus que de défalquer 13% de la valeur du logement sur 9 ans et 21% sur 15 ans. Le Duflot permet, lui, de défalquer 18% sur 9 ans! Certes, les plafonds de loyers ont été abaissés. Mais il est difficile d'y voir la fin du dopage par la défiscalisation! Si vraiment elle voulait la fin des défiscalisations, elle aurait pu au moins s'arranger pour que le dispositif ne porte pas son nom.
  3. Elle finit sa réponse en affirmant que le problème du logement cher est un problème spécifiquement français. Il s'avère en fait que la situation britannique est encore pire. Le magazine britannique The Economist — que, certes, Cécile Duflot ne lit sans doute pas — publie régulièrement des articles et des infographies sur ce sujet. La cause de ces prix élevés ne fait pas de doute pour The Economist: expansion démographique associée à trop de réglementations et à un zonage qui empêche de construire. Des causes qu'on entend souvent nommées pour expliquer la situation du marché immobilier français. Sous l'égide de Cécile Duflot, la loi ALUR a été votée, on dit qu'elle détient le record de longueur sous la Ve République. On conçoit donc qu'elle ne partage pas ces conclusions.

Depuis le départ de Cécile Duflot, les déclarations gouvernementales se sont succédé pour essayer d'amoindrir l'impact de la loi ALUR. C'est ainsi que Sylvia Pinel a annoncé peu ou prou que certains pans de la loi ne seraient pas appliqués et qu'on allait réduire le nombre de documents demandés lors de l'achat d'un appartement en copropriété. Ce changement d'attitude fait suite à la matérialisation d'une baisse d'activité dans le secteur de la construction. Ce revirement, moins de 6 mois après la promulgation de la loi, ne laisse pas d'étonner: les effets néfastes de la loi ALUR étaient prévisibles et dénoncés depuis l'annonce des lignes directrices. Il montre qu'en fait, de nombreuses personnes au PS pensaient que cette loi allait avoir des effets néfastes, c'est d'ailleurs l'impression qui se dégage à la lecture de certains articles: François Hollande ne paraissait pas bien convaincu par le contrôle des loyers, par exemple. Certaines mesures prévues à l'origine, comme la garantie universelle des loyers, ont vu leur portée être amoindrie de peur des conséquences financières. Il est dommage que les éventuels opposants internes n'aient pas été plus entendus…

Ces péripéties me font penser que la campagne présidentielle n'a fait que renforcer certains illusions au sein de la gauche. Que l'idée qu'un surcroît de règlementations dans le domaine de l'immobilier, comme l'instauration d'un contrôle des loyers, puisse permettre de résoudre les problèmes de manque d'offre n'ait pas été contestée, alors que l'histoire montre le contraire, m'étonne toujours. Plus généralement, cela montre bien que bon nombre de choses promises par le candidat Hollande ne pouvaient se réaliser, parce qu'elles étaient trop irréalistes, et que si jamais certaines promesses étaient honorées, des effets néfastes apparaîtraient rapidement. Je dois aussi admettre ma surprise devant l'aplomb de la défense de Cécile Duflot: elle affirme des choses dont il est facile de vérifier qu'elle sont fausses. Sa défense de son bilan est renversante: soit elle a fait le contraire de ce qu'elle voulait — sur la défiscalisation par exemple —, soit ça n'avait aucune chance de marcher — comme le contrôle des loyers.

1 août 2014

Lobby

Greenpeace et des organisations aux idéologies similaires ont publié dernièrement une lettre ouverte appelant le futur président de la Commission Européenne, Jean-Claude Juncker, à ne pas nommer un nouveau conseiller principal sur les questions scientifiques, création de son prédécesseur, José-Manuel Barroso. Une organisation «rationaliste», Sense About Science, a publié peu après une lettre ouverte en sens opposé, demandant le maintien du poste. Suite à la publication de la lettre, Greenpeace a été accusée d'être une organisation anti-science et s'est alors fendu d'une réponse. Pour ma part, je pense cet épisode ne montre aucunement que Greenpeace soit anti-science, mais qu'elle considère la science comme un outil comme un autre pour parvenir à ses fins: imposer son idéologie dans les décisions politiques.

Pour commencer, le motif de la lettre de Greenpeace est clair: Anne Glover a déplu par ses déclarations sur les OGMs. Même si elle n'a fait que reprendre les conclusions de rapports publiés par l'UE ou des académies des sciences européennes, voire américaines , etc., cela ne peut aller qu'à l'encontre des positions des associations environnementales qui font campagne depuis bientôt 20 ans contre les plantes génétiquement modifiées. Les autres arguments sont creux: aucun conseiller de Barroso ne doit publier l'ensemble des demandes d'avis qu'il a reçues ou les notes qu'il a envoyé en retour. La seule obligation en la matière pour les conseillers est de rendre des comptes sur la compétence et l'honnêteté a priori. L'existence de la déclaration d'intérêts d'Anne Glover n'a d'ailleurs pas empêché les accusations diffamatoires à son encontre.

Cependant, que Greenpeace et les autres signataires veulent remplacer quelqu'un qui leur a déplu malgré avoir rempli fidèlement sa mission de dire où se situait le consensus scientifique ne veut pas dire qu'ils sont «anti-science». En fait, pour de telles organisations, l'important est de faire triompher leur idéologie: elles ne sont pas basées sur le désir de répandre le savoir et les découvertes scientifiques mais sur la volonté des membres d'infléchir le cours des choses sur les thèmes qui leur sont chers. Dans ce cadre, la science est un outil comme un autre, qui peut se révéler fort utile comme il peut nuire. Quand la science apporte des éléments favorables à la position d'une telle association, elle s'en prévaut; si au contraire, la science tend à la contredire, il faut l'ignorer, éviter que ça ne s'ébruite, voire continuer à susciter des résultats inverses pour faire croire à la continuation d'un controverse. Cela apparaît dans les justifications de Greenpeace: ainsi se prévalent-ils de preuves accablantes sur le sujet du réchauffement climatique, mais seulement de préoccupations sur les OGMs et pour cause: on l'a vu le consensus scientifique sur la question est l'exact contraire.

Ce qui peut étonner, c'est la place centrale que semble donner Greenpeace dans son action à la science: Greenpeace cherche souvent à se prévaloir de résultats scientifiques. C'est sans doute lié à l'histoire du mouvement écologiste, fondé par des gens éduqués et déterminés, mais peu nombreux. Leur stratégie a toujours été la même: se prévaloir d'une supériorité morale permettant de recourir à des actions directes et un discours émotionnel mais, en parallèle, recourir à des arguments d'apparence scientifique pour tenir aussi un discours apparemment raisonnable. L'idéologie de Greenpeace n'est pas de promouvoir un gouvernement basé sur des conclusions scientifiques, mais plus prosaïquement, c'est l'opposition au nucléaire, à l'agriculture industrielle et plus généralement, la conviction que l'industrie en général est nuisible. Les tenants de ces techniques et de l'industrie ont souvent un discours technique ou basé sur des prémisses scientifiques, le discours de Greenpeace est donc aussi une réponse à ce fait et dénote une volonté de ne laisser aucun argument sans réponse.

Le succès de cette organisation est aussi une grande illustration des réalités de la politique. Car voilà une organisation qui ne fait que prêcher des valeurs positives comme la paix, l'humanité mais qui n'hésite pas à faire le contraire. Voilà une organisation officiellement non violente qui n'hésite à approuver des destructions de cultures ou l'abordage de navires. Une organisation qui prône l'amélioration des conditions de vie des pauvres s'oppose au riz doré, une potentielle solution à la déficience en vitamine A dans les régions pauvres de l'Asie. On pourrait multiplier les exemples à l'infini, mais Greenpeace est remarquable par sa capacité à ne rien dire qui ne respire la bienveillance, l'intégrité et l'humanisme tout en pouvant démontrer les qualités exactement contraires sans que trop de plaintes ne s'élèvent. En fait, c'est là le lobby rêvé: bénéficiant d'une présomption d'honnêteté irréfragable, maîtrisant un langage respirant la bonté — cette lettre ne fait pas exception — mais capable de déployer les qualités exactement inverses pour parvenir à ses fins sans que cela lui nuise. Ce sont des qualités indispensables en politique, mais on est là très éloigné de la science qui, au fond, n'est qu'un outil comme un autre pour imposer une idéologie.

5 juillet 2014

Échéances

Ce dimanche, les Échos ont publié un article sur les perspectives financières sinistres du régime de retraites complémentaires des cadres, l'AGIRC. On y apprenait que les réserves de ce régime seront réduites à néant d'ici fin 2018, malgré les modifications intervenues l'année dernière. En regardant ce qui était publié à l'époque, on constate que la fin des réserves avant la réforme était attendue … à la même date ou à peu près. Ce qui a changé? Sans doute les scénarios pris en compte. Le COR avait pris en début d'année dernière des hypothèses très optimistes: le chômage revenait à 7% de la population active d'ici à 2020, une situation qui apparaît hors d'atteinte aujourd'hui. L'article des Échos nous informe que dans le nouveau scénario, le chômage reviendrait à 7% de la population active en … 2030, voire 2035, ce qui paraît nettement plus réaliste.

Le déficit de l'AGIRC s'élevait à 1.2G€ l'an dernier et l'AGIRC annonce disposer de 9G€ de réserves. Ce dernier montant est étonnant, puisque fin 2012, il ne disait disposer que de 6.9G€ de réserves à moyen et long termes. Il est possible que l'AGIRC ne puisse pas épuiser toutes ses réserves: ne pouvant emprunter, il doit constamment disposer d'une trésorerie pour honorer ses versements. Il est aussi possible que le déficit augmente dans le futur si rien n'est fait: la baisse suggérée dans l'article de plus de 10% des pensions servies laisse entendre que le déficit serait de plus de 2G€ en 2019: l'AGIRC verse en effet aujourd'hui 21.7G€ de pensions chaque année.

Cette annonce d'une possibilité d'une baisse de plus de 10% des pensions servies montre aussi que les prévisions utilisées jusque là étaient bien trop optimistes. Le 11ᵉ rapport du COR donnait un déficit à politique inchangée de l'ordre de 6 à 7% des pensions versées (tableau p115). Mais comme on l'a remarqué plus haut, cela supposait une croissance du PIB bien plus forte et un retour à taux de chômage de 7% en 2020. Autrement dit, les mesures prises l'an dernier étaient basées sur un scénario déjà caduc. Cela est l'habitude en la matière, mais cette fois-ci les échéances sont proches: 5 ans. Comme les données démographiques sont connues, il ne reste plus de leviers disponibles: comme le remarque un syndicaliste FO à la fin de l'article, il va être très difficile d'éviter l'obstacle.

Ainsi, même si le problème était connu depuis longtemps — le premier rapport faisant autorité sur le problème des retraites ayant été remis à Michel Rocard en 1991 —, il s'avère qu'à cause de prévisions toujours trop optimistes, la mesure que tout le monde voulait éviter, la baisse des retraites faute de fonds pour les payer, se profile cette fois pour de bon. Évidemment, on peut immédiatement penser l'éviter par des hausses d'impôts, mais il faudrait alors diminuer le salaire des actifs, ce qui n'est pas plus souhaitable. Ce n'est pas une surprise que ce soit l'AGIRC, le régime complémentaire le plus fragile de par sa démographie très défavorable, qui soit le premier concerné. Mais cela annonce que le début d'une période nettement plus difficile pour les régimes de retraites, où toute erreur se traduira par un impact visible immédiatement sur le niveau de vie soit des retraités — via des baisses de pensions — soit des actifs — via des hausses d'impôts. Même si les prestations de l'AGIRC ne représentent certes qu'une partie de la retraite des cadres, qu'une baisse de 10% pensions servies soit envisagée montre aussi le grave échec du volontarisme économique qui se révèle être ce qu'il est vraiment en la matière: une manière de renvoyer les problèmes à plus tard. Malheureusement, pour la retraite des cadres, «plus tard» c'est désormais «bientôt».

30 juin 2014

Redite

Une commission d'enquête a été organisée sur les coûts du nucléaire, avec pour rapporteur Denis Baupin, bien connu pour son opposition à cette technologie. Une commission au thème extraordinairement similaire avait été organisée au Sénat, il y a deux ans. Le résultat relevait de la la pure idéologie écologiste, s'appuyant sur des tactiques d'enfumage et n'hésitant pas à pousser le scénario où il y avait le plus d'énergies fossiles. Vue l'identité du rapporteur, on pouvait craindre une redite et on n'a pas été déçu.

Quelques mots d'abord sur le style: le rapport semble constitué principalement de citations extraites des auditions de la commission, entrecoupés par le texte du rapporteur. Il compte relativement peu de tableaux et de données comparé au rapport de la commission sénatoriale d'il y a 2 ans. On en est donc réduit à devoir faire confiance — ou pas — aux choix de Denis Baupin pour ses citations et le sens qu'il veut bien leur donner. En effet, dans la masse de propos tenus, il est certainement possible de choisir les citations pour écrire soit un rapport chantant les louanges du nucléaire, soit un rapport vouant cette technique aux gémonies. Pour savoir quelle option a été choisie, on peut se référer au passage sur le scénario énergétique qui a la préférence de Denis Baupin et regarder si l'objectivité est au rendez-vous.

Avant d'aborder le scénario qui a sa préférence, Denis Baupin a expédié le scénario prôné par EDF, certes peu crédible mais qui a le mérite pour ses dirigeants de ne pas aller frontalement à l'encontre de l'opinion proclamée de la tutelle politique. Pour le dire autrement, Denis Baupin écrit que ce scénario n'est pas probable. Et c'est donc tout naturellement qu'il titre:

B. APPROCHE 2 : UNE BAISSE DE LA DEMANDE ÉNERGÉTIQUE EST POSSIBLE, CE QUI REND INUTILE LA PROLONGATION DE L’ENSEMBLE DU PARC NUCLÉAIRE

Comme on va le voir, ce scénario n'est pas plus probable à l'heure actuelle que celui d'EDF. Autrement dit, n'ont droit à des développements que des scénarios possibles mais aucun de ceux qui apparaissent comme les plus probables. Après avoir cité un intervenant se prévalant de pouvoir déterminer le service attendu et les besoins ainsi que les consommations superfétatoires ou le gaspillage, comme au bon vieux temps du Gosplan, et un autre intervenant déplorant le faible nombre de rapports sur les économies d'énergie comparé aux rapports sur le nucléaire — tout en cherchant à démontrer sur son site l'inutilité des réacteurs nucléaires, on passe aux choses sérieuses et on aborde le fameux exemple allemand.

L’exemple allemand montre qu’une forte diminution de la consommation est possible si l’on met en place les instruments adéquats. Une étude comparative des systèmes énergétiques français et allemand publiée en 2011 par l’IDDRI et l’association Global Chance a montré que la consommation d’électricité « spécifique » – incluant les appareils électriques et l’éclairage, mais excluant le chauffage et le chauffe-eau – par habitant était au même niveau dans les deux pays en 1998. À cette date est instaurée une taxe écologique sur l’électricité dont les recettes sont affectées à l’abaissement des charges sociales sur le travail. L’Allemagne a ensuite connu une augmentation régulière des tarifs de l’électricité, liée à plusieurs effets, aboutissant à un prix du kilowattheure de 27 centimes. « À partir de 2000, l’Allemagne commence à stabiliser sa consommation d’électricité spécifique par habitant dans le logement, tandis que la courbe de la consommation française continue d’évoluer de façon quasi linéaire. En 2010, la différence de la consommation par habitant est de 15 % et de 27 % par ménage Fixer un objectif raisonnable d’économie de l’ordre de 15 % n’a donc rien de scandaleux » (Bernard Laponche).

Pour voir si tout ceci est à la hauteur des enjeux, regardons l'étude en question (p69-70) où on trouve le graphe suivant: elec_specifique_de_fr.jpg

Comme le signalent les auteurs eux-mêmes, ces chiffres n'ont pas le même degré de fiabilité que les autres indicateurs utilisés dans cet article. D’autre part, on constate en Allemagne des variations parfois importantes d’une année sur l’autre alors que la consommation d’électricité spécifique est peu soumise à des variations climatiques. Il est difficile d’expliquer les renversements de tendance observés dans le cas de l’Allemagne et il faut prendre les statistiques concernant les consommations d’électricité spécifique avec prudence.

Regardons toutefois l'impact d'une diminution de 15% de la consommation d'électricité spécifique française telle qu'elle nous est présentée. En France, il y environ 65M d'habitants, une consommation de 1200kWh par an et par habitant représente donc une consommation totale annuelle de 78TWh. En 2008, selon Eurostat, la consommation totale d'électricité en France a été d'un peu moins de 433TWh. La consommation d'électricité spécifique par les ménages représente donc un peu moins de 20% de la consommation totale d'électricité. Une réduction de 15% de cette consommation représenterait donc une baisse de 3% de la consommation totale d'électricité. Même si c'était jusqu'alors un des postes de consommation les plus dynamiques en France, cela semble très insuffisant pour obtenir une forte baisse de la consommation d'électricité.

On peut aussi se demander si les données sur lesquelles se fonde Global Chance reflètent bien la réalité. Sur le site de l'association AG Energibilanzen, on peut trouver un document détaillant les consommations énergétiques des ménages. On y trouve ce tableau (p20) qui résume l'ensemble, où la consommation d'électricité spécifique est donnée par la somme des 5 dernières colonnes. elec_specifique_de_realiste_2011.jpg On voit que la consommation d'électricité spécifique est de 389.2 PJ annuels; avec une population allemande d'environ 82M d'habitants, cela donne environ 1300kWh par an et par habitant. On peut constater que c'est tout à fait comparable à la consommation française. Ce n'est pas très étonnant: dans ce domaine la consommation est déterminée par les standards appliqués aux appareils électriques, comme le montre l'exemple des États-Unis. Or, ces standards sont déterminés au niveau européen et sont de ce fait les mêmes pour la France et l'Allemagne.

Cette conclusion est d'ailleurs assez logique: en Allemagne, la quasi absence du chauffage électrique fait que l'essentiel de l'électricité consommée par les ménages est de l'électricité spécifique. Les données de l'AGEB montrent que la consommation des ménages par personne en 2011 était d'environ 1670kWh (ce qui est cohérent avec les données d'Eurostat). Autrement dit, les ordres de grandeur ne collent pas avec le graphe de Global Chance.

Denis Baupin enchaîne:

À l’arrivée, le ménage allemand paie son kWh électrique plus cher que le ménage français, mais en consomme moins, ce qui conduit à des factures du même niveau de part et d’autre du Rhin. À l’occasion du débat sur la transition énergétique (DNTE) le rapport adopté par le groupe de travail « compétitivité » avait d’ailleurs montré que la part des revenus consacrés par les ménages français et allemands à leur éclairage et à leur chauffage était exactement la même : 4,8 %.

La première affirmation est totalement fausse. Tellement que, devant la commission sénatoriale, Global Chance avait reconnu que les Allemands payaient plus par habitant que les Français. Certes, les ménages français comptent en moyenne plus de membres, mais cela ne suffit pas à combler la différence. On peut même se référer aux organismes statistiques habituels pour récupérer les données et obtenir le graphe suivant: depense_elec_fr_de.jpg On constate que l'état des choses s'est inversé entre le début des années 2000 et aujourd'hui. À cause de la forte hausse des prix de l'électricité en Allemagne, les ménages allemands ont vu leur facture pratiquement doubler. Cela a fait plus qu'effacer la différence de dépense qui existait jusque là à leur avantage du fait de la plus forte consommation française. En 2012, année froide et donc de forte consommation d'électricité par les ménages, un ménage français a consommé en moyenne presque 5600kWh alors qu'un ménage allemand n'a consommé que 3370kWh. Un tel développement montre surtout que l'électricité est un bien dont l'élasticité prix à court et moyen terme est très faible: même une forte hausse du prix ne suscite qu'une faible baisse de la consommation. Dans ces conditions, la hausse du prix se traduit directement par une hausse presque équivalente de la dépense.

Quant à la deuxième affirmation, elle n'a que peu à voir avec l'électricité. D'une part, en Allemagne, l'électricité est très peu utilisée pour le chauffage et comme on peut le constater sur la décomposition des consommations d'énergie, ce sont le gaz et le pétrole qui représentent l'essentiel des quantités consommées pour l'éclairage et le chauffage. De même, en France, l'inclusion du chauffage donne une place importante à d'autres vecteurs d'énergie que l'électricité. Une telle donnée relève donc de l'enfumage.

Après quelques considérations sur les travaux qui permettent de faire des économies d'énergie mais sans aucune considération pour les coûts de ces travaux qui les rendent non rentables aux prix actuels de l'énergie, Denis Baupin passe à l'accusé habituel des écologistes: le chauffage électrique.

3. Limiter l’utilisation de l’électricité à ses usages « nobles » ?

Les progrès de l’efficacité énergétique permettent de diminuer la consommation électrique et ouvrent ainsi une voie vers la réduction de la dimension du parc nucléaire français. Ils permettent également de corriger les défauts du système électrique français actuel, marqué par gaspillages significatifs.

D’une part, le rendement thermique des centrales nucléaire, d’environ un tiers, est très bas en comparaison des autres moyens de production. « Dans la production nucléaire actuelle, le volume d’énergie lié au rendement des centrales, sous forme de chaleur, est perdu. Il représente 830 milliards de kilowattheures, soit plus que le chauffage de tous les logements et les bâtiments tertiaires de France » (Thierry Salomon).

Cet argument est habituel chez les écologistes. Il consiste à constater que la transformation de la chaleur en travail a forcément une efficacité inférieure à 100%, sévèrement limitée par le second principe de la thermodynamique. Cependant, ceci n'a pas forcément d'importance pour les consommateurs: cette efficacité n'est qu'un des composants du coût de l'électricité et ne dit rien de la pollution engendrée. Faisons une expérience de pensée: une source d'énergie permet de produire de l’électricité très peu chère et très peu polluante mais via un procédé qui n'utilise qu'une faible part de l'énergie disponible. Faut-il s'en priver pour cette dernière raison? La réponse est clairement non.

L'électricité nucléaire a pour caractéristique d'être peu sensible au prix de l'uranium et donc à l'efficacité de conversion de la chaleur en électricité, contrairement à ses concurrents le gaz et, dans une mesure un peu moindre, le charbon. Ceux-ci sont aussi tenus par des normes anti-pollution qui rendent attractives une moindre consommation de combustible. C'est ainsi que ses sont développées les centrales à gaz à cycle combiné — qui atteignent 60% d'efficacité — et les centrales super-critiques au charbon — qui dépassent les 40%. Ces efforts sont cependant insuffisants lorsqu'on considère les problèmes climatique et d'effet de serre, par exemple.

On peut aussi constater que d'autres procédés sont comptés comme ayant une efficacité de 100%, mais uniquement parce qu'ils utilisent une source qui n'est pas directement payante. Ainsi, l'énergie éolienne a une limite physique de 60% pour la récupération du flux d'air, dont la technique permet de récupérer les trois quarts pour une efficacité de l'ordre de 45%. Les cellules photovoltaïques commercialisées ont un rendement de conversion compris entre 5% et 20%. Cela n'en fait pas pour autant un mauvais mode de production d'électricité.

D’autre part, l’utilisation massive des chauffages électriques explique que la pointe électrique française soit sans commune mesure avec celle des autres pays européens, la Norvège exceptée. « Notre scénario prévoit, par ailleurs, un glissement vers beaucoup moins de chauffage à effet Joule, qui est le problème du réseau actuel. RTE, qui vient de refaire ses calculs, a évalué la sensibilité électrotechnique à 2 400 MW par degré : autrement dit, à chaque fois qu’en hiver la température baisse d’un degré en France, il nous faut mettre en marche deux réacteurs et demi de 900 MW. Vous savez que cette sensibilité électrotechnique est une malheureuse caractéristique française : nous avons la moitié de la sensibilité électrotechnique de l’Europe. Si on baisse cette valeur-là par une politique d’efficacité énergétique, de transfert vers des usages beaucoup nobles de l’électricité et vers d’autres énergies, on retrouvera une marge de manœuvre. Dans notre scénario, nous redescendons cette consommation maximale sur l’ensemble du réseau aux alentours de 60/70 GW, donc bien en dessous des records que vous connaissez, qui sont à 110 GW » (Thierry Salomon).

Les caractéristiques françaises du mix électrique ne sont donc pas si favorables qu’annoncées, dans la mesure où l’importance de la pointe électrique requiert la mise en marche de moyens de production thermiques fortement émetteurs de gaz à effet de serre.

Mezzo voce, Denis Baupin tente d'accréditer l'idée que le chauffage électrique est plus polluant que les autres options. Comme je l'avais remarqué, il n'en est rien, au contraire, le chauffage électrique provoque relativement peu d'émission de CO₂. J'avais estimé qu'il était responsable de 15% des émissions de CO₂ dus au chauffage des logements, alors que la part de marché du chauffage électrique est autour de 33%. Denis Baupin fait ici usage d'une technique bien connue qui consiste à insister sur des évènements relativement rares — les pointes de demande — pour ignorer la situation moyenne. Cette situation moyenne est forcément bonne, puisque les émissions globales du système électrique français sont parmi les plus basses au monde rapportées à la production.

On peut certes souhaiter que les pompes à chaleur se développent: elles permettent déjà que le chauffage électrique soit pratiquement imbattable en termes d'émissions rapporté au service rendu. Cependant, cela ne dit rien quant à la proportion d'énergie nucléaire souhaitable. Après tout, les écologistes disent que c'est le chauffage électrique qui force à conserver nombre de centrales à combustible fossile. Son déclin devrait donc plutôt entraîner la diminution de la part des énergies fossiles que celle du nucléaire.

La mise au point de business models pour l’efficacité énergétique, en s’inspirant par exemple des dispositifs existant chez nos voisins, constitue néanmoins aujourd’hui une priorité pour la réalisation d’objectifs volontaristes. La réflexion devra aboutir rapidement afin d’accélérer la maîtrise de la consommation énergétique et notamment un rythme de rénovations thermiques encore loin d’être suffisant. À défaut, il pourrait être tentant de présenter la prolongation de tout le parc nucléaire comme une option qui s’imposerait. Ce serait toutefois une solution de facilité qui priverait la France d’une véritable transition énergétique. Le jeu en vaut pourtant la chandelle tant les scénarios produisent des effets très positifs sur l’emploi.

Malheureusement pour Denis Baupin, il y a peu de rénovations par rapport à ses espérances parce que les prix de l'énergie ne sont pas assez élevés. Pour en avoir plus, il faudrait augmenter fortement le prix de l'énergie en France — et pas seulement de l'électricité! — ce qui fait qu'au total, les Français dépenseraient plus. Non seulement, ils paieraient plus cher pour leur électricité — et le reste — comme le montre l'exemple allemand, mais ils devraient aussi payer ces fameuses rénovations.

On ne peut aussi que se demander ce que Denis Baupin compte faire des 33% de logements chauffés à l'électricité. Ces logements n'ont souvent aucune arrivée de gaz, l'électricité est donc la seule façon de les chauffer, à moins d'engager des dépenses pharaoniques. De plus, comme on l'a vu, ils provoquent relativement peu de pollution, notamment d'émissions de CO₂. Proposer un état final qui lui paraît favorable est une chose, encore faudrait-il proposer une façon réaliste d'aller de la situation actuelle à cet état final. C'est pourquoi il n'est pas sérieux de présenter comme probables des scénarios où le chauffage électrique n'existerait plus; au contraire, la consommation d'électricité par habitant en France restera durablement plus élevée qu'ailleurs.

Bref, Denis Baupin fait reposer son plaidoyer pour le scénario qui a sa préférence sur des faux-semblants voire des mensonges, ignore totalement la situation actuelle et les difficultés pour parvenir à la situation qui a sa préférence. Le reste de son rapport est peut-être excellent, mais sa justification du scénario qui a sa préférence laisse plutôt penser que c'est une redite de la commission d'enquête sénatoriale d'il y a 2 ans, en pire!

18 mai 2014

De l'opposition au tribunal arbitral en matière de libre-échange

En ce moment, se déroulent des négociations sur un éventuel traité de libre-échange entre les États-Unis d'Amérique et l'Union Européenne. Selon les opposants, tout se déroule dans le plus grand secret, tellement bien gardé que la Commission Européenne publie ses objectifs et que la Maison Blanche fait de même. Une disposition qui suscite particulièrement l'ire des opposants est l'idée d'un tribunal arbitral chargé de faire respecter les dispositions du traité.

Pourquoi un tribunal?

À notre époque, le but d'un traité est de faire régir par le droit certains des rapports entre états ou entre un état et des entités privées dépendant d'un autre état. Ce qui veut dire que l'usage de la force est censé être exclu. Dans le passé, ou même parfois de nos jours, les disputes sur l'interprétation concrète des termes du traité se réglaient quand même ultimement par l'usage de la force. Ce fut la cause de certaines guerres et a laissé l'expression «diplomatie de la canonnière» dans le langage courant. Suite à la 1ère guerre mondiale, la Société des Nations fut fondée ainsi qu'une cour de justice pour régler les différends dans un cadre pacifique. La Société des Nations s'est révélée impuissante à empêcher la marche à la 2e guerre mondiale, mais les principes sont restés: il existe désormais de nombreux traités prévoyant des mécanismes de règlements des différends qui s'apparentent à des tribunaux. Certains traités ont même créé des cours criminelles pour réprimer les crimes les plus graves.

Les traités de libre-échange s'étendant sur de nombreuses pages, comptant de très nombreuses dispositions donnant les cas généraux et toutes sortes d'exceptions, ils font sans nul doute partie des traités les plus difficiles à interpréter. Les problèmes d'argent étant aussi une source intarissable de litiges variés, c'est sans doute le domaine du droit international où ce type d'organe est le plus répandu. Une littérature abondante s'est développée et les traités commerciaux prévoient souvent de régler les différends soit via un forum ad hoc soit via un des tribunaux arbitraux permanents.

On peut se demander si on ne pourrait pas faire régler ces questions par les juridictions nationales classiques. Outre la question du choix du pays devant régler la question, un problème d'apparences se pose: pour éviter des soupçons de partialité ou de convenance politique, il vaut mieux que les juges soient envoyés par chacune des 2 parties ou désignés parmi un collège constitué de juges provenant de multiples pays.

Une menace pour la démocratie?

Un exemple de tribunal international créé par un traité de libre-échange est la Cour de Justice de l'Union Européenne. Elle fut originellement créée par le traité fondant la CECA, ses compétences ont été étendues progressivement par les traités européens suivants. Elle peut être saisie par les personnes physiques ou morales — dont les multinationales — via des actions judiciaires dans les tribunaux nationaux depuis au moins le traité de Rome de 1957. Un des buts premiers de la CJUE est d'offrir une voie de contestation des décisions des états ou de l'organe exécutif européen, la Commission, et donc de contester des décisions prises par des gouvernements démocratiquement élus.

Vue l'ancienneté de l'Union Européenne, comme Alexandre Delaigue, il me paraît bien excessif de crier à la fin de la démocratie. On peut quand même commencer à distinguer plusieurs types d'oppositions. La première, c'est celle des souverainistes, tels qu'on les trouve au Front de Gauche ou au Front National: comme ils s'opposent à toute perte de souveraineté, ils sont contre tout traité de libre-échange, y compris celui fondant l'Union Européenne. De fait, si on refuse toute perte de souveraineté, il ne peut pas vraiment y avoir d'accord commercial international, ou alors sur des broutilles, les pays avec lesquels on voudrait trouver un accord craignant qu'on revienne dessus à la première occasion. C'est pourquoi il est particulièrement risible pour ces formations de clamer ne pas être anti-européennes.

La seconde, c'est celle des Verts, dont le spécialiste du sujet, Yannick Jadot, nous dit que ce traité fait peser des menaces gigantesques sur nos modes de vie comme sur notre démocratie toute entière. Or, les Verts ne sont pas opposés par principe aux transferts de souveraineté: ils sont par exemple favorables à la Cour Pénale Internationale et cultivent une image pro-européenne. Cette opposition paraît donc plus liée à des cas d'espèces de produits ou de pratiques qui pourraient devenir autorisés. On peut en fait subodorer que cette opposition est en premier lieu liée aux produits alimentaires, aux produits chimiques et à l'industrie minière. La Commission déclare que les produits chimiques seront de fait exclus du périmètre de l'accord. Quant aux mines — sujet dans lequel il faut ranger le gaz de schiste — les permis d'exploiter sont résolument restés une prérogative nationale: il est peu probable que le traité impose aux états d'accorder des permis. Il reste donc principalement les produits alimentaires (OGMs…).

Et de fait, la peur d'une condamnation européenne a déjà amené la France à autoriser la commercialisation d'au moins un produit, en l'occurrence, le Red-Bull ®. Une autre organisation a un fort impact en la matière: l'OMC qui dispose elle aussi de son propre tribunal, l'organe de règlement des différends qui ne peut être saisi que par les états. L'Union Européenne a déjà été condamnée 2 fois sur des affaires alimentaires:

  1. Sur le bœuf aux hormones, décision dont il a été question sur ce blog. Pour résumer, l'UE a été incapable de montrer qu'il existait un risque même infime pour la santé de consommer du bœuf aux hormones; seul un expert, nommé par les USA, a donné un maximum de 1 cancer par million de personnes consommant 500g par jour de viande aux hormones. À la suite de quoi, le tribunal a analysé la situation à la lumière du principe de précaution et condamné l'UE. Une partie des mesures de rétorsion autorisées à cette occasion sont toujours en vigueur.
  2. Sur l'importation d'OGMs, l'UE a été condamnée suite à l'adoption d'un moratoire sur les autorisations. Elle a été condamnée pour avoir trop traîné les pieds pour autoriser l'importation de ces denrées — en général destinées à la consommation animale — ainsi que pour les mesures de sauvegardes prises par les états membres (pour les mêmes raisons que dans l'affaire du bœuf aux hormones). Cette condamnation explique sans doute en grande partie pourquoi l'importation d'OGMs est autorisée dans l'UE.

Ces condamnations sont basées sur l'accord sur les mesures sanitaires et phytosanitaires (SPS), dont il ressort en gros que, pour interdire l'importation d'aliments, il faut au moins avancer une raison scientifiquement fondée et pas uniquement se baser sur des hypothèses. L'innovation principale du tribunal du TTIP étant la possibilité de saisine par des personnes morales et physiques, il est très probable que les associations d'agriculteurs US vont essayer, dès l'entrée en vigueur du nouveau traité, de faire valoir l'autorisation de mise sur le marché de la FDA comme autorisant l'exportation en Europe. Étant donné le consensus scientifique sur la question, il y a des chances qu'ils l'obtiennent.

L'opposition des écologistes au tribunal s'explique donc sans doute par leur opposition à des traités déjà signés, mais dont l'application dépend de fait du bon vouloir des états à porter l'affaire devant l'OMC. Avec la possibilité de porter plainte directement, les firmes ou les associations d'intérêts pourraient faire reconnaître leurs droits plus facilement. Le tribunal ne permet pas grand chose par lui-même: ses décisions dépendront avant tout du texte des autres dispositions du traité ainsi que des traités qui l'ont précédé.

Quels enjeux?

Comme Alexandre Delaigue, je pense que l'enjeu principal de ce traité est de s'entendre sur des normes communes entre les USA et l'UE pour contrer les futures normes chinoises. Ce travail en commun entre occidentaux est courant sur de nombreux sujets — par exemple, le codage des vidéos — avec des spécialités par zones — par exemple, les normes européennes sur les émissions des voitures servent souvent de base ailleurs.

Cette uniformisation des normes requiert en contrepartie que les normes soient dans le futur élaborées en commun et aussi qu'aucune des 2 parties ne puisse arbitrairement décider de refuser certains produits, dès l'instant que les normes communes sont respectées. De fait, cela veut dire que la possibilité d'opposition politique à certaines nouveautés sera réduite. L'étendue de cette réduction dépendra du nombre de domaines couverts par l'accord. On peut cependant supposer que les produits déjà couverts par des accords précédents ne pourront plus subir d'opposition — ce qui inclut notamment les OGMs. Pour s'assurer qu'aucune des 2 parties ne pourra exercer de refus arbitraire, la mise en place d'un tribunal sera requise par les 2 parties.

Pour simplifier, les opposants au tribunal sont soit des opposants de toujours au libre-échange soit veulent surtout conserver la liberté de s'asseoir sur une partie des traités déjà signés, faute de pouvoir les rejeter en bloc de façon réaliste. Malheureusement pour ces derniers, l'expansion du droit international rend l'inclusion d'un tribunal que pourront saisir directement des firmes ou des lobbies (voire dans des cas exceptionnels, des personnes physiques) pratiquement obligatoire dans un futur traité avec les USA.

13 avril 2014

Subsidies for wind and solar are here to stay

Note: this post is an english summary of two posts in french (here and here).

It is often said that subsidies granted to wind and solar power are temporary and are here to help them become competitive with respect to other sources of electricity. Here, based on what happens currently on the electricity market in Germany and France, I will show that the removal of subsidies for new wind or solar capacity is unlikely and that it is probable that these subsidies will become a very long lasting feature of the electricity market in Europe.

A common characteristic of both wind and solar power is that their marginal cost is zero. Producing one more kWh does not cost anything to the owner. He has paid for his machine and pays for the maintenance, regardless of how much the machine produces. Their production is also essentially random — especially that of wind — and subject to the vagaries of the weather. Producer are also dispersed because the cost of building a single machine is not extraordinarily high. These 3 elements will transform producers of wind and solar power into price takers: they will accept any positive price, or even negative prices if they can't disconnect from the grid. Nowadays, they are shielded from the variations of the spot price by the feed-in tariffs which guarantee a fixed price for their production. A system of market premiums do not change that much the situation, as this would only encourage disconnections when the price drops too far in negative territory.

As a consequence, one can expect that wind would fetch a price lower than the baseload price — the non weighted average of all hourly prices in a given year. for solar power, the situation is slightly different because solar power is available during the day, where consumption is also higher than during the night. The price of electricity is thus generally higher during the day than during the night. But if the solar capacity is large enough — larger than night-day swing in demand — they will also fetch a lower price than the baseload.

To check these hypotheses, I gathered prices on Epexspot with a perl script. For France, one can get detailed production data from éco₂mix. For Germany, there's nothing so detailed … and free at the same time. Wind and solar productions are known thanks to an european directive. The data has been gathered by P.-F. Bach, a danish retired engineer.

In Germany

The german market is in a situation of over supply because of the economic situation in Europe, of new coal plants — coal is now relatively cheap because of exports from the US and the shaled gas boom there — and of the construction of more than 30GW of wind and 30GW of solar. As a consequence the baseload price is low. In 2012, it was about €43/MWh; in 2013 it was about €38/MWh. Wind power fetched an average of €37.5/MWh in 2012 and €32/MWh in 2013. Solar power got €44/MWh in 2012 but €37/MWh in 2013: the advantage for solar power of producing only during the day has been completely eroded by the large size of the capacity in Germany.

de_market_prices_2012_en.jpg prix_sources_allemagne_2013_en.jpg

Trying to correlate wind production and the price leads to an estimate of the reduction of the spot price of €1.3/MWh per GW of wind production. However, the correlation is weak, because the price of electricity reflects many other constraints, such as total consumption. prix_eolien_allemagne_2013_en.jpg

In France

France is in a market economic crisis now, which put it also in a situation of average over supply. There are worries regarding peak capacity as european directives such as LCP and IED are forcing old coal- and oil-fired plants to close. The baseload price is higher than in Germany. In 2012, it was about €47/MWh; in 2013 it was about €43.5/MWh. The wind price was €45/MWh in 2012 and €42/MWh in 2013. Up to 2013, there was no specific data for solar power. In 2013, solar fetched a price of €43/MWh.

fr_market_prices_2012_en.jpg prix_sources_france_en.jpg

If we look at the correlation between the price and the wind production, we see same slope, yet the correlation is very weak, because there is much less wind capacity in France than in Germany. As a consequence, other factors tend to dwarf the effect of wind power most of the time. If we look at wind production as a share of consumption, the correlation becomes much clearer, yet other factors continue to play a major role. prix_eolien_france_2013_en.jpg prix_eolien_vs_conso_france_2013_en.jpg

What consequences?

With these two years of data, we can conclude that intermittent sources of electricity would fetch a price lower than the baseload price in an open market. The magnitude of the rebate depends on the installed capacity. The european wind power lobby tells us that there were 33.7GW of wind in Germany and 8.2GW in France at the end of 2013. Similarly, there was something like 36GW of solar in Germany and 4.3GW in France at end 2013. In Germany, wind represented 8.1% of the electricity production in 2012 and 8.4% in 2013; solar was at 4.2% (2012) and 4.7% (2013). In France, wind represented 2.8% of the production in 2012 and 2.9% in 2013; solar was at 0.7% and 0.8% respectively.

Despite such low figures, the rebate is already 15% in Germany for wind power. Thus, it is hard to imagine that wind and solar would come to dominate the electricity production in Germany without a long lasting system of subsidies. The more wind power increases its share, the more the price it fetches on the open market is far from the baseload price. In the case where wind power would represent 30% of the production in Germany, it could mean that wind power would only get around 50% of the baseload price. The system of subsidies is also feeding on itself: today, new capacity is built thanks to subsidies, but the more wind capacity there is, the more the subsidies are needed to allow the construction of new wind turbines to proceed. Reaching price parity with other technologies will not be the end of road for wind and solar: they need to become much cheaper than alternatives to survive on their own in an open market. Therefore, I think that the chances that the subsidies will end any time soon are very slim. On the contrary, it looks like these subsidies will become a permanent feature of the electricity market throughout Europe.

That does not mean in itself that such subsidies should not be granted. After all, if we are to phase out the use of fossil fuels in electricity generation, wind and solar are among the few technologies where capacity can be expanded without hitting a hard geographical limit right away. Yet, a fixed feed-in tariff does nothing to lower the price of a technology, on the contrary one may just choose to use this tariff as a given and not try to lower prices. Indeed, wind power tariffs have been steady in France for some years and the amount of new wind capacity connected to the grid each year is decreasing since 2009. The European Commission wants these fixed tariffs to be phased out by 2017, but it is unclear if this will result in price decreases: in France there has been competitive tenders for some technologies and it turned out that, in the end, prices were often higher than the fixed tariffs. This state of affairs was widely denounced in a public report last year.

Another issue is the intermittency of wind and solar means that other means of production have to be used to plug the gap between their production and the demand. For the foreseeable future, this is going to mean relying on dispatchable plants, such as hydro dams, nuclear plants and, of course, fossil fueled plants. These plants generally see their profitability eroded by the operation of wind and solar power as they run less hours and receive a lower price because of the zero marginal cost of wind and solar production. As it is unthinkable that black outs be allowed, it is likely that we will see the implementation of capacity markets throughout Europe. It turns out that the technology that allows the lowest investment for a given guaranteed dispatchable capacity is the open cycle gas turbine, a fossil fueled technology. In other words, it may well be that governments may command subsidies for wind and solar power in the name of fighting climate change, while at the same time the very same governments will enforce rules guaranteeing the cash flows of fossil fueled plants to ensure security of supply.

Finally, it does seem that the foundations of the electricity internal market are rotten: the low carbon means of production — be it nuclear or renewables — have their price essentially determined by their capital expenditures, whereas the majority of the costs for fossil fuel plant are fuel costs. Having costs determined primarily by the cost of fuel is useful when the market of reference is the spot market: it reduces the investment risk you take. If you have to invest huge sums of money in a machine that will last decades, you will want to have a guarantee on your cash flows to avoid losing your shirt in case events do not back your assumptions. That means low carbon means of production like long term contracts which are discouraged under current EU rules. For wind and solar, their intermittency makes them also less appealing for such long term contracts, as they can guarantee at which time they are producing. That is why I think that subsidies for wind and solar will stay for a very long time, perhaps permanently, in one form or another.

16 mars 2014

L'activisme gouvernemental sur la pollution perdu dans le smog

Le smog qui flotte qui en ce moment sur la France pour cause de manque de vent en ce début de mars est l'occasion de la publication d'articles dénonçant l'inertie du gouvernement sur la question de la pollution atmosphérique. C'est l'occasion d'interroger d'anciens ministres de l'environnement, qui déclarent tous, sauf pour celui actuellement au gouvernement, avoir eu du mal à faire passer des mesures contre la pollution atmosphérique. On note aussi le retour des accusations envers le diesel, qui serait responsable de ces pics de pollution.

Rappelons quand même que la combustion du gazole routier ne représente qu'environ 10% des émissions de PM10 en France.

La forte baisse de la pollution, cet autre Boeing 777 qui a disparu des radars

Comme il s'agit de regarder ce qui a été fait depuis 20 ans, commençons par nous tourner du côté des émissions. Le CITEPA recense les émissions de polluants en France et compare aux engagements pris. On peut voir que la plupart des engagements pris ont été tenus. La consultations du site permet de construire le tableau suivant qui montre que les émissions ont fortement baissé en 20 ans, pour toutes sortes de polluants.

Polluant Évolution
2012/1995
Évolution
2012/2000
Évolution
2012/2005
SO₂ -74% -60% -45%
NOx -42% -38% -30%
PM10 -48% -38% -24%

Une critique souvent faite est qu'on ne constate pas de baisse pour les stations de mesures de polluants, notamment pour les particules. En effet, si on regarde la concentration moyenne, on voit que la concentration ne baisse que très lentement. Malgré la forte baisse des émissions, la baisse n'est que de quelques pourcents seulement. Airparif-PM10.jpg

Cependant, la faiblesse de cette baisse s'explique par le fait qu'une grande partie des PM10 présentes à un moment donné sur l'agglomération parisienne proviennent en fait d'ailleurs. Airparif estime cette proportion à 68%. Avec une telle proportion, on voit que faire baisser, même fortement, les émissions de particules en région parisienne n'aura qu'un faible effet sur la concentration moyenne. Airparif s'est essayé, dans un exercice prospectif, à modéliser la baisse de la concentration moyenne à attendre d'ici 2020 en fonction de la baisse des émissions. Dans le scénario tendanciel, les émissions dues au trafic routier, principal accusé dans les média, diminuent par rapport à 2008 de 50% pour les PM10 et 80% pour les PM2.5. baisse_emissions_trafic.jpg

Et voici les résultats qu'on peut en attendre sur la concentration moyenne, sachant que la modélisation a tendance à sous-estimer les concentrations. On constate des diminutions formidables, de l'ordre de … 5%! En fait, ce qui diminue fortement, c'est la hauteur des pics, qui, comme leur nom l'indique, ne durent pas longtemps et contribuent peu à la valeur moyenne. Mais ce sont sur ces pics qu'est basée la réalisation d'un certain nombre d'engagements. Comme leur durée et leur hauteur dépend aussi de conditions météo qui peuvent être extraordinaires et sur lesquelles nous n'avons aucune prise, on comprend qu'il en aura certainement de moins en moins de pics de pollution, mais probablement jamais zéro! baisse_concentration_fond.jpg

Un fort activisme réglementaire totalement ignoré

On peut aussi se retourner vers l'Union Européenne qui édicte depuis un certain temps déjà les normes à suivre en matière d'émission de polluants. Le mérite des décisions prises par l'Union et son organe exécutif, la Commission, doit en partie être attribué au gouvernement français puisqu'il en a approuvé la plupart. Et de ce côté on est gâté: les normes d'émissions des moteurs automobiles ont été durcies à 6 reprises depuis le début des années 90. La directive GIC (Grandes Installations de Combustion) est en train de forcer la fermeture de plus de la moitié du parc de centrales électriques au charbon en France d'ici à fin 2015. La directive IED (Émissions Industrielles) contraint les industriels à moins émettre de polluants et force par exemple la fermeture des 2/3 des centrales au fioul françaises, d'ici fin 2015 aussi.

Dans ces conditions, affirmer que le gouvernement ou les politiques ne font rien contre la pollution, c'est se moquer du monde.

Dénoncer tout le monde, sauf les coupables

Ces articles de dénonciation comme celui du Monde sur l'inertie du gouvernement sont aussi l'occasion de relayer un certain nombre de poncifs:

  1. Ainsi en est-il de l'accusation envers les agriculteurs pour l'utilisation d'engrais qui provoque l'émission de NOx. Or, l'usage d'engrais n'est responsable que de l'émission de 68kt annuelles de NOx, soit 10% de ce qu'on peut attribuer aux carburants, qui sont pour le coup les responsables archi-dominants des émissions.
  2. Si bien sûr au ras du pot d'échappement, le long des axes les plus fréquentés, le trafic routier est responsable de la plupart de la présence de particules, lorsqu'on regarde au niveau de l'agglomération parisienne dans son ensemble, le trafic routier est responsable d'autant d'émissions de particules que le chauffage au bois. On peut aussi remarquer qu'en moyenne seules 1/3 des particules dans l'air parisien sont produites localement.

Les pics de pollution aux particules se produisent tous en hiver, lorsqu'il fait beau et qu'il n'y a pas de vent. Ce fait montre que le gazole ne peut être le seul responsable: il existe aussi des jours de beau temps sans vent aux mois de mai, juin ou septembre, où il y a autant de trafic que les mois d'hiver. Ce qui provoque le dépassement des seuils d'alerte, c'est qu'en hiver, en plus du trafic routier, les chauffages sont allumés. Or, le fioul domestique — qui est à un colorant près le même combustible que le diesel — représente au niveau national entre la moitié et le tiers des émissions dues au diesel routier, alors que seuls 15% des logements sont encore chauffés au fioul. On voit là que les chaudières au fioul n'ont pas vu les normes les concernant être révisées à 6 reprises ces 20 dernières années. Le bois, quant à lui, représente entre 3 et 4 fois les émissions du diesel. C'est en vain qu'on cherchera une incrimination du chauffage dans l'article du Monde.

On voit là que ces dénonciations permettent d'éviter de s'attaquer à ce qui pose véritablement problème. Contrairement à ce qu'affirme Delphine Batho, s'attaquer aux vieux véhicules n'est pas que s'attaquer aux pauvres, c'est aussi s'en prendre aux véhicules les plus polluants, car relevant de normes dépassées et trop souvent déréglés. La faveur que rencontre ces vieux véhicules n'est d'ailleurs pas limitée aux pauvres: le premier ministre est propriétaire d'un Combi VW hors d'âge; on peut aujourd'hui se dire écologiste, être ministre et être propriétaire d'une 4L, forcément dépourvue de pot catalytique. S'attaquer au chauffage au bois signifie s'en prendre à de nombreux particuliers mais aussi freiner l'adoption du bois en remplacement d'autres modes de chauffage — quoiqu'il remplace souvent le fioul — pour lui préférer le gaz ou l'électricité. En ces temps où les énergies renouvelables sont portées au pinacle, ce serait inattendu. Les technologies qui permettent de ne pas émettre des particules existent bien, comme on le voit, cependant les personnes qui réclament le plus de mesures en ce moment ne sont pas spécialement favorables à l'augmentation de la production d'électricité en France — qui viendrait en ces moments de calme plat du nucléaire — ou de gaz — si on veut le produire localement, il ne reste guère que le gaz de schiste.

Au final, la diminution de la pollution est bien réelle en France et due en bonne part à un durcissement conséquent de la réglementation. Le bas niveau actuel de pollution est aussi dû à un certain nombre de choix politiques, comme le nucléaire et le choix du gaz pour le chauffage, qui ont accompagné le durcissement progressif des réglementations. Chercher des boucs émissaires comme dans ces articles de dénonciation ne fera qu'empirer les choses en menant sur des voies sans issue: le niveau de pollution est suffisamment bas pour que de mauvaises décisions se traduisent par une gêne pour les habitants sans réel gain voire une hausse de ce niveau.

1 mars 2014

Les subventions à l'éolien et au solaire sont parties pour durer (version 2)

L'année dernière, j'avais regardé si l'éolien et le solaire pourraient avoir une chance de survivre sans les subventions accordées aujourd'hui, à savoir être construites pour l'argent encaissé en revendant l'énergie produite sur le marché de gros. La réponse que j'avais apportée alors était négative: sans subventions ou prix garanti les productions éoliennes et solaires ne pourraient pas survivre ou, en tout cas, aucune nouvelle infrastructure ne serait construite. En regardant sur l'année 2013, ce verdict est confirmé.

L'électricité d'origines éolienne et solaire ont pour caractéristique commune d'être à coût marginal nul. Produire un kWh supplémentaire ne coûte rien de plus au propriétaire qui a déjà investi dans sa machine et paye son entretien qu'elle produise ou pas. La production possible dépend uniquement des caprices de la météo. Les producteurs sont aussi très dispersés car une seule machine n'est pas extrêmement chère à construire. Ces 3 éléments transforment ces formes de production d'électricité en preneurs de prix: ils acceptent tout prix positif, voire même un prix négatif s'ils ne peuvent se déconnecter du réseau. Actuellement, les producteurs d'électricité éolienne ou solaire sont protégés de cette réalité par les tarifs de rachat qui leur assurent un prix de vente à l'avance.

En conséquence, on peut s'attendre à ce que l'éolien dont la production s'effectue grosso modo au hasard reçoive des revenus inférieurs au prix moyen du marché dit aussi prix de base — le prix obtenu en faisant la moyenne non pondérée de tous les prix horaires. Pour le solaire photovoltaïque, la situation est un peu différente: la consommation est supérieure le jour à ce qu'elle est à 4h du matin. Le prix est donc en général plus élevé le jour que la nuit. Mais si la capacité installée de solaire photovoltaïque est suffisamment grande — plus grande en tout cas que la différence de consommation entre le jour et la nuit —, on peut assister au même phénomène. Qualitativement, c'est lié au fait que le prix marginal est nul et aussi que la production est aléatoire … elle a donc une moindre valeur qu'une production prévisible à l'avance.

Pour regarder la situation, j'ai récupéré les prix sur Epexspot à l'aide d'un script perl. Pour la France, on peut récupérer les données détaillées de production sur éco₂mix. En Allemagne, il n'existe rien qui soit aussi détaillé … et gratuit. On connaît les productions éoliennes et solaires grâce à une directive européenne qui oblige à la publication. Ces données sont récupérées par P.-F. Bach, un ingénieur à la retraite danois. Les données récupérées ont été placées dans 2 fichiers LibreOffice: l'un pour la manipulation des données de RTE, l'autre pour les calculs qui donnent les prix.

La situation en Allemagne

L'Allemagne est marquée par une situation de surproduction, causée par la construction de centrales au charbon — dont le prix est bas en ce moment du fait de l'afflux de gaz de schiste aux USA — et par l'ajout de plus de 30GW de panneaux solaires et 30GW d'éoliennes. En conséquence le prix de base est bas (~38€/MWh). Le solaire emporte environ 1€/MWh de moins et l'éolien vaut plutôt 32€/MWh en moyenne. On note, même si la corrélation directe est faible, que chaque GW de production éolienne retire 1.3€/MWh au prix spot de l'électricité.

prix_sources_allemagne.jpg prix_eolien_allemagne.jpg

La situation en France

La France n'est pas marquée par la même situation, car le développement des énergies renouvelables s'y est fait à un rythme nettement moins intense. La crise pèse toutefois sur la consommation et par conséquent sur les prix. Le prix de base est de 43.5€/MWh, le prix pondéré par la consommation ~47€/MWh, l'éolien et le solaire ainsi que la catégorie "autres" fait de productions subventionnées (biomasse, etc.) ou marginales (comme l'usine de la Rance) sont les seules productions dont le prix est inférieur au prix de base (42€/MWh pour l'éolien, 43€/MWh pour le solaire). L'impact de l'éolien paraît relativement plus fort qu'en Allemagne avec un impact de 1.4€/MWh en moins par GW supplémentaire éolien produit, même si la corrélation paraît pour l'instant faible.

prix_sources_france.jpg prix_eolien_france.jpg

Quelles conséquences?

On peut constater avec 2 ans de données que les sources aléatoires d'électricité ont un prix inférieur au prix moyen. En conséquence, l'éolien et le solaire devront avoir un coût inférieur au prix moyen de l'électricité pour que des installations soient construites sans subvention. De plus, ce différentiel à couvrir grandit à mesure que les capacités installées augmentent: au fur et à mesure que des installations — actuellement subventionnées — sont construites, le coût à atteindre diminue et d'une certaine façon le jour où l'éolien et le solaire seront rentables sans subvention s'éloigne. Aujourd'hui en Allemagne, avec une production éolienne qui compte pour 8.5% de la production d'électricité, le différentiel de prix est de l'ordre de 15%: on voit mal ces moyens de production devenir dominants sans que les subventions ne perdurent sous une forme ou une autre.

De plus, en produisant de façon aléatoire, ces sources d'électricité dégradent la rentabilité des autres moyens de production. Ces autres moyens de production sont pour une bonne part pilotables et répondent à la demande. Mais comme leur rentabilité diminue, personne n'a vraiment intérêt à en construire. À terme, l'adéquation entre l'offre et la demande pourrait ne plus être assurée ou, dit autrement, le risque de black-out augmente. Il est douteux que nos démocraties laissent cette situation s'installer et on s'oriente vers un système où ces centrales seraient payées pour leur disponibilité et non pour l'énergie qu'elles produisent.

Au final, on voit mal comment l'organisation actuelle du marché pourra perdurer à long terme. Les productions intermittentes éolienne et solaire ont vocation à se développer, du fait de leur popularité auprès des politiques et de la nécessité de la lutte contre les émissions de CO₂. Le problème est qu'on voit mal comment ces sources intermittentes peuvent trouver un arrangement acceptable en dehors de prix déterminés par l'état: elles n'ont rien d'autre à offrir que l'énergie qu'elles produisent et n'ont aucun pouvoir de marché. Mais cet avenir de prix déterminés par l'état est pour l'instant meilleur que la situation des moyens pilotables. C'est notamment l'analyse de GDF-Suez qui n'envisage plus que de construire des moyens de productions subventionnés ou au prix garanti. Pour les moyens pilotables, on s'orientera vers un marché de capacité où on constate que les combustibles fossiles règnent en maîtres grâce à des coûts d'investissements faibles. Un premier risque est alors que les objectifs de réductions des émissions ne soit pas atteint à l'horizon 2030 ou 2040. Un deuxième risque est que les consommateurs ne veulent pas payer 2 fois pour la même chose, et qu'une confrontation sans fin s'ouvre et que le risque de black-out ne fasse qu'augmenter. Enfin, le risque est que la concurrence soit très limitée dans le domaine des énergies renouvelables: comme le prix sera déterminé par décret, aucune entreprise ne sera incitée à proposer un prix inférieur. Si on voit bien que l'organisation actuelle n'est pas soutenable, celle qui finira bien par apparaître n'est pas nécessairement meilleure que les anciens monopoles nationaux du point de vue du consommateur!

25 février 2014

La démocratie des crédules

Gérald Bronner, professeur de sociologie, a publié son ouvrage La démocratie des crédules l'an dernier. En conséquence, il a déjà été commenté ailleurs (critiques favorables sur contrepoints, sur le site de l'AFIS, chez Christophe Ginisty, un professionnel de la communication; critiques défavorables sur Slate et ) et l'auteur a eu l'occasion de s'exprimer dans les médias à diverses reprises (interview aux Échos, une vidéo là, passage à l'Esprit Public sur France Culture). Le domaine de prédilection de Gérald Bronner est celui de l'étude des croyances, définies comme l'ensemble de ce qu'un individu tient pour vrai. La thèse de La démocratie des crédules est que les biais cognitifs commun à l'ensemble du genre humain, l'apparition d'Internet et de ses capacités à diffuser et agréger des opinions, l'intensification de la concurrence entre médias ouvrent la porte à la diffusion de croyances fausses, dégradant fortement le débat démocratique et la rationalité des décisions.

Avant d'aborder le fond, ce livre recèle un nombre surprenant de coquilles. C'est aussi le type de livre qui se prêterait à merveille à une édition numérique spéciale: l'auteur y décrit un certain nombre de travaux de sociologie — dont bon nombre des siens — et renvoie à un certain nombre de sites web tout au long du texte.

La crédulité humaine, ses origines et ses conséquences

Le livre est traversé par l'exposé de limitations de l'esprit humain quand il s'agit de déterminer la véracité de certaines assertions. En effet, l'esprit humain utilise un certain nombre de raccourcis dans la vie courante. Le premier biais est le biais de confirmation qui conduit dans la plupart des cas à préférer les argumentations qui confirment ce qu'on pense déjà vrai, ne pas chercher s'il pourrait exister une preuve inverse ou à ignorer les effets dus aux hasard sur des grands nombres. Ensuite, même si l'être humain est assez doué pour le raisonnement logique, certains aspects lui sont plus difficiles: c'est le cas de l'appréhension de l'implication ou de la manipulation des probabilités conditionnelles. Il est aussi connu que si l'esprit humain appréhende bien les probabilités proches de ½, il appréhende très mal les probabilités proches de 0 ou de 1 en donnant plus d'importance qu'il ne faudrait aux évènements peu probables. Le point commun de ces biais est qu'il faut produire un effort pour appréhender correctement la situation: en temps normal, pour gagner du temps, nous préférons le moindre effort intellectuel. Ces biais sont importants pour le débat public: en général les tenants d'une thèse ne vont exposer que les éléments qui leur sont favorables. On peut aussi remarquer que bon nombre d'assertions en débat sont en fait des énoncés probabilistes ou statistiques. C'est particulièrement vrai quand il s'agit de traiter de risques: au problème de l'appréhension des probabilités, vient s'ajouter le problème de la dissymétrie dans l'appréhension des bénéfices et des risques, à l'avantage de ces derniers.

Gérald Bronner voit Internet comme un outil qui sert les croyances, y compris les plus farfelues. Internet permet en effet de disposer d'une mémoire latente d'une taille extraordinaire et de pouvoir communiquer avec ceux qui partagent les mêmes préoccupations, fussent-elles extrêmement confidentielles. Cela permet à des groupes marginaux de regrouper rapidement leurs arguments et de les faire connaître. Le livre s'attarde sur des phénomènes de constitution de rumeurs, comme suite à la mort de Michael Jackson ou aux attentats du 11 septembre 2001, pour constater qu'Internet permet d'accumuler un grand nombre d'arguments, pas forcément tous compatibles entre eux d'ailleurs, en faveur de l'existence d'un complot en un temps réduit. Tout ce qui est nécessaire est de la motivation. Cette motivation, caractéristique essentielle des militants, se traduit par le fait qu'une vision rationnelle du monde n'est pas forcément majoritaire lorsqu'on fait une recherche sur Internet. L'auteur prend 5 exemples: l'astrologie où on peut constater l'importance de l'exploitation commerciale, les crop circles, l'aspartame, le monstre du Loch Ness et la télékinésie. Il a effectué courant 2010 des recherches sur Google sur ces thèmes et a constaté que les sites répandant des croyances fondées sur rien de scientifique étaient de loin majoritaires! Les recherches menées pour l'écriture de ce billet montrent que ce n'est plus toujours le cas, comme dans le cas de l'aspartame, où la communication des agences de sécurité sanitaire a pris le dessus à l'aide d'articles de presse. La motivation des croyants et leur maîtrise technique leur permet d'obtenir une exposition tout à fait correcte. De plus, les résultats des recherches sont influencées par la requête: ajouter «complot» à toute recherche comme cet auditeur de radio cité dans le livre va évidemment donner un grand nombre de résultats penchant dans ce sens!

Le livre s'intéresse ensuite à l'influence de la concurrence entre média dans la diffusion des croyances. Pour Gérald Bronner, le mouvement de libéralisation des fréquences et l'apparition d'Internet ont provoqué un trop-plein de concurrence. En voulant toujours aller plus vite que le voisin, il est tentant de ne plus vérifier. En voulant attirer le chaland avec des nouvelles fracassantes, il est tentant de relayer des rumeurs farfelues. Le point de l'auteur n'est pas que le milieu médiatique soit malhonnête mais que la logique concurrentielle pousse à relayer des croyances. La vitesse de publication en particulier oblige les journaliste à prendre les raccourcis intellectuels qui donnent une perception faussée de la réalité.

Enfin, la combinaison de ces trois éléments met en danger la démocratie. La démocratie repose sur des décisions prises en commun et elles sont sujettes aux biais de raisonnement lorsque ceux-ci poussent toujours dans le même sens de décision. Les erreurs de raisonnement peuvent être corrigées au cours du temps nécessaire à l'élaboration de la décision: voter une loi y prend du temps. Mais comme les croyances ont de plus en plus d'exposition, notamment dans les média, il est de plus en plus difficile de prévaloir sur les biais cognitifs. Si, auparavant, la correction des erreurs de raisonnement n'avait rien d'obligatoire, elle devient de plus en plus difficile, car la voix des croyants motivés a de plus en plus de résonnance. Gérald Bronner s'attarde sur deux processus apparus plus ou moins récemment dont l'idée était de faire apparaître un consensus rationnel grâce à la délibération ou la publication d'éléments de fait, ce qu'on appelle la transparence. La délibération est illustrée par les débats publics pour la construction d'infrastructures. Le problème est que ne participent à ces débats que les gens motivés. Ce sont pratiquement toujours des opposants. En conséquence, ils sont surtout l'occasion pour les opposants d'exprimer leur point de vue sans relâche. La transparence est illustrée par la publication de toutes sortes de statistiques sur des sites web dépendant de l'état. Le problème est une nouvelle fois qu'on peut en faire un usage biaisé: dans une telle masse de données, on peut faire apparaître des choses qui ont l'odeur du scandale en n'en regardant qu'une partie, mais qui le sont nettement moins quand on regarde un ensemble plus grand. L'auteur prend l'exemple de la soi-disant vague de suicides à France Télécom où le taux de suicide était en fait très comparable au reste du pays.

Quels remèdes?

À l'opposé ce qu'on entend souvent sur la question, Gérald Bronner ne plaide pas pour plus d’éducation pour lutter contre cette progression des croyances farfelues. Il constate en effet que l'irrationalité ne disparaît pas avec la hausse du niveau d'éducation. C'est par exemple ce qu'on peut constater dans le domaine de l'énergie. Par contre, ce qui est constaté, c'est que statistiquement, avoir un diplôme du supérieur scientifique réduit cette proportion. En conséquence, Gérald Bronner suggère d'insister sur des enseignements qui vont à l'encontre des pentes naturelles de l'esprit — et qui ont souvent une coloration scientifique.

Il demande aussi que les journalistes soient mieux formés à ces mêmes biais cognitifs et aux formes usuelles de légendes urbaines. Il appelle aussi à la formation d'un organe professionnel pouvant sanctionner les errements les plus graves de la profession. Enfin, il recommande une modification de la communication de la part des scientifiques, tant dans la forme que dans l'engagement.

Ce que j'en ai pensé

Je trouve que la lecture de ce livre est tout à fait recommandée. J'ai particulièrement apprécié la description des nombreux biais de l'esprit qui nuisent à une compréhension rationnelle du monde par l'ensemble d'entre nous. Ces biais sont utilisés, consciemment ou pas, par les tenants des croyances. La position de l'auteur sur le danger pour la démocratie, ou plus exactement sur la possibilité de prendre des décisions rationnelles en démocratie, est aussi largement fondée. Sur beaucoup de sujets où la technique est fort présente, on peut constater que ce n'est pas le consensus scientifique sur la question qui borne l'univers des possibles.

Les deux types biais qui m'ont semblé très pertinents. La première catégorie est celle liée à la logique mathématique et notamment aux probabilité conditionnelles. Ayant dans ma prime jeunesse suivi des cours de maths, je peux confirmer que les réflexes en la matière ne s'acquièrent qu'avec une certaine pratique et que même alors, ce n'est pas aussi naturel qu'on pourrait le penser. Ce cursus m'a aussi permis de m'apercevoir que les énoncés probabilistes étaient le meilleur exemple de l'énoncé pourri, celui qui vous induit en erreur. L'entrainement en la matière n'est certainement pas inutile, puisque j'ai trouvé que certains énoncés donnés dans le livre étaient incomplets pour qu'on puisse apporter une réponse. Il faut cependant remarquer une nouvelle fois que nombre d'exposés actuels sont en termes de probabilités ou de statistiques et qu'ils sont donc intrinsèquement difficiles à appréhender. On ne peut pas non plus facilement modifier l'énoncé d'un problème qui fait polémique pour le sortir de l'ambiguïté!

La deuxième catégorie est celle du biais que Gérald Bronner nomme «effet Fort» où l'argumentation procède pas une logique d'accumulation et où tout ce qui est avancé en faveur d'une thèse n'a en fait même pas besoin de l'être. Je trouve que l'exposé de ce biais, dont la logique est celle de «il n'y a pas de fumée sans feu», trouve de nombreux échos dans le débat public actuel. Cela explique aussi la grande difficulté des contradicteurs «rationalistes»: pour répliquer il faut bien connaître les arguments de ses adversaires, ce qui est nettement plus difficile quand il y en a beaucoup! Les experts qui voudraient contredire se trouvent aussi parfois en position de concéder des points à ceux dont ils contestent les thèses. Ce faisant, ils renforcent la validité de la thèse adverse, même si le point concédé ne devrait pas logiquement venir en soutien de cette thèse. Pour contester efficacement une thèse farfelue, on conçoit alors que la motivation devient primordiale. Or cette motivation est un des aspects fondamentaux du prosélyte qui cherche à répandre sa croyance.

Ce qui m'amène à la critique principale du livre: les solutions proposées ne semblent pas à la hauteur du problème. Commençons par l'évolution de la communication de la part des scientifiques et experts. Outre que ceux-ci sont souvent mal préparés à intervenir dans les médias, en partie faute de la motivation propre aux prosélytes, il faut bien constater que recourir aux biais de l'esprit amène sur une pente glissante et à pouvoir répandre des croyances. Pour prendre un exemple, je vais partir d'un élément contenu dans le livre: un sondage a trouvé que 65% des français pensent que respirer l'air des villes est aussi dangereux que fumer du tabac (figure 12, p19). Il m'est difficile de ne pas rapprocher cela des fameux 42000 morts des particules, qui sortent tout droit de la communication qui a entouré une étude scientifique sur la question, et dont j'ai tenté de montrer, tant bien que mal, que ces morts n'avaient rien de comparable aux morts du tabac. User des biais de l'esprit emporte donc à mon sens un certain nombre de risques que les tenants de la rationalité peuvent à bon droit rechigner à prendre.

L'enseignement de la logique mathématique aux journalistes me semble se heurter à un obstacle de taille: le manque de goût qu'ont sans doute ceux-ci pour les maths! En effet, s'ils ont choisi une autre voie d'enseignement, c'est sans doute que les maths n'étaient pas leur matière préférée. Et on voit là que statistiquement le fait que les journalistes soient de formation littéraire les rend plus sensibles aux croyances, notamment dans les domaines techniques. Toujours sur le sujet des journalistes, si on peut certainement blâmer la situation du marché de l'information pour la qualité du traitement, ce ne peut être le seul élément. La malhonnêteté de certains ou leur idéologie les conduit à privilégier et répandre des croyances. Le cas du témoignage de Djamel, jeune homme qui prétendait avoir été violé par Dominique Baudis mais dont on avait coupé au montage les déclarations comme quoi il se disait aussi fils de Michael Jackson et violé par Sarkozy, est exemplaire à ce sujet: c'est là un acte qu'il est difficile de qualifier autrement que de malveillant. Quant à espérer un virage vers un journalisme de qualité tombant moins dans le piège de l'urgence, on risque de prolonger la tendance à la segmentation du marché par préférences politiques … et on risquerait alors de voir plus de reportages du type de celui où on va à la rencontre des électro-hypersensibles sans aucune distance critique.

Au final, ce livre me semble salutaire en ce qu'il expose clairement un certain nombre de biais dont nous pouvons tous être victimes, ce qui est un premier pas pour essayer de s'en prémunir. Le livre est aussi convaincant dans l'enchainement qui cause la piètre qualité du débat public sur nombre de question à forte composante technique. Mais, même si l'auteur se veut optimiste en présentant ses solutions, il est difficile de ne pas finir la lecture de ce livre plus pessimiste qu'on ne l'a commencée.

3 février 2014

Je ne comprends toujours pas pourquoi on nous demande une chose et son contraire

C'est ce que Christophe de Margerie, dirigeant de Total, célèbre firme pétrolière, déclare durant son audition à l'Assemblée Nationale. On peut dire qu'en gros, cette intervention résume l'ensemble de son propos et de ses réponses aux questions que les députés lui ont posées.

Une des principales occupations de de Margerie est de répondre aux accusations de mépris, causées en partie par ses réponses franches et le fait qu'il est en situation de monopole dans les DOM-TOM. L'esclandre qui l'oppose à Jean Lassalle a pour cause profonde la fameuse histoire de l'usine Toyal de la vallée d'Aspe et sa possible «délocalisation», pour cause d'agrandissement, vers le site de Lacq. La morale de cette histoire est simple: les politiques affirment vouloir le développement d'entreprises industrielles mais s'émeuvent bruyamment contre les conséquences.

Les questions des députés des DOMs sont très prévisibles: la nécessité que les carburants qui y soient aux normes européennes met Total en situation de monopole. Qui dit monopole, dit entreprise qui a une capacité à imposer des prix et ressentiment des clients qui voient un produit cher et un service sans sourire. Et bien souvent, la firme en situation de monopole a la même réponse que de Margerie: changez de crêmerie si vous ne voulez plus me voir, avec d'autant plus d'assurance que les capitaux à engager pour racheter les installations construites sont très importants. La question de la SARA est assez similaire: les normes européennes sont en vigueur dans les DOMs, ce qui permet à la raffinerie, créée par un oukase à la fin des années 60, de rester longtemps une situation de monopole, car les voisins au niveau de vie nettement plus bas ne partagent pas les même préoccupations. Les manifestations de 2009 ont amené à une régulation politique des prix, chaque volonté de remettre en cause les règles de fixation des prix mène maintenant à la confrontation. Bref, la décision politique a été prise d'avoir des carburants aux normes européennes mais les conséquences, notamment financières, ne sont pas assumées.

Une autre question qui est posée à Christophe de Margerie est celle de l'optimisation fiscale. Mais il l'explique bien, Total a en fait peu de moyens de la pratiquer très efficacement. L'activité de Total requiert en effet d'obtenir des permis auprès des états dans le sous-sol desquels se trouvent des hydrocarbures. Il est alors obligé de payer des sommes souvent très élevées pour cela: la rentabilité de l'extraction du pétrole et du gaz naturel n'ont échappé à personne. Le prix de vente de la marchandise est aussi parfaitement connu: les hydrocarbures sont vendues sur des marchés mondiaux dont les prix sont publics. Les états sont aussi capables d'obtenir les règles de modification des prix en fonction de la qualité du pétrole. Total est donc mal équipé pour utiliser une astuce courante d'optimisation fiscale qui consiste à facturer les productions en interne au groupe aux prix les plus divers, pour aller faire des bénéfices dans des pays à la fiscalité agréable. Si ce genre d'astuce fonctionne très bien pour un supermarché en ligne ou une société d'édition de logiciels, c'est nettement plus compliqué dans une activité d'extraction minière! En conséquence, Total paierait des impôts en France s'il y possédait des puits en grand nombre. Or, il se trouve que le gisement de Lacq va fermer incessamment et qu'il n'y a aucune opportunité d'expansion dans les gaz ou pétroles de schiste. En quelque sorte, les députés veulent à la fois que les entreprises qui exercent leur activité en France y paient leurs impôts et que les entreprises qui exercent leur activité à l'étranger fassent de même. Ils veulent que Total paie plus d'impôts en France mais lui interdisent toute possibilité réelle d'expansion de son activité.

Au contraire, l'activité de Total en France se contracte: on y consomme de moins en moins de carburants. En conséquence, des raffineries ferment: il n'y a plus que 8 raffineries en service en France et avec 5 d'entre elles, Total n'est peut-être plus si loin du monopole familier aux DOMs. De Margerie remarque aussi que la réduction des émissions de gaz à effet de serre va s'accompagner nécessairement de la continuation de cette tendance et que, depuis de longues années, les politiques prêchent en faveur des économies d'énergie. Tout irait pour le mieux si ces mêmes politiques ne faisaient pas bruyamment savoir qu'ils étaient contre les fermetures de raffineries: le dirigeant de Total cite même le cas d'une militante écologiste lui ayant reproché la fermeture de la raffinerie de Dunkerque. De fait, on demande à Total de moins produire et de moins vendre mais aussi d'employer plus de monde.

Tout ceci serait très drôle si ce n'était pas si répandu dans le discours public. Ainsi, on entend dire qu'on veut moins d'émissions de gaz à effet de serre mais aussi moins de nucléaire, qu'on veut plus de téléphonie mobile et moins d'antennes relais, moins de concurrence et des prix abordables, de l'innovation dans les semences mais pas d'OGMs, de l'innovation en général mais pas de risques ni de personnes dérangées. La liste est pratiquement sans fin des demandes contradictoires qui sont adressées aux citoyens. On pourrait dire qu'il s'agit de rechercher en fait un compromis, mais on ne peut que constater que dans de nombreux domaines, la voie est barrée par des interdictions. En procédant de la sorte, les politiques espèrent contenter le maximum de monde en ne vexant personne; mais on ne peut que constater qu'en fin de compte ils ne font que vexer ceux qui ne comprennent pas qu'on leur demande une chose et son contraire.

25 janvier 2014

Décongélation

Il y a un an à peu près, une proposition de loi écologiste était renvoyée en commission. Elle a fait cette semaine son retour dans l'hémicycle et elle a cette fois été adoptée. Même si le contenu, après décongélation, a été notablement altéré par rapport à la version précédente, on ne peut constater la victoire des écologistes et des associations anti-antennes qui ont là fait un premier pas, selon une tactique bien rodée.

Il n'est pas nécessaire d'aller bien loin pour voir cette tactique détaillée: il s'agit de mettre un pied dans la porte en accréditant l'idée que les ondes émises à des fins de communications sont dangereuses, d'interdire la publicité auprès des jeunes de gadgets électroniques, d'augmenter la paperasserie demandée afin de provoquer un choc de simplification de pouvoir attaquer les permis de construire, de publiciser les choses pour pouvoir faire le siège des mairies. À ce propos, j'ai pu constater que le projet, près de chez moi, de construction d'une antenne relais à la place d'une maison à l'abandon suscite une opposition très localisée — avec, à certains moments, les 3 numéros en amont et en aval aux couleurs de Robin des Toits — et la maire s'est fendue d'un message dans le journal de la commune pour dire qu'elle s'opposait à ce projet. Alors même qu'en certains points de mon immeuble, on ne capte pas de signal — ce qui peut-être aussi dû aux caractéristiques du bétonnage local. J'ai aussi remarqué que sur mon lieu de travail, situé à quelques kilomètres, la 3G n'était disponible qu'en des endroits très particuliers. Bien sûr, ces demandes de renforcement des procédures par les associations anti-antennes ne feront qu'augmenter, prenant prétexte de la préoccupation des citoyens, elle-même alimentée en partie par l'inscription à l'agenda de débats pareils. Cette tactique est bien connue, l'obstination dont ont fait preuve les élus écologistes en fait partie.

Une autre partie de l'offensive est médiatique. Une fois de plus, force est de constater que, face à des activistes très motivés, le consensus scientifique et son langage pusillanime ne font pas le poids. Ainsi cet article du Figaro, peu suspect de sympathie pour les thèses écologistes, où à chaque énoncé de la position orthodoxe, la position hétérodoxe a droit à un exposé bien plus long, mais vide de faits autres qu'anecdotiques. Ce même journal nous gratifie aussi du récit au premier degré et sans aucune critique d'une malade. L'article du Monde nous rappelle la monographie du CIRC mettant les champs radio-fréquences en classe 2B. Mais bien sûr pas un mot sur les autres membres de cette classe, comme des substances aussi strictement régulées que le café, les extraits de gingko biloba et d'aloé vera, ou les légumes conservés dans du vinaigre. Et bien sûr pas un mot de l'évaluation du pire cas possible: même en tirant le maximum de ce qu'on pouvait dire d'une seule étude sur le sujet, les antennes n'étaient pas dangereuses, mais j'avais pu calculer qu'une utilisation très intensive du téléphone pouvait à l'extrême provoquer 60 cancers par an en France. Une lecture cursive le montre rapidement: dans la presse, la possibilité d'une absence de danger n'est mentionnée qu'en passant ou en faire-valoir de l'opinion contraire, alors même que c'est le consensus scientifique sur la question.

Disons le simplement: les radio-fréquences ne sont pas un danger réel. En bientôt 100 ans d'usage de la radio, aucune maladie professionnelle n'a été signalée. L'usage massif du portable depuis plus de 10 ans aurait dû donner lieu à une explosion de maladies en cas de danger important. Au contraire, les innovations que les radio-fréquences ont permises ont sauvé des vies en grand nombre. Elles rendent aussi de grands services à la population et c'est la raison pour laquelle cette technologie a été aussi rapidement adoptée. Plutôt que de parler d'activité économique, c'est là le fait marquant du téléphone portable: un objet utile à la population et qui ne pose pas de problème de danger en lui-même. Et que voit-on? La presse fait maintenant campagne contre un objet de tous les jours et les députés votent une loi contre cette technologie dont l'utilité ne se dément pas. Ce qui amène au fond la question: le téléphone portable, voire même la télévision, la radio, le radar, tout cela serait-il autorisé s'ils étaient inventés demain? Plus largement, si une nouveauté fort utile pour la population en général apparaissait demain, les politiques n'auraient-ils d'autre empressement que de l'interdire?

15 janvier 2014

De la contestation de la loi de programmation militaire

En décembre dernier, une loi de programmation militaire a été adoptée. Comme les précédentes, elle prévoit des crédits d'investissement pour acheter des armes et du matériel — destinés à être rabotés —, des subsides pour financer des opérations à l'étranger — destinés à être dépassés — ainsi que des possibilités légales supplémentaires d'action pour les services de sécurité. C'est le cas d'un article qui a créé la polémique et installe dans la loi un droit d'accès administratif aux données de connexion.

Cet article a suscité l'ire de l'association des entreprises vivant d'Internet et celle des activistes favorables à la liberté sur Internet. Ces réactions, il est vrai quelque peu tardives, ont suscité des réponses de la part des promoteurs du texte, le député Urvoas et le sénateur Sueur. Un des premiers points avancés est que les contestataires ont partie liée aux géants américains du web, impliqués dans le programme PRISM de la NSA. On ne peut que remarquer que ces derniers n'ont pas forcément toujours été consentants, et que ce type d'argument tend à renforcer l'image du barbouze paranoïaque, pour qui toute contradiction est le fait de l'ennemi.

Le principal de l'argumentation porte en fait sur les garanties institutionnelles apportées par la loi. Le problème est que des affaires plus ou moins récentes ne donnent pas forcément confiance dans un tel système, soit parce qu'il a été contourné, soit parce que le contrôle n'a pas empêché des dérives. C'est ainsi que David Sénat a été viré de son poste de conseiller au ministère de la Justice parce que ses appels téléphoniques ont été épluchés, les services se retranchant tant bien que mal derrière un article de la loi de 1991 sur les écoutes qui n'était de toute évidence pas prévu pour cela. On se rappelle aussi que Julien Dray avait fait l'objet d'une enquête de Tracfin, sans doute suscitée par l'importance des mouvement de fonds que provoque son passe-temps de collectionneur de belles montres. Cette enquête s'était transformée en enquête sur la gestion — certes emprunte d'une légèreté étonnante — de SOS Racisme, alors que les liens entre Julien Dray et cette association portaient sur des montants bien plus faibles. À l’occasion du débarquement de David Sénat, Jean-Louis Bourlanges, révolutionnaire bien connu, avait déclaré que chacun sait que dès que vous avez une responsabilité plus ou moins importante, vous êtes écouté, ce qui montre une confiance toute relative dans l'efficacité des institutions en place. Or, c'est à la même institution — la CNCIS — qu'on confie le pouvoir de surveiller ces services, qui ont visiblement une vision extensive de ce qui leur est autorisé, lors de l'usage de ce nouveau pouvoir légal.

L'argumentation des 2 parlementaires se rapproche ainsi quelque peu de celle des partisans de la légalisation des stupéfiants: il vaut mieux réguler que de laisser faire dans l'illégalité. À la lecture de l'analyse de la loi dans son ensemble par un vieil habitué, on se rend compte qu'il s'agit surtout de légaliser des pratiques policières. Toutes les mesures prises au lendemain des attentats du 11 septembre 2001, soi-disant à titre temporaire, ont finalement été, avec cette loi, actées à titre définitif. Il faut bien constater que cette loi s’inscrit dans la continuité de ce qui s'est fait ces 10 dernières années sous les gouvernements de droite. Même si l'avis de l'avocat général de la CJUE laisse présager la fin de ces mesures de surveillance, on peut comprendre la déception des opposants à ce genre de mesures.

Cette déception explique sans doute en partie l'aspect outrancier de certaines réactions qui crient à la dictature: les opposants de la surveillance ont l'impression que c'est la seule façon d'obtenir quoi que ce soit. Ce fut le cas lors des lois Hadopi, par exemple. Elle explique aussi que les deux parlementaires se soient fendus d'une explication: les opposants à la surveillance se pensent sans doute de gauche, ou en tout cas, pensent y avoir trouvé plus d'alliés qu'à droite. La contestation par la gauche de diverses mesures (Hadopi, lois mémorielles, certains blocages administratifs de sites web, etc.) les a sans doute confortés dans cette opinion. Cependant, force est de constater que la gauche est aussi friande de lois restreignant la liberté, notamment d'expression, que la droite. La première loi sécuritaire de l'après 11 septembre a aussi été votée sous le gouvernement de Lionel Jospin. Quant à la Hadopi, après avoir lutté contre ce type de surveillance, il n'est plus question que de la fusionner avec le CSA.

D'aucuns, souvent déjà acquis à la cause, ont suggéré aux contestataires de faire plus de politique. Cependant, s'il y a aussi peu de monde dans ces groupes de pression, c'est qu'en fait, la question des libertés publiques suscite une grande apathie parmi la population française. Et que le nombre de convaincus est faible. Les questions qui ont réussi à mobiliser le grand public sont celles où il était touché directement, comme la Hadopi. Pour le reste, les idées libérales ayant quasiment disparu du débat en France, il ne faut pas espérer qu'une vision suspicieuse des pouvoirs de surveillance de l'état ou qu'une conception de la liberté d'expression proche du Premier Amendement séduisent énormément de monde. Si le Chaos Computer Club allemand arrive à rassembler du monde, c'est que la méfiance envers les pouvoirs de police de l'état est bien réelle. Au fond, ce que l'émotion autour de la loi de programmation militaire nous apprend, c'est que le nombre des opposants aux mesures de surveillance est faible en France et que leur seule chance de se faire entendre, c'est de combiner hurlement à la dictature et mesure qui touche directement le public. On ne peut pas dire que ce soit porteur d'un dialogue raisonné avec les politiques, malheureusement.

26 novembre 2013

Peut-on facilement redéployer des milliards de dépenses publiques?

Une remarque souvent entendue dans le débat public est qu'il serait possible, sans difficulté extraordinaire, de redéployer des crédits au sein du budget de l'état — en général, quelques milliards d'euros — pour favoriser une mission particulière. Je m'étais par exemple fait l'écho des difficultés de l’institution judiciaire en France dont le budget est d'un peu plus de 7.6G€. On pourrait penser affecter 1 ou 2 milliards de plus par an pour aider à résoudre les problèmes qui se posent (engorgement des tribunaux, prisons vétustes, etc.). Dans le même ordres d'idées, Thomas Piketty proposait la semaine dernière dans une tribune dans le journal Libération d'augmenter le budget de l'enseignement supérieur de 6G€ soit à peu près 50% des 12.7G€ prévus en loi de finances 2013.

À première vue, il semble en effet aisé de trouver de tels montants dans le budget de l'état ou des divers organismes publics: la dépense publique s'élève à plus de 56% du PIB de sorte que 1G€, c'est moins de 0.1% de la dépense publique. La proposition de Thomas Piketty reviendrait alors à redistribuer un peu plus de 0.5% des dépenses, ce qui ne semble pas bien difficile a priori.

La première chose qui rend difficile une telle redistribution, c'est qu'il y a des demandes dans d'autres domaines. Rien que dans le premier paragraphe, j'ai réussi à citer 2 causes où il existe une demande de crédits supplémentaires. Or, il en existe quasiment autant que de missions de l'État! On peut aussi constater que François Hollande a promis d'embaucher des professeurs, des policiers et des personnels supplémentaires pour la justice pendant sa campagne présidentielle. La deuxième, c'est qu'il existe des postes budgétaires importants qui ont une grande persistance, comme les dépenses de personnel. Il est compliqué de faire passer des personnels d'une partie à l'autre de l'état en France à cause de besoins en compétences et de l'existence de statuts différents … et aussi sans doute d'une faible appétence pour quitter certaines administrations. Cette inertie explique en partie pourquoi les annonces d'économies dans les budgets publics se traduisent par une ribambelle de petites économies mises bout à bout. La troisième, c'est qu'il existe déjà un courant obligatoire de dépenses publiques supplémentaires: il y a alors une substitution obligatoire des dépenses de l'état en cours et il n'est pas forcément si évident qu'on puisse en rajouter.

Dépenses de Sécu et de retraites Sur le graphe ci-dessus, on constate que la somme des dépenses de retraites et d'assurance maladie croissent presque linéairement d'année en année. En une dizaine d'années, elles ont augmenté de 150G€, soit 15G€/an, plus du double de ce que revendique Thomas Piketty pour l'université. Mais contrairement à ce qu'il demande, cette augmentation se produit tous les ans! Sauf changements de règles, il faut donc trouver tous les ans des crédits à redistribuer parmi les dépenses publiques, ce qui diminue d'autant le potentiel d'augmentation pour d'autres missions.

Même s'il y avait plus de croissance que dans la période actuelle, ces conclusions seraient sans doute encore valables. En période de croissance, les fonctionnaires demanderaient plus d'augmentations de salaire, le remplacement des équipements qui ont vieilli. Et on peut aussi constater qu'en moyenne, les dépenses de protection sociales augmentent en proportion du PIB — d'environ 0.2% par an —, ce qui rend toujours la tache difficile pour trouver des fonds pour d'autres activités. Dépenses de Sécu et de retraites en %age du PIB

En conséquence, il ne me semble pas si facile de trouver 6G€ à affecter à l'université. Quel que soit l'intérêt de la cause, la difficulté est que les dépenses sociales imposées par le passé — retraites et une bonne part des dépenses de santé — augmentent d'année en année. Si on pense que la dépense publique a atteint un point haut en France et qu'on ne veuille plus augmenter les impôts, il faut alors soit diminuer les autres dépenses publiques et accepter l'éviction de dépenses utiles par ces nouvelles dépenses forcées, soit stopper cette hausse des dépenses sociales, ce qui est extrêmement difficile. Les dernières décisions sur les retraites montrent quel chemin a été choisi: celui de l'éviction des dépenses publiques par les retraites et les dépenses de santé, ainsi qu'une continuation des hausses d'impôts. Malheureusement, il est prévisible qu'on ne pourra pas trouver de sitôt 6G€ supplémentaires annuels pour financer l'université.

30 octobre 2013

La taxe des petits malins

Le gouvernement a aujourd'hui décidé de reporter sine die l'application de l'écotaxe, officiellement taxe poids lourds, suite aux manifestations qui se sont déroulées en Bretagne.

À première vue, l'écotaxe ressemble à une taxe d'usage: plus on roule, plus on paie, le produit net de la taxe est affecté à l'organisme étatique chargé des projets d'infrastructures. Cependant, contrairement à une véritable taxe d'usage, les voitures particulières sont exonérées, ainsi que d'autres poids lourds parmi lesquels les véhicules de secours et … les citernes de lait. Des abattements sont prévus pour certains endroits, dont la caractéristique principale est d'être peu pourvus en autoroutes. À part les grandes routes, le reste est exonéré, un des buts avoués de la taxe est de favoriser les canaux et le train. On remarque aussi que plus le poids lourd respecte une norme anti-pollution récente et moins le poids lourd consomme de pétrole, moins il paie. C'est aspect est naturel puisque cette taxe a été décidée après le fameux Grenelle de l'Environnement. Il semble donc qu'il s'agit en fait de taxer la consommation de carburant, on y reviendra.

Un article des Échos sur la genèse de cet impôt particulier, on constate aussi que d'autres raisons ont présidé à cette remarquable invention. L'appât du gain que l'exemple allemand a provoqué: peu importe que le réseau allemand ne connaisse pas le péage. Les reports de trafic vers l'Alsace créent aussi un allié, les élus alsaciens, qui ne veulent pas de ce nouveau trafic. Enfin, la privatisation des autoroutes a privé l'organisme qui s'occupe des infrastructures de la plupart de son financement.

La complexité de la taxe ne cesse d'étonner. Elle nécessite la pose de portiques le long des grandes routes partout en France et l'enregistrement de l'ensemble des camions circulants. Une telle infrastructure demande un entretien important, ce qui fait que la collecte coûte 250M€, soit un quart des recettes totales. Penser qu'une gestion publique aurait fait mieux n'est pas fondé: les radars automatiques coûtent plus de 200M€.

Alors, pourquoi ne pas avoir simplement rogné la ristourne fiscale sur le diesel dont bénéficient les poids lourds? Le risque aurait alors été le blocage de grandes villes ou plus simplement des raffineries. Pour amadouer les éventuels protestataires, les transporteurs routiers ont été autorisés à extérioriser le coût de cette taxe auprès de leurs clients dont la grande distribution, en sus des autres exonérations accordées: aux laitiers, aux Bretons, etc. Le report dans un futur indéterminé en 2008 a aussi permis de reporter à plus tard la protestation et de se lier les mains en préparation de cette contestation très prévisible lorsque le moment de payer allait s'approcher. Enfin, créer une taxe particulière permettait de l'affecter et s'empêcher de déshabiller les investissements dans les infrastructures pour boucler le budget.

Évidemment, l'heure de passer à la caisse a fini par se préciser et il s'avère que la taxe aurait dû s'appliquer à partir de l'année prochaine. Et tout s'est passé de façon défavorable. Les donneurs d'ordres ont négocié comme avant auprès des transporteurs, et la taxe allait se répercuter suivant la théorie de l'incidence fiscale. Il s'avère que dans l'agro-alimentaire, c'est à court terme les agriculteurs qui paient. Comme une bonne part du transport s'effectue en fait dans les derniers kilomètres et que les abords des grandes villes sont dépourvus d'autoroutes à péages, ceux qui pensaient être à l'abri car en «cycle court» se sont aperçus qu'en fait, ils allaient payer.

On a là un concentré de l'impéritie de l'état français. Une taxe pour décourager l'usage d'un produit qui se raréfie — même le PDG de Total dit que les quantités extraites chaque année vont baisser la prochaine décennie — et qui est responsable d'une bonne part du réchauffement climatique — un tiers des émissions dues à la combustion d'hydrocarbures au niveau mondial — est légitime, mais personne ne sait comment la faire accepter. Germe alors l'idée de la faire par une voie détournée, en persuadant ceux qui pourraient bloquer la mesure qu'ils ne paieront pas, en se liant les mains et en reportant l'application à une époque où il est probable que le pouvoir aura changé de mains. Bien sûr, pour que l'illusion fonctionne, la complexité de la taxe est très élevée et demande des investissements pour mettre en place un système de recouvrement. L'illusion se dissipe et le nouveau gouvernement ne sait toujours pas comment faire accepter cette augmentation de taxes. Ce manque d'argent oblige alors à mettre en veilleuse certains projets d'infrastructures, faute de financement. On sait aussi que ces deux aspects, moins de consommation de pétrole et disposer de rentrées fiscales pour financer les infrastructures, font consensus entre les différents partis. Au fond, les politiques ne savent plus comment faire accepter des actions qu'ils jugent légitimes, que ce soit pour financer l'action de l'état ou pour éviter des évènements néfastes.

- page 1 de 8