2 août 2013

MON810, le retour de la vengeance

Comme prévu, l'arrêté pris pendant la campagne électorale de 2012 pour interdire le MON810 a été annulé par le Conseil d'État. Avant même que la nouvelle ait été annoncée, le ministre de l'agriculture, Stéphane Le Foll déclarait: le Conseil d'État n'est pas le décideur, ce n'est pas lui qui dit si on peut ou pas interdire les OGM, il ne s'appuie que sur la base juridique pour dire si elle est valide ou pas. Cette phrase est d'une magnifique casuistique, puisque le Conseil d'État, s'il ne publie aucun texte règlementaire, a bien le pouvoir de décider si une interdiction est valide ou pas. Elle a aussi le mérite d'indiquer la suite des évènements, une nouvelle interdiction est déjà annoncée. On ne peut que remarquer que c'est la deuxième fois que l'État est condamné pour les mêmes raisons et que le gouvernement entend poursuivre la politique qui consiste à s'assoir sur les décisions de justice. Le gouvernement perpètre ainsi et de façon répétée un abus de pouvoir caractérisé.

Le principe de la tactique est connu: espérer que les partisans se fatiguent avant les opposants et finissent par ne plus aller faire respecter leurs droits devant les tribunaux. C'est en bonne voie: des associations d'agriculteurs se disent prêtes à ne plus intenter de recours si un simple débat a lieu sur la possibilité de cultiver d'autres OGMs à venir. Autrement dit, il s'agit de lâcher la proie pour l'ombre. Tout d'abord, il est difficile d'imaginer qu'un autre OGM puisse réussir là où le MON810 n'a pas pu triompher de l'opposition, alors que sa principale utilité était d'éviter, en faisant produire la toxine par la plante, d'avoir à utiliser des produits insecticides potentiellement dangereux en leur substituant une toxine utilisée en agriculture biologique et d'avoir à passer vaporiser ces produits. En effet, le maïs MON810 permet d'arriver au Graal écologiste de ne pas utiliser de produit chimique tout en facilitant la vie de l'agriculteur. On se demande ce qu'on peut espérer de plus. Dans un même ordre d'idées, Greenpeace lutte avec acharnement contre le riz doré, un riz dont les grains contiennent du carotène grâce à l'insertion de gènes de maïs et ne présentant donc strictement aucun danger. Mais même dans l'hypothèse — hautement improbable donc — où les agriculteurs sortiraient vainqueurs de ce débat, ils ne pourraient cultiver ces hypothétiques plantes sans autorisation délivrée par la Commission Européenne. Elle a fait preuve jusqu'à présent d'un empressement tout relatif, puisque seuls 3 OGMs ont jamais été autorisés à la culture. Ce débat sera donc un marché de dupes.

Les écologistes ne font même plus mystère de l'illégalité de l'interdiction. José Bové déclare immédiatement au Figaro que ce qui motive la décision du Conseil d'État, ce sont les règles européennes, qui sont claires. Seuls des arguments scientifiques peuvent interdire l'exploitation d'un OGM. Et de se dire prêt à la violence sous couvert de désobéissance civique. Christian Bataille, membre de l'OPECST, a beau tonner contre les Torquemada et enfin dire les choses comme elles sont, cette politique continuera aussi longtemps que l'opposition aux OGMs restera vivace et peut-être au delà. Les opposants ont réussi — fait sans précédent! — à tuer la recherche publique en France sur le sujet et à bloquer toute autorisation d'OGMs, au point de désespérer le principal promoteur commercial, Monsanto.

Les péripéties et les déclarations du gouvernement montrent aussi qu'en France, on ne peut profiter des libertés individuelles que si elles ne déplaisent pas à la majorité accompagnée d'opposants particulièrement bruyants, ce qui en est la négation même, les libertés individuelles étant surtout utiles quand le grand nombre conteste vos droits. Et c'est sans doute là, le plus grave.

23 juillet 2013

Le rapport Moreau et les pistes de réforme pour les retraites

Il y a un peu plus d'un mois, la commission installée par le gouvernement pour lui présenter des solutions pour rééquilibrer les comptes des caisses de retraites a rendu son rapport, connu pour faire court sous le nom de la présidente de la commission, Yannick Moreau. Le rapport est découpé en 3 parties, la première sur les réformes précédentes, la seconde sur la situation présente des caisses de retraites et leur avenir si on ne fait rien, la troisième faisant des propositions pour essayer de rétablir l'équilibre financier à court et long terme. Si les 2 premières parties peuvent être considérées comme un résumé de l'histoire récente et des rapports du COR, la troisième est originale et probablement appelée à inspirer en partie les décisions du gouvernement sur la question. C'est surtout à cette dernière que je vais m'intéresser ici.

Combler le trou d'ici 2020

Le rapport comporte un tableau résumant les perspectives financières des régimes de retraite (p49). Elles sont sinistres: des déficits annuels compris entre 15 et 20G€ sont prévus d'ici 2020, si rien n'est fait. Les déficits les plus importants sont prévus pour la fonction publique d'état (7G€/an en 2020) et les retraites complémentaires du privé (8.3G€/an avant la réforme de cette année). Le régime général aura un déficit qui se réduira grâce à des excédent du fonds solidarité vieillesse qui finance les minima. En prenant en compte les régimes «alignés», on arrive à un déficit de 4.8G€ avant prise en compte de la conjoncture de cette année. En effet, les prévisions du COR se basaient sur les prévisions du gouvernement de l'automne 2012… La commission estime qu'il faut escompter un déficit de 2G€ supplémentaire et se fixe l'objectif de trouver 7G€ annuels d'ici 2020 (p86). Les régimes complémentaires, quant à eux, ont pris des mesures permettant de combler un peu plus de la moitié du déficit annuel prévu en 2020 avec des hypothèses de croissance qui ne seront pas réalisées. La commission ne propose pas grand chose à leur sujet, ni d'ailleurs, au sujet des retraites alignées sur le régime de la fonction publique. En d'autres termes, les propositions du rapport Moreau ne concernent qu'un (petit) tiers du déficit prévu en 2020. La réforme qui s'annonce sera donc probablement incomplète; les mesures au sujet de la fonction publique qui sont envisagées restent donc mystérieuses; on entendra sans doute de nouveau parler des retraites complémentaires d'ici 2017.

Comment répartir la douloureuse? Le rapport propose 2 répartitions: un tiers pour les retraités, 2 tiers pour les actifs — ou moitié pour les retraités, moitié pour les actifs. La première répartition est justifiée par le poids démographique relatif, la deuxième par la contribution des actifs qui a constitué l'essentiel de la réponse jusqu'ici et par un marasme économique certain dont les conséquences pèsent d'abord sur les actifs. Le rapport remarque (p100) que les retraites complémentaires ont plus sollicité les retraités que les actifs du moment … mais le rapport n'élabore pas de scénario suivant cette voie.

Côté retraités, il s'agit donc de faire baisser les pensions nettes d'impôts une fois prise en compte l'inflation. Il y a donc des hausses d'impôts qui sont proposées, comme l'amoindrissement du traitement privilégié des retraités vis-à-vis de la CSG, de faire peser l'impôt sur le revenu sur les avantages «familiaux» ou encore de limiter les effets de l'abattement de 10% au titre de l'IRPP. On remarque que c'est l'alignement de la CSG qui rapporterait le plus avec 2G€/an de recettes. L'autre levier est de jouer sur l'indexation des retraites. Elles sont actuellement indexées sur les prix, l'idée est donc de les revaloriser de l'inflation diminuée de 1.2 point pendant 3 ans, au moins pour celles ne relevant pas des minima. Apport en fin de période: 2.8G€/an.

Côté actifs, le rendement des mesures autres que les hausses d'impôts est médiocre. En effet, ces économies ne se font sentir que progressivement, au fur et à mesure que les actifs deviennent des retraités. C'est ainsi qu'augmenter la durée de cotisation de 1.25 année ne rapporterait que 600M€ en 2020, une sous-indexation similaire à celle des retraités 800M€. Le rapport propose ouvertement de fortes hausses d'impôts, via le relèvement de la partie déplafonnée des cotisations retraites de 0.1 point par an. Selon les scénarios proposés, le rendement serait compris entre 3 et 4.2G€/an. Pour comparer, le CICE, instauré par ce gouvernement, est censé représenter 20G€ à partir de 2014. Entre 15 et 20% de cette mesure seraient donc stérilisés en 2017… Cela dit, il faut bien admettre que l'autre mesure à rendement assez rapide, le recul de l'âge légal, a été choisi par le gouvernement Sarkozy pour la dernière réforme. Il ne reste donc guère, comme mesures de trésorerie immédiate, que le relèvement des impôts ou la baisse des pensions.

À la lecture du rapport, on s'aperçoit que la commission favoriserait les mesures de durées de cotisation, malgré leur faible rendement, à cause de leurs effets à long terme et car ce type de mesure est comprise et admise comme un levier naturel (p95). Elle favorise aussi une désindexation des retraites, on lit qu'il s'agit de la seule mesure lisible et aisée de mise en œuvre permettant de limiter l'évolution des dépenses des régimes (p93). Mais tout cela ne suffit pas et on s'achemine ainsi vers une hausse des impôts, que ce soit via l'alignement de la CSG des retraités sur celle des actifs — souhaitable par ailleurs — ou via l'augmentation des taux de cotisation pour les salariés. Un problème connexe qui se posera, sans doute dans un futur proche, est le comblement du déficit de l'assurance maladie, le levier des impôts ayant déjà été actionné un certain nombre de fois ces dernières années.

À plus long terme

À plus long terme, les choses sont relativement claires, la commission écrit dans le rapport les mesures de durée constituent la réponse la plus pertinente pour adapter le système de retraites au progrès social que constitue l'allongement de l'espérance de vie (p105). La commission étudie des scénarios où la durée de cotisation augmenterait à partir de 2020 — on a vu qu'on pourrait commencer avant — pour aller jusqu'à 44 ans suivant divers rythmes. Le scénario où il y a le plus d'économies est bien sûr celui où l'évolution est la plus rapide (1 trimestre par an); ce scénario semble servir de base pour évaluer les autres mesures. Dans ce cas, l'incidence budgétaire totale pour la CNAV serait positive de 8.5G€ annuels, en comptant tant les surplus de cotisations payées par ceux qui restent en activité que les retraites à payer en moins (p108). S'il était acté un tel rythme d'augmentation serait nettement supérieur à celui prévu par la réforme Fillon de 2003 qui rapporte moitié moins. Comme je l'ai déjà signalé, cette augmentation de la durée de cotisation me paraît souhaitable puisque c'est à la fois la mesure la moins douloureuse et celle qui permet non seulement de renflouer les caisses de retraites, mais aussi les autres caisses publiques, comme celles de l'État ou de l'assurance maladie, via un surcroît d'activité.

La commission s'attarde aussi sur les modalités d'indexation des retraites. Quoique pouvant être assez obscur, ce paramètre technique est d'une importance fondamentale. Le rapport contient un exemple édifiant: si les salaires progressent de 1.5% en sus de l'inflation, un calcul de retraite se basant sur les 25 dernières années donne une différence de 16% entre un calcul se basant sur une réévaluation suivant l'inflation et une réévaluation suivant les salaires. Actuellement, la pension moyenne vaut 88% du salaire moyen: autant dire que sans le changement d'indexation la pension moyenne serait sans doute supérieure au salaire moyen aujourd'hui — ce changement s'est produit dans les faits à la fin des années 80 avant d'être rendu automatique par la réforme Balladur en 1993. Dans le langage de la commission cela donne: le maintien de la parité des niveaux de vie entre ménages actifs et ménages retraités a été préservé, au lieu de se déformer en faveur des seconds (p115). La lecture des simulations du COR montre aussi que c'est en fait toute la différence entre les scénarios de forte croissance et les scénarios de marasme économique. L'indexation suivant l'inflation fait diminuer le ratio pension/salaire plus rapidement en cas de forte croissance, ce qui permet dans les cas les optimistes de dégager des excédents. Même si la commission s'attarde aussi sur le cas d'une hypothétique forte croissance, on peut dire qu'en fait, l'indexation sur les prix n'a pas assez bien fonctionné pour permettre d'éviter d'avoir à passer par la case des réformes successives.

La commission propose ainsi un moyen de rendre l'équilibre des régimes moins dépendant de la croissance économique de manière à obtenir le ratio pension/salaire souhaité. La proposition est que les retraites, ainsi que les bases servant à les calculer, ne soient réévaluées suivant les salaires moins 1.5%. Un tableau p117 montre toutefois qu'il ne faut pas en attendre de miracles si elle est utilisée seule. Dans le scénario C', le solde ne serait amélioré que de 0.3 point de PIB. Cependant, combiné aux mesures d'allongement de la durée du travail, le déficit serait significativement réduit par rapport aux simulations du COR. Avec ce nouveau mode d'indexation, les gouvernements se faciliteraient donc un peu la vie. Un bémol toutefois: cette indexation ne serait pas automatique, ce qui laissera au gouvernement la possibilité de déséquilibrer le système à long terme. Cette méthode est faite pour permettre de geler — voire baisser — automatiquement les pensions en cas de crise économique, les caisses de retraites souffriraient d'un gouvernement continuant à revaloriser pour préserver le pouvoir d'achat.

Le rapport comprend aussi une mesure plus originale. Il s'agit d'une combinaison entre âge et durée pour permettre de prendre sa retraite: ce qui compterait ce serait désormais la somme de l'âge de la personne et de la durée cotisée. On pourrait ainsi partir — à terme — sans décote si la somme des deux vaut 106 (p141). La commission mentionne toutefois que malgré un allongement de la durée de cotisation plus rapide encore que dans le cas du «simple» allongement de la durée de cotisation, la situation financière serait moins bonne. Le rapport n'explique pas pourquoi, mais je pense qu'on peut le deviner. Contrairement au scénarios d'allongement de la durée de cotisation, où on suppose grosso modo que tout le monde reste au travail plus longtemps pour éliminer la décote, dans un système «âge + durée», certains peuvent partir en allongeant moins leur durée de cotisation que d'autres. Pour dire les choses simplement, dans un système «âge + durée», les années d'études comptent pour une demi-année de travail salarié. La conséquence est que les cadres n'auraient pas besoin d'atteindre les 44 annuités ou l'âge butoir de 67 ans (ou plus si un changement intervient). Prenons 2 exemples:

  • Dans un cas, quelqu'un commence à travailler à 16 ans. Il travaille ensuite continûment. Il pourra partir à la retraite à 61 ans, après 45 ans de travail.
  • Dans un autre cas, le travail commence une fois les études terminées à 23 ans, après un bac +5. Il pourra toucher une retraite sans décote à 64 ans et demi, soit 41 ans et demi de cotisations.

Ces simples exemples montrent que ce système est plus injuste encore que le système actuel, puisque l'allongement de la durée de cotisation s'appliquerait à plein à ceux qui commencent à travailler jeunes, qui sont aussi les plus mal payés et qui ont l'espérance de vie la plus courte. Par contre, les cadres seraient largement épargnés. Si on veut vraiment un système plus juste et plus compréhensible, autant prendre la durée de cotisation comme seul critère quitte à augmenter rapidement l'âge légal éliminant la décote pour le fixer entre 70 et 75 ans pour lui donner le seul statut de filet de sécurité. On l'aura compris, je suis franchement hostile à un système «âge+durée»!

Quelques conclusions

La lecture de ce rapport montre qu'une grande part du rétablissement des comptes de la CNAV se fera par des hausses d'impôts. Qu'on envisage toujours sérieusement de faire porter les coûts principalement aux actifs après une crise économique d'une ampleur majeure me semble inquiétant pour les choix qui devront aussi être faits sur l'assurance maladie. Par contre, à plus long terme, la commission propose clairement que ce soit l'allongement de la durée de cotisation qui domine, ce qui permet en fait de ne faire payer personne au sens propre, tout en permettant d'augmenter toutes les recettes fiscales. Si le gouvernement souhaite faire une réforme allant au-delà de 2020, il devrait donc acter un passage plus ou moins rapide aux 44 années de cotisations. Le parti socialiste devrait donc manger son chapeau après s'être opposé pendant plus de 20 ans à cette mesure évidente. Le gouvernement pourrait éviter ça en évitant de se prononcer sur le futur.

Par contre, l'idée d'un système «âge+durée» me semble clairement dangereuse, d'une part à cause des problèmes de financement, d'autre part parce qu'il perpétue voire fait empirer l'injustice principale du système actuel qui est que ceux qui ont commencé jeunes doivent travailler plus longtemps avant de toucher une retraite à taux plein.

30 juin 2013

L'idéologie au pouvoir

Cécile Duflot, ministre du Logement, etc. donne ce dimanche une interview à la Provence, titrée Trop d'excès dans l'immobilier suite à la publication de son projet de loi, modestement qualifié d'historique par le site du gouvernement. Cette interview est un concentré d'idéologie, ce qui présage mal des résultats à venir.

Mme le minsitre remarque dès l'abord que, en 10 ans, les loyers ont augmenté de 40% dans les zones les plus tendues. Selon elle, c'est donc dans les zones où il y a relativement le moins de logements disponibles par rapport à la demande que les prix ont le plus augmenté. En d'autres termes, elle constate une pénurie dans certaines villes; en fait, principalement à Paris et dans sa banlieue. La solution proposée est le contrôle des prix, puisque les propriétaires qui dépasseraient le montant maximum devront ramener le prix du loyer au niveau fixé par le préfet: l'administration fixera autoritairement un niveau maximal de prix. Or, ce dernier est plutôt associé à des pénuries, parfois sur les produits les plus mondains. Dans le secteur du logement, les conséquences d'une règlementation tatillonne sont connues: de grandes difficultés pour les candidats à la location pour trouver un logement, des conditions non monétaires confinant au délire. Cela permet aux économistes de publier des articles récurrents ou de se faire la main au début d'une carrière d'éditorialiste. Toujours est-il qu'en France, il est sans doute plus facile d'emprunter 200k€ sur 20 ans que de louer un appartement à 750€/mois. On peut simplement constater que tenter de résoudre une pénurie par le contrôle des prix est sans doute une première.

Mais ce n'est pas tout! En effet, une possibilité sera offerte aux propriétaire de louer plus cher que le plafond s'ils justifient de caractéristiques particulières du logement. Mais attention: À tout moment, la commission de conciliation ou le juge pourront ordonner un retour au maximum légal fixé par le préfet. En d'autres termes, on renforce la crainte des propriétaires de se faire avoir par leur locataire qui pourra demander à faire baisser son loyer à tout moment.

Cécile Duflot enchaîne ensuite par sa proposition d'une garantie universelle des loyers. Cette nouveauté a déjà fait l'objet d'un billet d'Alexandre Delaigue, dont il ressort que ce n'est sans doute pas une bonne idée. En effet, on verrait sans doute les impayés augmenter … et la facture retomberait sur les locataires et propriétaires qui n'essaient pas de profiter du système. À terme, le poids de l'assurance incomberait d'ailleurs surtout aux locataires, par un effet proche de l'incidence fiscale: les propriétaires intègreront ce nouveau coût au prix demandé et l'offre de logement a une borne supérieure à court terme, ce qui ralentit la concurrence, comme le montre la hausse des loyer en zone tendue. Comme visiblement les assureurs privés sont réticents à assumer un risque qu'ils jugent incontrôlable, c'est l'état qui va prendre le risque à sa charge via un nouvel établissement public.

On arrive alors aux mesures que veut prendre le ministre pour augmenter l'offre via la construction de logements. La première batterie de mesures consiste en l'installation de nouvelles niches fiscales, dont on croyait pourtant qu'il fallait les faire disparaître. C'est ainsi que la TVA sera abaissée pour certains types de constructions où l'accès serait accordé sous conditions de ressources. Il faut tout de même rappeler que presque les 2/3 de la population est éligible au HLM, avec ce nouveau type de logement, la quasi-totalité de la population devrait être éligible à une réduction de prix. Mme Duflot fait aussi la publicité de la niche fiscale qui porte son nom, dont elle dit qu'il est distribué par les promoteurs immobiliers dans l'esprit qui a contribué à sa création : construire des logements là où on en a besoin, à des niveaux de loyers inférieurs au marché, comme sans doute ses prédécesseurs le Scellier, le Robien, etc. Cela dit, il faut reconnaître que construire n'importe où a fini par régler le problème de la hausse continue des loyers dans certaines villes.

On en arrive à un autre problème provoqué par la règlementation foisonnante: les recours contre les permis de construire. Cécile Duflot se propose de pourchasser ceux qui transigeraient avec les promoteurs parce que certains seraient des professionnels des recours voire des mafieux qui devront verser des dommages et intérêts si leur recours est jugé abusif. Cependant, les associations de défense de l'environnement seront préservées de ce type de poursuite. Après cette reconnaissance que ces associations sont des professionnels des recours, on peut donc prévoir une soudaine hausse du dépôts de statuts en préfecture. On peut aussi remarquer l'instauration d'une nouvelle catégorie de justiciers autorisés, comme ceux qui défendent la nature sauvage en harcelant les sauveteurs de pinsons. Toujours est-il que transiger pour de l'argent apparaît comme néfaste par rapport au fait de camper sur ses positions pour empêcher la construction d'immeubles. Or, c'est plutôt à cette deuxième espèce qu'appartiennent ceux qui intentent des recours, quitte à laisser à l'abandon de vieux entrepôts et des maisons insalubres et décrépites, plutôt que d'accepter l'installation de logements neufs dans leur quartier. Mais procéder ainsi aurait sans doute obligé à couper les ailes aux recours venant des associations écologistes envers tout ce qu'elles détestent, des antennes relais aux projets d'infrastructure.

Au fond, on voit là que c'est l'idéologie qui semble guider Mme le ministre; le monde se partage entre bons et méchants: propriétaires responsables encouragés contre marchands de sommeil pourchassés, infâme recours mafieux contre juste action d'une association écologiste, marché livré à lui-même excessif contre état bienveillant et raisonnable, ignoble logement insalubre contre roulotte et yourtes pimpantes. Comme bien d'autres lois sur le logement, celle-ci n'atteindra certainement pas ses buts, tellement elle va dans la mauvaise direction: renforcer encore et toujours la règlementation. On pourrait bien sûr essayer l'inverse, mais il s'agit là d'un prêche dans le désert, comme le montre la date de cette dernière tribune: 2005.

12 juin 2013

Les subventions à l'éolien et au solaire sont parties pour durer

C'est un leitmotiv de ce blog que de s'intéresser aux politiques menées en faveur de l'éolien et du solaire photovoltaïque. J'ai signalé à au moins deux reprises au fait que ces subventions faisaient baisser les prix sur les marchés. La cause immédiate est simplement que les obligations d'achat fournissent une partie de l'électricité, ce qui reste à produire par les autres moyens est plus faible, ce qui fait qu'on a moins besoin de faire appel aux moyens de production les plus chers.

Mais cette situation va en fait perdurer. L'éolien et le photovoltaïque ont pour caractéristique commune d'avoir un coût marginal nul: autrement dit, produire un kWh supplémentaire ne coûte rien de plus au propriétaire que les sommes qu'il a déjà engagées. Il a payé le constructeur de l'éolienne, il paye pour l'entretien de sa machine, qu'elle produise ou non. Sur le marché de l'électricité, le prix est déterminé par les lois de l'offre et la demande qui conduisent grossièrement à faire payer le coût marginal augmenté d'une prime qui dépend du pouvoir de marché des différents intervenants (plus d'explications ici). Cette prime due au pouvoir de marché n'est pas à disposition des producteurs d'énergie solaire ou éolienne, puisqu'ils sont très nombreux et que leur production est avant tout déterminée par les caprices de la météo. Cela les transforme en preneur de prix: ils acceptent tout prix positif, voire même un prix négatif s'ils ne peuvent se déconnecter du réseau.

En conséquence, on peut s'attendre à ce que l'éolien dont la production s'effectue grosso modo au hasard reçoive des revenus inférieurs au prix moyen du marché dit aussi prix de base — le prix obtenu en faisant la moyenne non pondérée de tous les prix horaires. Pour le solaire photovoltaïque, la situation est un peu différente: la consommation est supérieure le jour à ce qu'elle est à 4h du matin. Le prix est donc en général plus élevé le jour que la nuit. Mais si la capacité installée de solaire photovoltaïque est suffisamment grande — plus grande en tout cas que la différence de consommation entre le jour et la nuit —, on peut assister au même phénomène. Qualitativement, c'est lié au fait que le prix marginal est nul et aussi que la production est aléatoire … elle a donc une moindre valeur qu'une production prévisible à l'avance.

Reste toutefois à démontrer cela dans la réalité. C'est possible puisqu'on dispose pour la France et l'Allemagne d'un marché spot dont les prix peuvent être relevés par un script. En France, RTE permet de récupérer en milieu de mois, la production horaire du mois précédent via son programme éco₂mix, collaté tous les mois par Sauvons le Climat. En Allemagne, on ne dispose pas de données aussi détaillées qu'en France, mais on dispose des productions éoliennes et solaires, collatées sur le site de Paul-Frederik Bach. Les données pour 2012 ont été rassemblées dans ce tableur OpenOffice, celles pour le premier trimestre 2013 dans celui-ci.

Durant l'année 2012, en Allemagne, aux prix de marché, l'éolien aurait été rémunéré environ 37.5€/MWh en moyenne, le solaire photovoltaïque 44€/MWh contre un prix de base d'un peu moins de 43€/MWh. de_market_prices_2012.jpg

Pour le premier trimestre 2013, en Allemagne, le prix moyen du photovoltaïque tombe lui aussi en dessous du prix de base. Les prix du solaire est un peu inférieur à 40€/MWh contre un prix de base d'un peu plus de 42€/MWh. Pour la première fois, des prix négatifs ont été notés en journée, le dimanche 24 mars. L'éolien vaut 35€/MWh. de_market_prices_2013.jpg

En France, les données un plus complètes permettent de comparer nombre de sources de production d'électricité. En 2012, on ne dispose pas de données spécifiques pour le solaire qui est classé dans la catégorie «Autre» avec des installation de cogénération, des générateurs au gaz et au fioul situés dans les îles, etc. On constate quand même que l'éolien se verrait rémunéré aux prix de marché un peu moins de 45€/MWh contre un prix de base d'un peu plus de 47€/MWh. Le nucléaire emporte 48.5€/MWh. Le prix moyen pondéré par la consommation est de 50.5€/MWh. Le prix très élevé du fioul s'explique par la vague de froid de février 2012, où on a fait beaucoup appel à ce moyen de production. fr_market_prices_2012.jpg

Au premier trimestre 2013, on dispose de la production solaire. Les centrales à cogénération ont été intégrées pour la plupart dans la catégorie «Gaz», les générateurs au fioul installés sur les îles ont rejoint la catégorie idoine, la catégorie «Autre» ne contient plus que les centrales à biomasse, l'usine de la Rance, etc. Pour éliminer la production de fond crée par les générateurs des îles et les contrats de cogénération, j'ai créé une catégorie «gaz hors fond» et «fioul hors fond» pour tenter de rendre compte des centrales commerciales. L'éolien aurait été rémunéré 52.5€/MWh contre 54.5€/MWh pour la base. Le solaire emporte un peu plus de 57€/MWh. fr_market_prices_2013.jpg

À la fin de 2012, il y avait environ 31GW d'éolien en Allemagne et 7.5GW en France. Les différences d'impacts sont du même ordre de grandeur. Pour le solaire photovoltaïque, il y avait en fin d'année 2012 plus de 32GW installés en Allemagne contre 3.5GW en France. Les effets sont là sans commune mesure.

Cette pression à la baisse sur les prix pose problème pour le futur de ces moyens de production. En effet, les subventions ont été mises en place pour permettre aux renouvelables de devenir compétitives vis-à-vis des autres moyens de production et de pouvoir à terme se passer de ce soutien. Mais comme on le voit, arriver au niveau du prix moyen sur le marché ne suffira pas, il faut que l'éolien et le solaire photovoltaïque deviennent encore moins chères pour être véritablement rentables. Le différentiel de prix en défaveur de l'éolien et du solaire s'agrandit au fur et à mesure que les capacités installées augmentent, ce qui est très problématique si on veut que ces sources de production fournissent une partie importante de l'électricité produite. En 2012, l'éolien a fourni 7.4% de la production allemande et l'effet est déjà notable.

Il semble qu'on s'achemine vers un système où les productions d'électricité d'origine éolienne ou solaire reçoivent des rémunérations décidées à l'avance par les gouvernements et où les moyens de production adaptables à la demande reçoivent une rémunération pour leur véritable intérêt: celui de pouvoir être disponibles quand on a besoin d'eux, sans forcément avoir à produire. Cela revient quelque part à payer deux fois pour la même chose.

5 juin 2013

Delphine Batho raconte n'importe quoi

Alors que le débat organisé par le gouvernement sur l'énergie tire à sa fin et que la CRE publie un rapport qui suggère d'augmenter fortement les tarifs de l'électricité, Delphine Batho donne une interview au Figaro, intitulée Consommer moins d'énergie fabriquera de la croissance. On ne peut que regretter qu'elle y dise en grande partie n'importe quoi.

Elle nous déclare donc, dès la première question, que la nouveauté, c'est que l'investissement dans la réduction de la consommation d'énergie fabriquera de la croissance. Il y a deux façons de comprendre cette phrase, qui mène à deux impasses différentes. La première, c'est que les investissements dans les économies d'énergie permettent de diminuer la quantité d'énergie nécessaire pour créer un 1€ de PIB. En d'autres termes, il s'agit de gains de productivité, qui n'ont absolument rien de nouveau. En 1851, Jevons avait déjà constaté qu'en fait la consommation totale d'énergie augmentait de ce fait dans son livre The Coal Question. La deuxième, c'est que grâce à ces investissements, on aura à la fois croissance et baisse de la consommation d'énergie. Il y a de fortes raisons d'en douter: la croissance économique s'est historiquement toujours accompagnée d'une croissance de la consommation d'énergie (comme on peut le constater là). Il faudrait pour cela que les gains de productivité soient supérieurs à l'effet de rebond, ce qui suppose entre autres une nette accélération des gains de productivité ou que les nouvelles activités dépensent très peu d'énergie, ce qui est très peu probable, toute activité économique se basant sur une transformation de l'existant. Bref, soit D. Batho a découvert un des faits les plus anciennement connus en économie, soit elle tient des propos dont la réalisation est très peu probable.

La donnée du chiffre de 43% d'économie d'énergie dans l'appareil de production en France en est l'exemple parfait: une telle économie d'énergie est peut-être techniquement réalisable, mais elle peut être économiquement néfaste. Pour qu'elle soit bénéfique, il faut que l'investissement nécessaire coûte moins que les dépenses d'énergie évitées. Or c'est là toute la question des économies d'énergie: dans des secteurs concurrentiels, les entreprises ont intérêt à minimiser leurs coûts, ne serait-ce que pour survivre. C'est ainsi qu'on a vu les dépenses énergétiques pour produire une tonne d'aluminium ou d'acier se réduire. Mais si ces investissements ne se font pas, c'est bien souvent qu'ils ne sont pas rentables. Et ils le sont d'autant moins que l'énergie est bon marché, vanter ces possibilités d'économies est donc contradictoire avec le fait de se plaindre de la hausse structurelle du coût de l'énergie. Les mêmes remarques valent aussi pour les particuliers: les investissement pour réduire la consommation du chauffage ne sont rentable qu'à partir d'un certain niveau de prix, lorsque les remboursements d'emprunts sont moins lourds que les dépenses évitées. En fait cela signifie que le pouvoir d'achat est sans nul doute inférieur à celui qui prévalait avant la hausse des prix de l'énergie qui s'est produite depuis 2005.

La ministre nous gratifie ensuite d'un magnifique mensonge. Elle affirme qu'en Allemagne, le kilowattheure y est 87 % plus cher qu'en France, mais grâce aux économies d'énergie sous toutes leurs formes, la facture du consommateur est en moyenne moins élevée. On peut déjà tracer l'origine de ce mensonge: j'en ai déjà parlé au moment où un sénateur Vert a remis le rapport de sa commission d'enquête. Tout part d'une enquête statistique réalisée en 2005 — nous sommes en 2013 — dans tous les pays européens via un suivi de ménages. Cette enquête rapporte des résultats surprenants quant à l'énergie. Tellement que ces résultats ne collent absolument pas avec les résultats qu'on peut tirer des comptes nationaux, et que Global Chance, pas vraiment connue pour ses positions favorables à la politique énergétique française, reconnaît que la facture des Allemands est supérieure à celle des français. J'avais à l'époque tiré le graphe ci-dessous des données de comptes nationaux tels qu'on pouvait les extraire d'Eurostat: Dépenses énergies pour les logements en 2010 On y voit clairement que les dépenses par habitant sont plus faibles en France qu'en Allemagne, que ce soit globalement en incluant toutes les sources d'énergie, qu'en prenant en compte la seule électricité. Comme je ne peux imaginer que D. Batho n'ait pas été correctement briefée sur la question par son administration, il ne reste que l'hypothèse du mensonge.

L'interview se poursuit avec l'inévitable question de Fessenheim, où la ministre se propose de diminuer autoritairement le PIB de la France en fermant une usine rentable. Elle justifie la fermeture de Fessenheim par l'ouverture de la centrale de Flamanville. Mais la construction de l'EPR de Flamanville a été lancée pour faire face à l'augmentation de la demande en électricité. À cause de la crise, la croissance de la demande a été plus faible que prévu, car la chute de la consommation des industries a masqué la hausse continue de la consommation de la part des particuliers et des petites entreprises de services. Mais si la chute de l'industrie s'arrête, la hausse de la demande d'électricité reprendra. À tel point que RTE prévoit un manque de capacité pour les pointes extrêmes de consommation à partir de 2016. L'autre justification est la dépendance au nucléaire et au parc standardisé français. Le problème est alors qu'on ne voit pas bien la différence entre produire 50% et 75%: en cas de défaillance généralisée, la pénurie d'électricité serait extrêmement grave. La seule solution est alors descendre encore plus bas! Elle affirme enfin que nous n'avons pas vocation à faire moins de nucléaire pour faire plus de CO₂. Or il s'avère que les simulations sérieuses montrent qu'en fait une baisse du nucléaire se traduira forcément par une hausse des émissions de CO₂.

Sur la question du gaz de schiste, D. Batho traite le gaz d'énergie du XIXᵉ siècle, alors que l'expansion du gaz date de la deuxième moitié du 20ᵉ siècle, entre 1965 et 2011, la consommation a été multipliée par plus de 5; la consommation a augmenté de presque 50% ces 15 dernières années. gaz_conso_1965-2011.jpg À la question suivante, pourtant, cette énergie datée trouve grâce à ses yeux, puisqu'elle va empêcher les centrales au gaz de fermer! Elle annonce aussi un statut spécial pour les gros consommateurs industriels et des mesures de compétitivité pour eux. On pardonnera les faibles mortels qui ont du mal à comprendre comment les deux déclarations sont conciliables. L'interview se termine sur la reprise du leitmotiv comme quoi le diesel est un problème de santé publique: comme il fallait s'y attendre, la hausse des taxes à venir sera justifiée par des raisons de santé publique inexistantes et non par les véritables raisons, qu'il n'existe aucune raison à cet avantage et qu'une hausse des taxes est une excellente façon de faire baisser les consommations de carburants.

Pour conclure, ce n'est pas cette interview qui va me faire changer d'avis sur la politique du gouvernement en matière d'énergie ni sur Delphine Batho. Il faut dire que la ministre est confrontée à des demandes contradictoires, au milieu desquelles il est difficile de surnager. Vouloir limiter la hausse des prix de l'énergie, grandement déterminés sur des marchés mondiaux, est impossible, surtout quand en plus, on subventionne les énergies renouvelables comme le solaire et l'éolien, plus chère que le parc de production existant. De même, réduire la part du nucléaire s'accompagnera selon toute probabilité d'une hausse des émissions de CO₂ dans la production d'électricité. Elle se retrouve à condamner le gaz à une question avant de lui trouver de nombreuses vertus à la suivante. Tout ceci montre bien que le fameux débat n'a rien éclairci, comme prévu, et que la politique de ce gouvernement est minée par des cadeaux idiots aux Verts et des promesses intenables sur les prix de l'énergie. Les mensonges et les demi-vérités sont alors la seule issue de la communication politique.

2 juin 2013

Touche pas au grisby!

Gérard Cornilleau et Henri Sterdyniak, de l'OFCE, ont publié dans Le Monde du 24 mai puis sur le blog de l'OFCE une tribune intitulée Retraites : garantir le système social qui est de fait une sorte de bréviaire d'une partie de la gauche sur les retraites. On y lit une position qui se rapproche de celle d'ATTAC, mais argumentée de façon nettement plus sophistiquée et nettement moins vindicative. Cette tribune permet à mon sens de comprendre quelles sont les fondements du désaccord profond qui existe sur les retraites. Elle recèle pour moi de nombreuses idées fausses et, pire, répand des mensonges.

Dès le départ, avant de reproduire le texte de la tribune telle que publiée dans le journal Le Monde, le texte du blog résume la thèse défendue en affirmant qu'une nouvelle réforme des retraites ne devrait pas être une priorité pour la France à l’heure actuelle. Même si l'OFCE n'est pas connu pour défendre la limitation de la dépense publique, le sujet des retraites est pourtant l'archétype de ce à quoi on peut toucher maintenant pour favoriser un rétablissement progressif des comptes publics, que le même OFCE ne semble pas refuser, même quand il appelle à en finir avec l'austérité (un exemple). Les mesures prises aujourd'hui ne produiront leurs effets que progressivement, car il est toujours prévu que les paramètres s'ajustent progressivement. Par exemple, les effets de la réforme Sarkozy de 2010 vont s'étaler jusqu'en 2022 pour faire passer à 67 ans l'âge légal de la retraite, où chacun peut partir sans décote même s'il n'a pas le nombre de trimestres requis. Si la position de l'OFCE est que le rétablissement des comptes publics ne doit pas se faire maintenant dans l'urgence ni progressivement à l'avenir, la conclusion est qu'en fait, l'OFCE ne veut pas qu'il se produise.

Les buts du système de retraites

Les auteurs donnent les objectifs que doit, selon eux, atteindre le système de retraites:

Ce système doit être contributif (la retraite dépend des cotisations versées), mais aussi rétributif (la retraite rémunère la contribution à la production, mais aussi l’élevage d’enfants ; ceux qui ont connu chômage ou maladie ne doivent pas être pénalisés) et redistributif (la société doit assurer un niveau de vie satisfaisant à toutes les personnes âgés). Il doit être socialement géré : l’âge de fin d’activité doit tenir compte de la situation de l’emploi comme du comportement des entreprises. Ses règles doivent être adaptées en permanence à l’évolution économique et sociale.

L'objectif rétributif est tout sauf évident. L'exemple donné, élever des enfants, montre au contraire combien cet objectif est profondément daté. Historiquement, les enfants ont été élevés par des femmes qui restaient au foyer. C'est au fond la raison des pensions de réversion et des divers compléments de retraite à base «familiale». S'ils n'existaient pas, ces femmes âgées relèveraient du troisième objectif — dont fait partie le minimum retraite — car elles n'auraient acquis aucun droit, faute de travailler. Ce système leur permettait donc de maintenir leur niveau de vie à un niveau acceptable. La situation a pourtant bien changé: aujourd'hui le taux d'activité des femmes a fortement augmenté, les inégalités de retraite de ce fait sont en train de diminuer et vont continuer à le faire. Ainsi, selon le 12ᵉ rapport du COR (p37), les pensions versées aux femmes augmentent deux fois plus vite que celles versées aux hommes.

Ce type de système est fondamentalement vicié et inefficace: qui peut croire que bénéficier d'un complément de retraite, versé quand les enfants seront partis, est la priorité des parents d'aujourd'hui ou de demain? On peut tout de même penser qu'ils préfèreraient toucher plus d'argent maintenant au titre de la politique familiale. Or la réforme précédente a augmenté la part des suppléments familiaux imputée aux allocations familiales et cela va sans doute conduire à la réduction des prestations familiales. De la même façon, les retraites ne sont pas le bon outil pour traiter les conditions de travail. D'abord, il y a un grand risque que les négociations sur la pénibilité débouchent en fait sur un bénéfice pour des professions plus fortement syndicalisées mais dont les conditions de travail ne sont pas si mauvaises. Le risque est aussi très grand que le classement de pénibilité ne change jamais à l'avenir même si les conditions de travail s'améliorent. Enfin, le dernier risque est que cela serve d'excuse à ne pas chercher à améliorer les conditions de travail, car il y aurait une sorte de rétribution après la période de travail. Ce genre de choses est à juste titre vu comme inacceptable; c'est la logique des préretraites pour exposition à l'amiante.

On remarque aussi que pour les auteurs, on doit tenir compte du comportement des entreprises, soupçonnées d'être responsables du chômage des plus de 55 ans. En fait, il y a nombre de raisons de penser que le système a été exploité via des accords entre les salariés et les entreprises, bien heureux de bénéficier de systèmes permettant d'arrêter de travailler plus tôt. La dispense de recherche d'emploi a été un thème récurrent du blog de verel, et il a constaté dernièrement que le taux d'emploi des plus de 55 ans avait augmenté suite à sa suppression. Il est aussi particulièrement scandaleux pour des économistes de propager le mythe selon lequel le travail des vieux se substitue à celui des jeunes, un avatar de l'idée selon laquelle la masse de travail rémunéré dans la société serait un gâteau de taille fixe qu'il faudrait se partager.

Le système des retraites doit se limiter à un système contributif de revenu de substitution lorsqu'on a travaillé suffisamment longtemps ou qu'on arrive à un certain âge, doublé d'un système de protection sociale comme le minimum vieillesse, pour éviter les situations de misère complète. Mais en aucun cas les retraites ne doivent servir de fusil à tirer dans les coins ou de compensations pour des dommages passés. Si compensation il doit y avoir, elle doit autant que possible être versée dès la réalisation du dommage.

L'équilibre financier du système

Les auteurs affirment au cours de la tribune qu'il souhaitent que les pensions soient indexées sur les salaires, au lieu de l'inflation à l'heure actuelle. Ils refusent catégoriquement toute désindexation et tout gel des retraites. Ils souhaitent que les ratios pensions/salaires actuels soient maintenus. Dans le même temps, ils affirment que c'est la croissance qui doit résorber les déficits sociaux. Or les projections contenues dans le 11ᵉ rapport du COR, auxquelles j'ai consacré un billet en mars dernier, montrent que ce sont des assertions incompatibles entre elles. Les scénarios de forte croissance voient les système de retraite s'équilibrer — au cours de la décennie 2030 en cas de plein emploi et hausse de la productivité de 2%/an — que grâce à une baisse importante du ratio pension/salaire (graphe ci-dessous, scénario A')… baisse permise par l'indexation sur les prix et non les salaires. Pensions_COR.jpg Comme il est impossible de croire que les auteurs ne connaissent pas ces projections, on est réduit à constater qu'ils profèrent sciemment un mensonge et camouflent l'ampleur des conséquences de ce qu'ils proposent. De plus la croissance qu'ils appellent de leurs vœux est tout sauf une certitude, même si les recommandations de l'OFCE étaient appliquées.

Car pour financer cela, au lieu de l'adaptation à l’évolution économique et sociale proclamée au départ, ils proposent de figer les durées de cotisation et les âges de départ aux niveaux déjà actés par les réformes de 2003 et de 2010. La seule variable d'ajustement qui trouve grâce à leurs yeux est l'augmentation des cotisations sociales puisqu'ils écrivent que le gouvernement et les syndicats doivent annoncer clairement que c’est par la hausse des cotisations que le système sera équilibré. Comme ils souhaitent une indexation sur les salaires au lieu des prix, la situation du système de retraites serait pire que celle prévue dans le scénario C' du COR qui prévoyait des hausses de salaires 1% supérieures à l'inflation, et donc à l'évolution des retraites. Ce scénario prévoyait des déficits annuels très importants, de l'ordre de 2.5% du PIB au cours de la décennie 2030. L'abaque 2040 proposée p135 montrait un besoin d'augmentation des cotisations de plus de 5 points de pourcentage, soit une baisse très significative du pouvoir d'achat des actifs qui devraient aussi financer des dépenses de santé accrues.

De fait, je pense toujours qu'augmenter l'âge de départ à la retraite est la meilleure option. Non seulement elle permet de limiter les hausses de cotisation et les gels de pension, mais cela permet aussi d'augmenter la population active et donc sans doute le PIB, contrairement à ce qu'annoncent les auteurs. Dans ce cas, les rentrées fiscales seraient supérieures au cas où on laisserait partir les gens à la retraite comme ce qui est déjà acté, ce qui permettrait de financer plus facilement les dépenses de santé et les autres priorités du moment. Mais les auteurs n'en ont cure: toute la tribune est consacrée en fait au maintien du statu quo ou à des hausses de dépenses, pour finalement tout faire financer par des hausses d'impôts. Il faut ajouter pour faire bonne mesure que les auteurs refusent que les hausses d'impôts se produisent quand la croissance est faible. Comme cette situation risque d'être durable, ils préconisent en fait de laisser se creuser le déficit des caisses de retraites. Les conséquences à long terme pourraient être tout simplement désastreuses, notamment pour ceux qui s'approcheraient de la retraite dans une vingtaine d'années. En attendant, les gens de la génération de Gérard Cornilleau et Henri Sterdyniak auront bénéficié de méthodes de calcul très favorables par rapport à ceux qui devront gérer le désastre.

15 mai 2013

Téléphone GM

Lundi dernier, La Cour Suprême des États-Unis a rendu sa décision sur le cas d'un fermier américain qui avait semé du soja GM sans payer de subsides à Monsanto. Elle a condamné à l'unanimité le fermier. C'est l'occasion de s'apercevoir que la presse français souffre parfois d'une mauvaise compréhension de l'anglais.

À la lecture du jugement, on comprend que le fermier en question semait du soja génétiquement modifié tous les ans. Pour la première récolte de l'année, il achetait des semences via le circuit traditionnel. De ce fait, il signait un contrat qui l'obligeait à vendre l'ensemble de sa production et à ne pas garder de graines pour semer ultérieurement. Cette manœuvre est possible avec le soja, car contrairement à d'autres plantes comme le maïs, mais de façon semblable à d'autre comme le colza, les rendements se maintiennent de génération en génération. Pour la deuxième récolte, il jugeait le prix des semences de Monsanto excessif. Il s'est alors tourné vers un silo pour lui acheter des graines de soja, originellement prévues pour être mangées, et les semer. Ce silo était rempli de la récolte des fermiers de la région. La Cour remarque alors (p3):

And because most of those farmers also used Roundup Ready seed, Bowman could anticipate that many of the purchased soybeans would contain Monsanto’s patented technology. When he applied a glyphosate-based herbicide to his fields, he confirmed that this was so; a significant proportion of the new plants survived the treatment, and produced in their turn a new crop of soybeans with the Roundup Ready trait.

Autrement dit, le fermier ne pouvait ignorer qu'il y aurait une bonne partie des semences qui auraient le trait de résistance au glyphosate, l'herbicide honni de Monsanto. Le fermier en était suffisamment sûr pour en asperger ses plants. Cela lui permettait aussi de sélectionner les plants contenant bien ce trait et d'éliminer les autres. De cette récolte, il gardait une partie pour semer à la même époque l'année suivante, en complétant son stock avec de nouvelles graines issues de silos.

Pour sa défense, le fermier affirmait qu'il avait le droit de semer des graines achetées à un silo, car ces graines n'étaient plus sous l'empire du monopole procuré par le brevet à Monsanto. C'est cette doctrine de l’extinction qui nous permet de revendre des produits brevetés sous la forme de biens d'occasions. Cependant, la Cour lui rétorque que cette doctrine ne lui permet pas de produire des copies supplémentaires (p5). Le fermier argue en réponse que les graines germent d'elles-mêmes et donc qu'il ne peut être tenu pour responsable du cours naturel des choses. Ce à quoi la Cour lui rétorque que cultiver du soja n'est pas seulement laisser faire la nature et impliquait du travail de sa part (p9).

Bowman was not a passive observer of his soybeans’ multiplication; or put another way, the seeds he purchased (miraculous though they might be in other respects) did not spontaneously create eight successive soybean crops. As we have explained, supra at 2–3, Bowman devised and executed a novel way to harvest crops from Roundup Ready seeds without paying the usual premium. He purchased beans from a grain elevator anticipating that many would be Roundup Ready; applied a glyphosate-based herbicide in a way that culled any plants without the patented trait; and saved beans from the rest for the next season.

En clair, le fermier a sciemment exécuté une stratégie lui permettant de ne pas payer de subside à Monsanto, alors qu'il connaissait le brevet et la protection qu'il apportait — puisqu'il achetait aussi tous les ans des semences par le canal légal.

La nouvelle est arrivée jusque dans notre beau pays. L'AFP a, comme il se doit, écrit une dépêche sur le sujet. On peut y lire le paragraphe suivant:

Le cultivateur affirmait avoir toujours respecté son contrat avec Monsanto, en achetant de nouvelles semences OGM chaque année pour sa culture primaire. Mais à partir de 1999, pour faire des économies, il avait acheté d'autres semences auprès d'un producteur local et les avait plantées pour une moisson distincte. S'apercevant que ces semences avaient développé une résistance à l'herbicide par contamination avec le champ de graines transgéniques, il avait alors répété l'opération de 2000 à 2007.

On peut donc y lire 2 choses qui sont présentées comme des faits mais qui sont en fait fausses. Tout d'abord, le fermier n'a pas acheté les semences pour sa deuxième récolte auprès d'un producteur local mais auprès d'un silo à grain qui en vendait pour qu'elles soient mangées ou transformées et non pour être plantées. Ensuite, nulle contamination à l'horizon: selon la Cour, le fermier savait que le silo contenait principalement des graines de soja GM puisqu'une bonne part des fermiers locaux — y compris lui-même — en cultivait pour leur première récolte. Enfin, même si ce n'est pas faux, dire que le fermier s'aperçoit que les plants sont résistants au Round Up est une façon particulière de faire savoir qu'il a sciemment déversé cet herbicide sur ses cultures alors que toute plante non génétiquement modifiée en meurt. On peut aussi remarquer que les 2 assertions fausses sont complètement inventées, nulle part dans le jugement de la Cour Suprême, y compris lorsqu'il reprend la position du fermier, on n'en trouve trace. Évidemment, cette partie de la dépêche a été reprise telle qu'elle par un suspect habituel.

On peut évidemment lire dans une presse plus sérieuse un compte rendu nettement plus fidèle du jugement et des faits. Cependant, on peut voir une fois de plus pourquoi la presse souffre d'un certain désamour. Les sources primaires d'information sont maintenant accessibles directement à tout un chacun, ce qui fait que les gens peuvent s'apercevoir qu'il y a des différences entre les faits et ce qui est écrit dans la presse, non seulement sur les sujets dont ils sont spécialistes mais aussi sur les sujets qui les intéressent. Dans le cas présent, on peut s'apercevoir que des dépêches sont romancées alors qu'elles sont censées rapporter des faits. La confiance du lecteur pour ce qui est raconté sur d'autres sujets s'en trouve forcément diminuée.

13 mai 2013

Du rapport Berger-Lefebvre sur l'épargne financière

L'été dernier, j'avais publié un billet sur les rapports que la Cour des Comptes avait consacrés à l'assurance-vie et au financement de l'économie par l'épargne des Français. On pouvait en retirer les points suivants:

  1. L'épargne financière des ménages est d'abord orientée vers les produits sans risque et ce biais s'amplifie. Si les 2/3 du stock d'épargne financière est composé de produits sans risque, ils reçoivent 5/6 des apports
  2. Si les rendements des produits risqués — en premier lieu les actions — ont été décevant, cette orientation s'explique aussi par les incitations fiscales. 42% de l'épargne sans risque bénéficiait d'un régime fiscal favorable, contre 12% à l'épargne risquée.
  3. La réglementation n'aidait pas puisque son durcissement conduisait les assurances et les banques à se détourner des produits risqués
  4. Pour corriger cela, la Cour appelait à ne pas augmenter les plafonds des livrets défiscalisés, ou alors à taxer les intérêts sur la partie supérieure aux plafonds actuels, et d'allonger la période de détention d'un contrat d'assurance vie pour bénéficier de l'avantage fiscal et de modifier la façon dont elle est calculée

J'avais conclu à l'époque que de telles mesures était à peu près sûres de rater leur cible. Ces rapports dénotaient tout de même une intention de changer les règles fiscales et il ne faisait pas de doutes qu'il y aurait une suite, au moins sous la forme de rapports parlementaires pour proposer quelques mesures. On peut aussi remarquer que l'assurance-vie, forme de placement occupant une place prépondérante aujourd'hui, n'a pas été visée par la dernière loi de finances. Cette suite est le rapport signé des députés Berger et Lefebvre.

Le rapport aborde divers sujets. Le premier est celui de l'épargne réglementée suite à la décision de relever les plafonds. Le rapport mentionne que presque 50G€ ont été versés de ce fait sur les livrets. Comme on voit à la fin que le flux net d'épargne financière est en baisse, cela s'est réalisé en stoppant les apports sur l'assurance-vie et en inversant l'augmentation des dépôts qui avait eu lieu en 2012. Le rapport de la Cour des Comptes rappelait que l'augmentation des dépôts était une nécessité créée par le durcissement de la réglementation. Dans leur rapport, les parlementaires déclarent que Les mouvements de réallocation de l'épargne financière intervenus à la suite des relèvements   du   plafond   du   livret   A   et   du   livret   de   développement   durable   ne   sont   pas   de   nature   à   déstabiliser   la   répartition   du   stock   de l'épargne financière (p27) à cause du plafonnement, mais ça ne les empêche pas de dire aussi que la nouvelle réglementation va au-delà de ce qui apparaît nécessaire. On nage donc en pleine schizophrénie, où les gouvernant veulent à la fois un système bancaire sans risque, mais qui ne réduit pas ses prêts ni n'augmente ses dépôts. Par ailleurs, le discours sur l'épargne populaire et la justification du relèvement du plafond surprennent quelque peu lorsqu'on découvre plus loin les remarques sur la concentration des encours de l'assurance-vie … alors que la situation est assez similaire sur les livrets défiscalisés dont seule une petite partie atteint les plafonds de versements.

Le rapport abord aussi vers la fin la question des incitations directes à investir dans les petites entreprises comme l'ISF-PME et les réductions d'impôts sur les plus-values lorsqu'on investit dans un fonds de capital-risque. La position des parlementaires est clairement hostile aux réductions d'impôts accordées à l'entrée, contrairement à celles accordées à la sortie. Si leurs recommandations sont suivies, on devrait donc assister à la fin de l'ISF-PME au profit du maintien des avantages accordés au capital-risque. Une fois de plus, on s'étonne du discours de justice qui émane de ce rapport: les avantages accordés au capital-risque se distinguent par leur confidentialité (4M€ et 1124 foyer fiscaux). Ils obligent à passer par des intermédiaires, alors que les systèmes d'aide à l'entrée permettaient d'investir dans des sociétés en phase de démarrage, ce que ne fait pas le capital risque français. C'est pourquoi les auteurs préconisent de créer un PEA spécial PME, soit une niche fiscale supplémentaire…

C'est sur la question de l'assurance-vie qu'était sans doute le plus attendu le rapport. Il faut dire que les enjeux sont importants, puisque l'assurance vie représente maintenant de l'ordre de 40% de l'épargne financière des ménages, soit environ 1400G€. Les auteurs se sont rendus compte d'un petit problème posé par la dernière loi de finance, même si c'est dit d'une façon très particulière:

Cette réforme d'équité et de justice fiscales suscite des réactions nuancées dès lors que l'alignement de la fiscalité des revenus du capital sur celle des revenus du travail ne va pas forcément de soi au regard des incitations que les pouvoirs publics souhaitent donner aux comportements d'épargne des Français comme au regard des comparaisons internationales sur la fiscalité de l'épargne. Elle pourrait même sans modification des régimes fiscaux avantageux des placements immobiliers ou de l'assurance-vie inciter au report d'une partie de l'épargne vers ces placements au détriment des placements plus risqués potentiellement plus utiles à l'économie productive.

En effet, plus les impôts sur les revenus du capital sont élevés moins il est intéressant de prendre des risques, à cause de la différence de traitement entre gains et pertes. Comme les produits les plus risqués sont aussi ceux qui sont détenus par les ménages les plus riches et donc les plus durement frappés par la réforme de la taxation des revenus du capital, ce risque de désaffection n'est pas qu'une invention. Les auteurs proposent pour contrer cet effet de créer une nouvelle niche fiscale à l'intérieur de la niche: les contrats de plus de 500k€ seraient l'objet de nouvelles contraintes pour bénéficier de l'avantage fiscal de l'assurance-vie. Ça me semble contreproductif: à risque constant sur le patrimoine global, il s'agit d'un alourdissement de la fiscalité, ce qui devrait logiquement conduire … à moins de prise de risque. Ceux qui respectent déjà les conditions ne changeront rien, les autres se verront inciter à diminuer leur prise de risque sur le reste de leur portefeuille.

Plus précisément, les auteurs comptent obliger les gros contrats à posséder un minimum d'unités de compte ou alors à posséder un nouveau type de fonds qui ne garantirait plus le capital qu'à l'échéance et donc qui ressemble furieusement à un fonds à horizon de placement. On ne peut que subodorer que les contrats de plus de 500k€ sont déjà les plus investis en unités de compte. Quant aux fonds à horizon, une enquête approfondie sur un échantillon représentatif de 1 montre que le rendement a été de 3.6%/an depuis le lancement en 2003, sans doute moins qu'un fonds en euro classique. C'est normal: le fait qu'il y ait un risque signifie que le rendement n'est pas forcément au rendez-vous même après 10 ans. Les auteurs ont une version renforcée de leur proposition où une partie des fonds investis devraient l'être ailleurs que dans les grandes entreprises.

On ne peut que remarquer que cette proposition recoupe les besoins des sociétés d'assurance. La gestion en unités de comptes est moins gourmande en capital — il n'y a aucune garantie — et plus rémunératrice par rapport aux fonds investis. Plus généralement, les assureur cherchent à amoindrir la garantie des fonds en euros qui est de plus en plus gourmande en capitaux à cause de la réglementation. Par ailleurs, ces mesures sont ouvertement destinées aux fameux 1% les plus riches dont le contrat moyen serait de 600k€ et qui concentreraient un quart des sommes investies sur l'assurance vie. Les auteurs pensent que ces mesures conduiront diriger 100G€ supplémentaires vers plus de risque en 5 ans. Le seul petit problème est que ça représente un tiers de l'encours actuel visé (qui est donc de 350G€) et que les contrats en euros sont à l'heure actuelle investis à hauteur d'un tiers seulement dans des obligations d'état (p66 du rapport de la Cour des Comptes sur l'assurance vie). Il faudrait donc un fort afflux sur l'assurance-vie pour que l'objectif soit atteint. Ne doutons pas toutefois des possibilités offertes par une comptabilité créative.

L'autre léger problème est qu'une même personne peut légitimement souscrire plusieurs contrats d'assurance-vie — avec par exemple pour bénéficiaires l'époux et chacun des enfants — ce qui ruine quelque peu l'idée de seuil et d'allongement des durées de détention. On va donc assister à la multiplication des contrats de 250k€ (histoire d'être sûr de ne pas dépasser le seuil fatidique).

Bref, une fois de plus, on constate le tropisme dirigiste des politiques français et leur propension à inventer des cas spéciaux. On se rappelle que les économistes préconisent encore et toujours de réduire ces niches fiscales et qu'il y a même eu un rapport d'Olivier Garnier & David Thesmar qui proposait un moyen pratique d'y parvenir tout en préservant les petits patrimoines. Au lieu de cela, les auteurs ont bâti des recommandations qui ressemblent beaucoup aux revendications des sociétés d'assurances tout en assouvissant leurs besoins propres. Les intérêts des souscripteurs semblent étrangement absents de ce rapport, comme si c'était un sujet de peu d'importance. Il faut bien dire aussi qu'il aurait été difficile de préconiser une baisse des impôts sur les placements à risque comme les actions après en avoir dit pis que pendre. Et c'est d'autant plus difficile que l'état est inlassablement à la recherche de fonds supplémentaires. Malheureusement, il me semble que ces mesures ne seront pas à la hauteur des objectifs fixés et qu'elles sont porteuses d'effets pervers manifestes.

23 avril 2013

L'obsolescence programmée et la saucisse médiatique

Pour ceux qui l'auraient manquée, il y a en ce moment une offensive médiatique des tenants de l'obsolescence programmée. Une association de consommateurs a publié une brochure prétendant dénoncer cette nouvelle plaie d'Égypte. L'information est relayée sur le blog d'une journaliste consommation du Monde où on apprend que la brochure est largement basé sur un mémoire réalisé dans le cadre d'un Master. L'auteur de ce mémoire était invitée ce matin sur Europe1. Par le plus grand des hasards, c'est aujourd'hui que l'inénarrable Jean-Vincent Placé, auteur d'une proposition de loi sur ce sujet, a posé une question orale accompagnée d'un débat.

Qu'importe apparemment qu'il ait déjà été brillamment démontré que l'obsolescence programmée était un mythe complet, basé au fond sur une théorie du complot, sa propagation est apparemment inarrêtable, les médias en considérant les tenants comme suffisamment crédible pour mériter une large audience. On peut tout de même remarquer une nouveauté: les tenants du concept ne prennent même pas le temps de nous démontrer que les exemples qu'ils prennent relèvent de ce qu'ils dénoncent. Aucune trace d'un tel lien dans la brochure, aucun des exemples ne fait l'objet d'une démonstration pour essayer de démontrer qu'il s'agit d'un acte de conception qui ne fait que réduire la durée de vie du produit. On répertorie juste des pièces d'usure ou pouvant casser et on nous assène quelles ont été placées là de façon à réduire la durée de vie du produit. Même chose dans le mémoire: l'argumentation du billet d'Alexandre Delaigue est rappelée … mais l'auteur s'arrête là. Elle ne tente même pas de réfuter la thèse adverse.

C'est encore plus éclatant lors de l'interview à la radio: elle affirme notamment qu'il est pratiquement impossible de prouver qu'un produit a été conçu pour ne plus fonctionner avant la fin de sa durée de vie «normale». Autrement dit, pour elle, il est impossible de prouver une quelconque application de concept en réalité. C'est fort pratique et c'est une tactique qui relève clairement de la théorie du complot: on ne peut rien prouver puisque c'est un complot très bien organisé. Bien sûr aucun mot sur les nombreuses personnes qu'il faut embaucher pour développer un produit qui se taisent toutes ou n'arrivent jamais à publier une spécification interne où une telle intention est mentionnée. Plus loin, elle prend l'exemple des batteries d'un célèbre smartphone et elle affirme qu'au bout de 400 cycles de charge, elles ne fonctionnent plus. Or le site du fabricant mentionne tout autre chose: au bout de 400 cycles, la capacité de la batterie est réduite de 20%. Elle affirme aussi que le besoin de recharger plus souvent un smartphone qu'un un simple combiné portable, combiné à la limite du nombre de cycles de charge est un exemple de l'obsolescence programmée. Aucun mot sur le fait que la taille de l'écran a augmenté, que la puissance de calcul des smartphones est bien supérieure à celle des simples téléphones. Il est d'ailleurs remarquable que les simples téléphones coûtent nettement moins cher que le célèbre smartphone dénoncé … mais semblent moins populaires. À part cela, on entend Bruce Toussaint introduire l'interview avec tous les poncifs du genre: les appareils modernes qui ne tiendraient que 4 ans alors que ceux de nos ancêtres duraient 10 ans, etc. Aucune mention, bien sûr, de l'augmentation continue de l'âge moyen de certains produits, comme les automobiles. On voit donc la fabrique des nouvelles à l'œuvre: une association fait du lobbying, qui a miraculeusement lieu concomitamment à une offensive politique, elle est reprise par divers média. Si le locuteur est considéré comme crédible ou sympathique, il ne risque guère la contradiction. On imagine bien par contre qu'un quelconque industriel venant se défendre se verrait assaillir de questions et sommé de se justifier. Bref, on nous raconte une histoire avec des bons et des méchants.

Tout ceci ne serait pas très grave si, en agissant de la sorte, les médias ne favorisaient pas de fait une tendance politique qui va dans le sens exactement contraire au but officiellement poursuivi, la satisfaction des consommateurs. En effet, les consommateurs cherchent des produits qui ont un bon rapport qualité/prix et non un produit indestructible. D'ailleurs, les tenants de l'obsolescence programmée ne cessent de prôner un certain nombre de remèdes à implémenter. Il faut que les produits durent longtemps, soient longtemps disponibles dans le commerce, qu'il y ait peu de nouveautés pour éviter l'«obsolescence esthétique» et que les produits soient facilement réparables — par exemple, en remplaçant un simple condensateur pour rallumer sa TV. Le revers accepté est que peu d'innovations technologiques sont introduites. Force est de constater que de tels produits ont déjà existé; l'archétype en est sans doute la Trabant.

16 avril 2013

L'électricité, l'avenir du chauffage (2e épisode)

Après avoir regardé la situation présente du chauffage électrique en France, qui n'a rien d'une horreur écologique, au contraire, je vais me tourner vers la question de l'avenir. En effet, si la situation présente est bonne, c'est largement dû aux politiques menées par le passé, parfois très lointain comme quand il s'est agi de construire des barrages. La question de savoir si ajouter encore du chauffage électrique est la chose à faire, notamment en ce qui concerne les émissions de CO₂.

Quid du futur?

Si pour l'eau chaude sanitaire, il reste sans doute de la place la nuit pour que le bilan carbone soit largement positif, pour le chauffage électrique la situation est différente puisque tout le potentiel nucléaire et hydraulique installés sont utilisés en hiver. On a pu aussi constater que la construction de centrales nucléaires n'est plus tout à fait une spécialité locale. Pour arriver à faire un bilan des émissions probables en cas de hausse de consommation via le chauffage électrique, il faut faire quelques hypothèses sur les moyens de production qui vont servir pour la couvrir.

Une autre étude de l'ADEME s'est essayée à cet exercice, pour conclure à un contenu marginal en CO₂ de 500 à 600g/kWh. Cependant, cette étude faisait l'hypothèse que l'électricité circule sans contrainte sur tout le réseau européen, hypothèse qui est grossièrement fausse. Si c'était vraiment le cas, EDF aurait tout intérêt à augmenter la disponibilité de son parc nucléaire de façon importante en été. EDF n'aurait aussi aucune raison d'arrêter ses centrales nucléaires pendant les vacances de Noël lorsque le vent souffle. C'est pourtant ce qu'on a constaté pas plus tard que pour les congés de fin 2012. Comme la construction de lignes THT prend énormément de temps et fait partie des projets d'infrastructures les plus impopulaires, il est en fait plus réaliste de faire l'hypothèse que toute consommation supplémentaire sera couverte par de nouveaux moyens construits en France.

Il semble que la situation sur d'éventuels moyens de production supplémentaires soit la suivante:

  • L'éolien et le photovoltaïque sont subventionnés et la puissance installée augmente de ce fait. Pour d'évidentes raisons, le photovoltaïque ne sert à rien pour le chauffage.
  • Pas de centrale nucléaire nouvelle à l'horizon. Le charbon et le fioul semblent, en France, se diriger vers la sortie suite à des directives européennes.
  • Le gaz est le moyen de production fossile de choix, appelé pour couvrir ce qu'on ne veut pas ou ne peut pas couvrir avec le reste.

Pour les besoins de cette estimation, je fais l'hypothèse que le surcroît de production serait couvert par entre un tiers et un quart d'éolien et le reste de gaz. L'éolien ne peut pas tout couvrir du fait de son intermittence. Cela conduit à des émissions pour tout kWh de chauffage supplémentaire comprises entre 240g et 270g: le gaz est compté comme émettant 360g/kWh. Pour être équivalent à un chauffage au gaz en termes d'émissions de CO₂, il faudrait alors que la consommation finale d'électricité pour le chauffage soit limitée entre 75 et 80% de celle d'un logement au gaz. Comme en France, il existe un rapport moyen de 2.58 entre l'énergie primaire et finale pour l'électricité, cela correspond à une limite en énergie primaire quasiment 2 fois plus élevée pour l'électricité.

C'était en gros la logique qui prévalait avant le changement de réglementation thermique de 2012. Par exemple, la réglementation de 2005 prévoyait les limites suivantes: rt2005.jpg Il s'avère que la RT2005 s'est révélée très favorable au chauffage électrique puisqu'entre 2006 et 2008 plus de 70% des logements construits étaient dotés d'un chauffage électrique (cf Bilan prévisionnel 2012 de RTE, p9). La situation s'est depuis inversée avec la RT2012 qui prévoit une limite uniforme en énergie primaire quelque soit le type d'énergie mais variable selon les zones géographiques. RT2012.jpg

L'expérience de la période 2006-2008 semble donc montrer qu'il est possible que l'électricité soit économiquement compétitive même si on veut qu'elle n'émette pas plus de CO₂ au m² que le gaz. Le coût modique des radiateurs permet de dépenser plus en isolation. Le problème principal est en fait d'éviter le charbon dans la production d'électricité, or il n'est plus question de construire de nouvelles centrales au charbon en France, mais bien de fermer les plus vieilles, construites dans les années 60 et 70.

Le miracle de la pompe à chaleur

Comme mentionné plus haut, la RT2012 a mis fin à la domination du chauffage électrique dans le neuf, pour le moment du moins. Avec le ratio primaire/final de 2.58 pour l'électricité, il suffirait à une centrale au gaz d'avoir un rendement d'environ 45% pour que le chauffage électrique par effet joule soit plus efficace en termes d'émissions de CO₂ qu'un chauffage utilisant une chaudière murale. Or, il s'avère que les centrales au gaz peuvent atteindre des rendements de 60%, le coefficient d'émissions de RTE suppose d'ailleurs un rendement de l'ordre de 55%. Le problème c'est qu'au bout d'un moment, il devient plus rentable d'installer une chaudière murale et le circuit d'eau chaude qui va avec que d'isoler encore plus, à supposer que ce soit encore possible.

Une autre question qui peut se poser est peut-on émettre moins de CO₂ en se chauffant uniquement à l'électricité, à isolation comparable à un chauffage au gaz, mais en brûlant uniquement du gaz pour produire d'électricité? Encore une fois, la réponse est oui, en utilisant une pompe à chaleur. On s'aperçoit bien qu'avec les conditions données dans la question, il est impossible d'y arriver en dissipant l'énergie électrique dans un radiateur par effet joule: le second principe de la thermodynamique et les réalités de construction imposent au rendement d'une centrale au gaz d'être bien inférieur à 100%. Mais ce même principe n'empêche pas la réalisation d'une machine thermique qui permettrait de prendre de la chaleur dans un milieu «froid» pour la mettre dans un milieu «chaud».

C'est l'idée de base de la pompe à chaleur, dont tout le monde ou presque possède un exemplaire sous la forme d'un réfrigérateur. Le principe est en général le suivant:

  1. on fait s'évaporer un liquide, le fluide calorifique, dans un milieu «froid», ce qui a pour effet de transférer de la chaleur de ce milieu froid vers le liquide puisqu'il faut fournir de l'énergie pour vaporiser un liquide.
  2. on compresse le gaz obtenu, ce qui le chauffe aussi. C'est le moment où on a besoin d'énergie mécanique, apportée en général par l'électricité. Ce compresseur permet aussi de faire circuler le fluide calorifique dans le système, sans quoi il ne se passerait rapidement plus rien.
  3. au contact du milieu «chaud», le gaz se condense. C'est possible car même si la température du milieu chaud qui entoure le gaz (le tuyau qui le contient en fait) est plus élevée que celle du milieu froid, la pression est maintenant plus élevée. Cette fois-ci, le gaz transfère de l'énergie au milieu environnant.
  4. le liquide va ensuite dans un détendeur, ce qui a pour effet de refroidir le liquide en même temps que sa pression chute. Le cycle peut recommencer.

La pompe à chaleur doit disposer de fluides calorifiques pour fonctionner de façon pratique, avec des changements d'états judicieusement placés en température et en pression. L'avantage principal de la pompe est qu'on peut extraire de l'énergie d'un milieu déjà froid — ce qui permet la réfrigération — pour la mettre dans un milieu déjà chaud — ce qui permet un effet de levier pour le chauffage. Cet effet de levier est appelé le coefficient de performance ou COP pour reprendre l'acronyme anglais.

Une chaudière murale à condensation a un rendement d'environ 110% PCI — GDF n'oublie pas ce fait et facture en conséquence des kWh PCS qui incluent en sus la chaleur de condensation de l'eau créée par la combustion du gaz! —, ce qui veut dire qu'un système centrale gaz plus pompe à chaleur devient plus performant en termes d'émissions de CO₂ qu'une chaudière si le COP est supérieur à 2 en moyenne sur l'année.

L'office fédéral de l'énergie suisse a publié une note de questions-réponses en collaboration avec le lobby des pompes à chaleur local. En Suisse, les pompes à chaleur sont devenues populaires ces dernières années, si on en croit les statistiques sur le sujet: la part de marché atteint presque 10%. Il ressort notamment du document de l'OFEN le tableau suivant (p7): copa_suisse.jpg On voit que le COP de 2 est dépassé de façon large pour les nouvelles constructions dans tous les cas et de façon un peu moins nette pour les rénovations. On note aussi que des COP de 4 sont dans l'ordre des choses avec des pompes à chaleur basés sur un système géothermique, où on récupère la chaleur du sol via une circulation d'eau. Le système centrale à gaz et pompe à chaleur est alors 2 fois meilleur en termes d'émissions de CO₂ — et donc de consommation de gaz — que la chaudière murale.

Des esprits chagrins me rappelleraient sans nul doute qu'on peut aussi faire tourner une pompe à chaleur avec du gaz. Mais on s'aperçoit vite que plus on produit d'énergie dite mécanique, plus le système est efficace car c'est là que la pompe à chaleur fournit le plus d'énergie. Or, les moteurs classiques on un rendement de l'ordre de 30%, la moitié du rendement d'une bonne centrale au gaz. Lorsque le COP atteint 4, une production d'électricité seule suffit alors à garder l'avantage — sachant qu'on peut aussi faire de la cogénération.

Évidemment, le gaz n'est pas le seul moyen de produire de l'électricité. Si on y ajoute de l'éolien — à la mode en ce moment —, du nucléaire — nettement moins à la mode — et de l'hydraulique, mais qu'on exclut le charbon, le tableau devient totalement en faveur de l'électricité. Les petits calculs ci-dessus s'appliquent d'ailleurs très bien au biogaz qui est avant tout … du méthane, comme le gaz naturel. Bref, les pompes à chaleur sont sans conteste le meilleur moyen de limiter les émissions de CO₂. Ce n'est pas pour rien que dans un scénario allemand 100% renouvelable, pour compléter des éoliennes au facteur de charge surgonflé, le chauffage des habitations ne s'effectue uniquement à l'aide de pompes à chaleur et que rien ne provient de chaudières murales (p23).

Le problème de genre de système réside dans les coûts d'investissement et de fonctionnement. Contrairement à une chaudière murale reliée au réseau de gaz, les coûts d'investissements dans une pompe à chaleur et le réseau électrique sont nettement plus élevés. Et il faut en plus payer les salariés qui s'occupent de faire fonctionner la centrale. Pour répondre à une demande très saisonnière, une installation qui ne demande que peu d'entretien et fonctionne «toute seule» présente des avantages économiques certains.

Conclusion

Il semble donc bien que, contrairement à ce qu'assènent souvent les écologistes, le chauffage à l'électricité soit celui qui préserve le plus notre environnement. En France, la politique passée a fait qu'il existe un parc nucléaire important, doublé d'un parc hydro-électrique. Cela a rendu le chauffage électrique à simples radiateurs efficace sur le plan des émissions de CO₂ grâce à une combinaison avec une isolation renforcée. Les dernières réglementations thermiques interdisent de fait cet arbitrage en plaçant la barre trop haut: il devient financièrement plus intéressant d'utiliser une chaudière à gaz. Cela montre l'inanité d'une réglementation qui se base uniquement sur l'énergie primaire: en voulant minimiser les consommation d'énergie primaire, on n'atteint pas forcément le minimum d'émissions de CO₂. C'est logique: si on veut minimiser les émissions de CO₂, il faut libeller les normes en termes d'émissions de gaz à effet de serre.

C'est d'autant plus dommage que les pompes à chaleur — qui fonctionnent principalement à l'électricité — sont de fait le mode de chauffage qui est le plus prometteur. Cependant, il est à craindre que des réglementations se basant uniquement sur les consommations d'énergie primaire ne permettent pas leur développement. Des calculs d'ordre de grandeur se basant sur les technologies actuelles montrent pourtant qu'en combinant les pompes à chaleur avec les modes de génération de l'électricité qu'on peut raisonnablement envisager de construire en France, le nucléaire, le gaz et l'éolien, on obtient ce qui est sans doute une façon de se chauffer qu'on peut à la fois déployer à grande échelle et compter parmi les plus bénignes pour le climat. On ne peut que se demander pourquoi la réglementation n'encourage pas plus ce qui est d'ores et déjà la 4e source d'énergie renouvelable en France.

15 avril 2013

L'électricité, l'avenir du chauffage (1er épisode)

Chacun a sans doute déjà entendu dire que le chauffage électrique était un scandale et qu'il a été un succès en France grâce à une alliance inattendue entre technocrates partisans du nucléaire et pubards de génie. Une réponse à leurs arguments a déjà été formulée, mais elle est basée sur de vieilles données.

Les opposants au chauffage électrique avancent principalement 3 arguments contre le chauffage électrique: qu'il est inefficace sur le plan énergétique, qu'il émet plus de CO₂ que les autres formes de chauffage et enfin qu'il met en danger la sécurité d'approvisionnement en électricité en créant des pics de consommation très importants. Si ce dernier argument est vrai, le deuxième est faux et le premier n'a en fait pas vraiment d'importance.

Le faux-semblant du gaspillage dû à l'électricité

Pour arriver à dire que le chauffage électrique gaspille de l'énergie, les opposants prennent en compte le processus de fabrication de l'électricité. En effet, avant de nous vendre des produits énergétiques finis qui servent aux particuliers, les industriels partent de matières brutes et perdent une partie du contenu énergétique utilisable dans cette transformation. La plupart des centrales électriques sont des machines thermiques, ce qui fait que leur rendement est sévèrement limité par le second principe de la thermodynamique. Ce rendement change aussi suivant les technologies utilisées et l'âge de la centrale. C'est ainsi que les centrales nucléaires françaises ont un rendement d'un tiers, alors que les centrales à gaz dernier cri peuvent atteindre les 60%.

Pour compter l'énergie techniquement récupérable au départ dans la matière première, on parle d'énergie primaire; pour compter l'énergie effectivement livrée aux clients finals, on parle d'énergie finale. L'énergie finale ne dit pas forcément quelle est la forme la plus utile d'énergie, elle signale juste qu'on est arrivé en bout de chaîne commerciale et que quelqu'un a donc payé pour cette énergie. L'énergie primaire, elle, ne convoie pas du tout le même concept, elle sert surtout à savoir qu'elles sont les matières premières utilisées. Les contempteurs du chauffage électrique comptent bien sûr en énergie primaire quand ils affirment qu'il est inefficace.

Or, la comptabilité en énergie primaire ne dit rien de la difficulté à mettre cette énergie à notre service, ni des autres inconvénients qui s'y rattachent, qui sont les vraies questions qui se posent à une société humaine. En effet, l'énergie est abondante dans l'univers et sur terre — on entend d'ailleurs souvent les contempteurs du chauffage électrique déclarer qu'il faudrait couvrir de panneaux solaires une petite partie de la surface terrestre pour assouvir l'ensemble des besoins de l'humanité —, le problème est de pouvoir en disposer quand et où nous en avons besoin. Cette difficulté à en disposer est généralement traduite dans le prix de vente de l'énergie finale, qui regroupe les salaires et les rentes qu'il a fallu verser pour se la procurer. Parfois, quand il existe une taxe sur la pollution, le prix rend compte de certains inconvénients. Dans le cas de l'électricité, on peut constater que son prix est environ 2 fois plus élevé que celui du gaz, par exemple. Et que c'était pire dans le passé. prix_energies.jpg

Si le chauffage électrique a rencontré un certain succès ces 30 dernières années, c'est donc qu'il permettait de consommer … moins. Le prix supérieur de l'électricité est partiellement compensé par une consommation facturée moindre, état de fait acté par les différentes normes de constructions de bâtiments qui se sont succédées depuis le choc pétrolier et qui obligent les logements chauffés à l'électricité nouvellement construits à consommer moins d'énergie finale que leurs homologues utilisant des combustibles fossiles. De plus, le chauffage par simples radiateurs coûtait peu en investissements de départ, compensé par une isolation renforcée.

Et le CO₂?

Un autre reproche des contempteurs du chauffage électrique est qu'il rejette plus de CO₂ que les autres formes de chauffage. La logique est la suivante: certes, le nucléaire est une production décarbonée, mais il produit tout le temps, ce n'est donc pas lui qui fournit l'électricité du chauffage, nécessaire uniquement en hiver, mais les centrales à combustible fossile. Comme le rendement n'est pas de 100%, le chauffage électrique ne peut qu'émettre plus de CO₂ qu'un chauffage au gaz, par exemple. En prime, alors que le charbon n'est plus utilisé pour chauffer des habitations, des centrales au charbon sont toujours en service en France. Or, les centrales au charbon émettent quasiment 1kg par kWh d'électricité produite contre environ 200g par kWh de gaz facturé.

Cependant, comme le montrent les graphes suivants extraits du bilan de RTE de décembre 2012, les centrales à combustibles fossiles ne sont pas les seules à voir leur production augmenter en hiver. prod_mensuelles_par_secteur.jpg Comme on peut le constater les centrales à combustible fossile produisent très peu lors de la belle saison, leur production augmente d'environ 4 à 5TWh lors des mois d'hiver normaux par rapport à cet étiage bas et les mois d'une rigueur exceptionnelle, comme le mois de février 2012, voient une production augmentée de 7TWh. Mais dans le même temps, la production nucléaire augmente de 10TWh entre l'hiver et l'été et la production hydraulique voit aussi sa production augmenter d'environ 1 à 2 TWh. On constate donc que l'augmentation de la production des moyens décarbonés est donc 2 fois supérieure à celles des centrales à combustible fossile. Comme il peut rester un doute à cause de la forte variabilité des émissions de CO₂ suivant les moyens appelés, il est intéressant de faire un calcul plus détaillé.

Il se trouve qu'en 2005, une étude de l'ADEME a estimé le contenu carbone de chaque kWh électrique suivant l'usage qui en était fait. Elle donne la valeur moyenne de 180g/kWh pour le chauffage électrique. Les émissions de CO₂ associées au kWh moyen étant stables depuis une dizaine d'année autour de 60g/kWh, l'expansion du chauffage électrique ne paraît pas non plus avoir d'effet néfaste et son contenu carbone est sans doute lui aussi resté stable depuis 2005. Les documents qui servent à calculer le bilan carbone estiment les émissions du gaz à environ 200g/kWh et celles du fioul à 300g/kWh. On voit donc qu'en France, utiliser un kWh d'électricité ou de gaz provoquent l'émission d'à peu près la même quantité de CO₂. Mais comme on l'a rappelé plus tôt, les logements chauffés à l'électricité sont plus économes.

On peut même quantifier cela. Pour commencer, l'électricité chauffe un gros tiers des logements actuellement contre un peu moins de la moitié pour le gaz et 15% pour le fioul, ses principaux concurrents. En passant, le graphique suivant (tiré de ce document, p28) montre, en sus de l'essor du chauffage central, que les 40 dernières années n'ont pas seulement été un âge d'or pour le chauffage électrique mais aussi pour le chauffage au gaz. Ce dernier partage certaines caractéristiques communes avec le chauffage électrique: pas de mauvaises odeurs et pollution fortement diminuée, distribution sans effort par un réseau d'adduction. repartition_mode_chauffage.jpg Par ailleurs, un tableau pioché dans cet autre document de l'ADEME (p45) permet de connaître la répartition de l'énergie consommée pour se chauffer, en dehors du bois. On voit que le chauffage électrique consomme seulement 18% de l'énergie consacrée au chauffage alors qu'il représente 35% des logements. chauffage_energie.jpg Du côté des émissions de CO₂, la performance du fioul est très médiocre, alors que la performance des réseaux de chauffage urbain est à remarquer. Il faut dire qu'ils sont souvent alimentés par l'incinération des ordures, du bois ou encore la géothermie. On voit aussi que le chauffage électrique n'est certainement pas une horreur de ce point de vue. emission_CO2_chauffage.jpg

Mais ce n'est pas tout. Le chauffage des locaux n'est pas le seul usage où on a besoin de produire de la chaleur. À part la cuisine qui représente une faible partie de la consommation énergétique des ménages, il y a la production d'eau chaude. Elle aussi a beaucoup augmenté depuis les années 70s; il paraît aujourd'hui incongru de ne pas pouvoir prendre une douche tous les jours chez soi. Dans ce domaine, l'électricité a acquis une position encore plus forte que pour le chauffage, comme on peut le voir ci-dessous (source Bilan Carbone, Tome Énergie §2.6.2.4, p53): ECS_PdM.jpg Une nouvelle fois, en termes de consommation d'énergie finale, il semble que le chauffage à l’électricité soit plus économe. ECS_EFinale.jpg Et la note de l'ADEME attribue une émission de CO₂ de 40g/kWh à la production d'eau chaude sanitaire par l'électricité: il faut dire que cette consommation a lieu le plus souvent en heures creuses tout au long de l'année, là où le nucléaire est archi-dominant dans la production d'électricité française. En conséquence, les émissions de CO₂ sont très basses. On peut aussi noter l'excellente performance des réseaux de chaleur. ECS_CO2.jpg

Enfin, on peut voir la répartition des émissions de CO₂ pour ces usages thermiques. On constate que l'électricité et les réseaux de chaleur ne compte que pour 15%, les combustibles fossiles utilisés directement pour 85%. C'est dû à la fois au prix de l'électricité qui force à l'économiser plus que le gaz, au rendement de 100% du chauffage électrique — une fois passé le compteur, il n'y a pas de pertes pour un usage en chaleur — alors que le chauffage au gaz est toujours handicapé par la présence de chaudières peu efficaces (veilleuses…) dans une bonne partie du parc de logements. Emissions_thermiques_logements.jpg

Conclusion

On peut constater que le chauffage électrique n'a rien eu d'hérétique jusqu'ici en France. L'argumentation se basant sur un prétendu gaspillage dû au passage par l'électricité passent allègrement sur le fait qu'une chute d'eau ou une bise bien fraîche n'ont jamais réchauffé personne et que tout le monde n'a pas la chance d'avoir un réacteur nucléaire à la maison.

Les performances en termes d'émissions de gaz à effet de serre sont tout à fait honorables par rapport à ce qui se faisait à la même époque dans les logements chauffés autrement. Bien sûr, à la suite du durcissement des normes de construction, les logements chauffés au gaz nouvellement construits sont meilleurs de ce point de vue que les logements chauffés à l'électricité construits dans les années 70. Dans le deuxième épisode, je regarderai quelles sont les perspectives.

11 avril 2013

SAV Bonux Malux

J'avais donné mon avis — franchement négatif — sur la proposition d'instaurer une tarification dite progressive de l'énergie en septembre dernier. Les raisons de mon avis négatif pouvaient être résumées ainsi:

  1. une très grande complexité rendant le système ingérable et ne résolvant certainement pas tous les cas d'injustice qu'on pouvait imaginer
  2. une intrusion inutile et inefficace dans la vie privée des gens
  3. la création d'une inégalité de traitement entre les énergies distribuées par un réseau et les autres sans qu'elle soit justifiée
  4. le manque de légitimité à lutter contre la consommation d'énergie comme telle sans considérer les inconvénients réels de chaque type d'énergie

Après diverses avanies, le texte de loi a été adopté. Les parties sur le bonus-malus avaient été réécrites mais sans modifier l'idée générale ni régler tous les problèmes que je signalai à l'époque. Les parlementaires de droite avait alors décidé de déférer la loi au Conseil Constitutionnel. Aujourd'hui, il a rendu sa décision accompagnée des habituels commentaires. Le Conseil a censuré les articles qui créaient le système du bonus-malus dans le secteur de l'énergie.

La raison apparente est que le bonus-malus ne respectait l'obligation qui est faite à la loi de traiter les situations similaires de la même façon. En l'occurrence, le Conseil soulève deux problèmes. Le premier est que dans les immeubles chauffés par un réseau de chaleur, tous les logements n'ont pas de compteur, les dépenses sont réglées en commun dans les charges locatives. Comme le législateur entendait taxer chacun pour des consommations jugées excessives, on voyait tout de suite qu'il y avait un problème puisque sans compteur, il y aurait eu un risque de punition collective.

Pour en venir à la deuxième raison, il est intéressant de lire les commentaires qui accompagnent la décision. En effet, à l'origine, il s'agissait (p11) de favoriser les économies d'énergie, de lutter contre la pollution et notamment l'effet de serre et faire porter la hausse prévisible des prix de l'énergie par ceux qui consomment le plus. Malheureusement, dans ce cas, le cas du bonus-malus était réglé pour le Conseil: l'exemption des énergies hors réseau allait directement à l'encontre des objectifs proclamés, malgré les protestations de bonne foi du rédacteur de la loi. On peut simplement remarquer qu'exonérer le fioul, combustible qui émet plus de CO₂ que toutes les énergies livrées par un réseau — réseau de chaleur, électricité, gaz — relevait effectivement de la pure fumisterie.

La possibilité de ce possible malheur se faisant de plus en plus précise à mesure que le temps avançait, le gouvernement les parlementaires socialistes ont réécrit les dispositions du bonus-malus et ont à cette occasion changé les motifs de l'instauration du bonus-malus. La raison officielle devint donc les coûts élevés d’investissement nécessaires au développement de la distribution de ces énergies et, pour l’électricité, du coût supplémentaire des nouvelles capacités de production. D'emblée, on peut remarquer que ça a moins de gueule et qu'on sent moins l'urgence pressante d'instaurer une telle usine à gaz. Des esprits forts soutiendraient sans doute qu'il s'agissait là d'un pieux mensonge, chose à laquelle, bien sûr, un gouvernement ou groupe parlementaire portés sur la moralisation de la vie publique ne s'abaisseront jamais. Mais même ainsi le bonus-malus ne trouve pas grâce aux yeux du Conseil. Cette fois-ci, le Conseil remarque que le réseau bénéficie à d'autres que les particuliers, comme par exemple les commerces — qui tiennent d'ailleurs boutique dans des bâtiments souvent destinés à l'habitation dans les étages supérieurs (p12).

Une nouvelle fois, on ne peut qu'être frappé par l'amateurisme de l'actuelle majorité et du gouvernement sur les sujets énergétiques. On avait remarqué à l'époque où le bonus-malus avait été proposé au vote la première fois qu'une grande part des objectifs de départ pouvaient être atteints plus simplement et plus sûrement par l'imposition d'une taxe d'accise comme la TIPP TICPE, éventuellement accompagnée par la distribution de chèques d'une valeur équivalente à la somme nouvellement levée. Une solution proposée sous le nom de «chèque vert» par des gaspilleurs bien connus comme la fondation Nicolas Hulot. Il est vrai que cette solution avait été évoquée — et par là souillée — par le gouvernement précédent qui a le grand tort de ne pas être de la même couleur politique que l'actuel. On a alors eu droit au montage d'une invraisemblable usine à gaz, dont on voyait dès le départ qu'elle n'atteindrait aucun de ses objectifs officiels, puis un gros mensonge — le changement des motifs — pour tenter de sauver cet ouvrage majeur, mais surtout pas évidemment une quelconque prise en compte réelle des critiques. Finalement, le gouvernement et le parlementaire qui a porté ce projet ne récoltent là que ce qu'il méritent: à force d'ignorer les conseil que la raison donne, ils ont préféré s'obstiner dans une voie sans issue.

7 avril 2013

Léger accès de cynisme

Il faut revenir de Mars pour avoir manqué ce qui semble l'évènement du mois en politique nationale: que Jérôme Cahuzac a avoué posséder 600k€ sur un compte non déclaré au fisc, récemment encore ouvert chez une banque singapourienne. Depuis se succèdent, de tous bords, déclarations scandalisées et émues et appels à plus d'éthique qui, je dois le dire, me laissent de marbre.

Commençons par l'aveu de Jérôme Cahuzac. Il a donc avoué avoir caché au fisc 600k€ à la date d'aujourd'hui, le compte bancaire ayant changé de domiciliation au cours du temps. Si cette somme représente plus de 4 fois le patrimoine médian d'un français, d'autres dissimulations plus importantes encore n'ont pas fait l'objet de scandale. Qu'on en juge: lors de la campagne électorale de 2007, la candidate d'alors du PS, Ségolène Royal a dévoilé une évaluation de son patrimoine, tel que déclaré au fisc. J'en avais déjà parlé lorsque j'avais évoqué la réforme de l'ISF, mais il est intéressant d'y revenir. Dans le Canard Enchaîné du 7 mars 2007, cette déclaration était taillée en pièces pour cause de sous-estimation systématique. L'essentiel du patrimoine consistait en des biens immobiliers. Il s'avérait, notamment, qu'une villa à Mougins était déclarée comme valant 270k€, moins que la valeur du terrain (295k€ selon le Canard), et ne représentant qu'à grand' peine le tiers de la valeur totale du bien, l'estimation minimale donnée dans l'hebdomadaire étant de 850k€ … et il laisse aussi lourdement entendre qu'elle vaudrait 1M€. Il était aussi question de l'appartement de Boulogne-Billancourt, évalué à 750k€, moins que sa valeur d'achat, et alors que les prix de 2005 le donnaient à environ 1.2M€. On comprend donc que la déclaration de la candidate, même si le patrimoine à déclarer ne recouvrait pas l'ensemble de la valeur, était minorée d'au moins la même somme qu'on reproche aujourd'hui à Jérôme Cahuzac d'avoir dissimulée. On se souvient de la tempête qu'avait provoquée cet article … ou pas. On ne peut alors que remarquer la différence d'appréciation entre les 2 cas et simplement remarquer qu'il est alors fort dangereux d'appeler à ce que ceux qui dissimulent leur patrimoine au fisc soit frappés d'inéligibilité à vie.

On est en fait largement en face d'une énième illustration de ce que la détention d'un patrimoine financier est vue comme illégitime par une large part de la population française. Déjà en 1971, un scandale avait éclaboussé Jacques Chaban-Delmas qui n'avait pas payé d'impôt sur le revenu pendant plusieurs années, grâce au système de l'avoir fiscal. L'avoir fiscal représentait l'équivalent de ce qui était perçu comme impôt sur les société et mis au crédit de celui qui percevait les dividendes pour éviter une double imposition. La réaction de l'époque de Françoise Giroud montre combien ça ne la choque pas que les revenus financiers puissent être taxés du même fait plusieurs fois. Alors que, dans le même temps, l'immobilier, qui ne donne lieu à aucun flux financier quand on occupe soi-même le bien, est de ce fait libre d'impôt et c'est même un des arguments souvent avancés pour pousser les gens à acheter leur résidence principale. Il est donc bien vu d'avoir un bien notoirement sous-évalué, et dont la détention permet de faire des économies d'impôts. Il me semble donc que le scandale provoqué ait pris l'ampleur actuelle non seulement parce qu'il fait suite à un mensonge éhonté de la part du ministre du budget, mais aussi à cause de la mauvaise image du patrimoine financier en France. Pendant ce temps-là, un sénateur sur lequel pèse des soupçons d'association de malfaiteurs — en clair, d'avoir extorqué des fonds à la communauté via un système mafieux — est toujours membre du PS et ne fait pas la une des journaux, alors que Jérôme Cahuzac se serait exclu lui-même du PS par son comportement.

Tout ceci pour dire que cet épisode me fait penser à un ouvrage bien connu pour son cynisme mais jetant un éclairage intéressant sur le comportement de nos hommes politiques. Il y est dit, dans un chapitre majeur, qu'ils ne doivent rien dire à destination du public qui ne respire le Bien et toujours paraître vertueux — ce qui explique qu'aucun politique ne se réclame des enseignements de ce livre. C'est non seulement ainsi qu'a agi Jérôme Cahuzac jusqu'à ce qu'il ne puisse faire autrement, mais aussi, maintenant, l'ensemble de la classe politique. On peut aussi constater que la majeure partie de ces discours est dénuée de tout raisonnement. Personne ne se demande si, par hasard, le fait que des gens riches planquent leur argent dans des paradis fiscaux, dans des sociétés écrans ou encore minorent largement leur patrimoine n'est pas dû au fait que l'impôt sur la fortune est considéré comme illégitime, même par certains de ses défenseurs? Que les taux de taxation sur le capital découragent toute autre forme d'investissements que ce qui est exonéré, sans risque ou alors camouflé? Au lieu de cela, nous avons droit à des éditoriaux clamant que la finance offshore est l'ennemi patenté de la démocratie qui ne prennent même pas la peine d'apporter un seul élément montrant que les paradis fiscaux menacent la tenue d'élections libres, la liberté de parole, les droits individuels des citoyens, la séparation des pouvoirs, etc. Rien n'est dit sur le fait qu'en proposant un moyen de payer moins d'impôts, ils participent à limiter le pouvoir discrétionnaire de l'état, un élément essentiel de la démocratie. On peut certes arguer qu'ils permettent d'opérer en secret, mais ceci est aussi possible dans des pays qui ne sont pas considérés comme des paradis fiscaux, comme les États-Unis, par exemple.

Un autre point très important du Prince est que ce sont surtout les résultats qui comptent. Pour se maintenir, tous les moyens sont bons, conception qui, en démocratie, est devenue la fin justifie les moyens — ce qui est un progrès considérable, puisqu'on doit se justifier! Or, force est de constater que c'est le reproche principal qui est fait aux politiques: le manque de résultats, surtout, d'ailleurs, quand on les compare aux discours. On peut dire qu'en fait, pour Machiavel, les politiques d'aujourd'hui seraient de mauvais hommes d'état, puisqu'ils voient régulièrement leurs mensonges et leurs contradictions leur revenir dans la figure, ce qui doit être évité à tout prix si on comprend bien le livre!

Il faut bien dire que trouver une issue à cette situation n'est pas facile. En effet, pour arriver au pouvoir, un politique a intérêt à promettre tout ce qu'il faut pour arriver au pouvoir, même si ça doit le mettre dans une situation impossible ensuite. Il n'y a pas non plus de force de rappel contre ceux qui tiennent des propos qui ne peuvent mener qu'à la déconsidération générale des politiques s'ils l'emportent. Un bon exemple de cela est la mystification à laquelle s'est livrée Laurent Fabius lors de la campagne référendaire de 2005. Laurent Fabius a argué qu'il ne fallait adopter du traité présenté au référendum que la partie institutionnelle et que la présence du reste devait faire voter non. Comme il l'a emporté, c'est le traité de Lisbonne qui a été adopté mais tout le monde a bien vu ce qui avait été annoncé par les tenants du oui: que procéder ainsi revenait à adopter en fait le traité soumis à référendum, puisqu'en dehors des questions institutionnelles, il n'y avait pas grand chose de neuf. L'adoption du traité de Lisbonne est ainsi vue comme une filouterie démocratique alors qu'en fait il s'agissait de faire ce qu'avait proposé l'homme qui avait probablement fait basculer le scrutin.

Les politiques ne sont pas les seuls d'ailleurs à empoisonner le puits. Si la presse aide certainement à faire la lumière sur certains des mensonges des politiques, elle peut prêter le flanc voire organiser certaines mystifications. Un des exemples les plus parlants est celui du nuage de Tchernobyl. Après avoir publié les communiqués du SCPRI mentionnant le passage du fameux nuage au-dessus de la France, la presse a accusé le Pr Pellerin, dirigeant du SCPRI, d'avoir menti à ce sujet. La réalité a beau eu donner raison au Pr Pellerin sur ce qu'il a annoncé — à savoir que le nuage de Tchernobyl n'aurait aucune incidence sur la santé en France —, rien n'y fit. On peut aussi se poser des questions sur l'apparition de certaines assertions, qui se trouvent être des déformations d'informations publiées par ailleurs depuis longtemps, ainsi en est-il des 42000 morts du diésel dont on a déjà abondamment parlé.

En appeler à plus d'éthique me semble largement inutile. D'une part, comme le signale Machiavel, être en tous temps vertueux peut s'avérer nuisible pour un homme d'état; d'autre part, les nécessités de la gestion de l'état peuvent conduire à prendre des décisions qui sont contraire à une éthique individuelle. Chacun comprend bien par exemple, qu'il est bon pour chaque individu de partir tôt à la retraite, mais que pour la société dans l'ensemble, il vaudrait mieux qu'ils travaillent tous le plus longtemps possible pour qu'il soit possible de payer le plus de prestations sociales possibles. Jérôme Cahuzac fournit aussi un tel exemple: chacun a intérêt à payer le moins d'impôts possible; le ministre du budget cherche à récupérer le plus d'argent possible en dépensant le moins d'énergie possible.

Il me semble quand même qu'une partie de la mauvaise situation est due à un discours déconnecté des réalités, notamment financières, auxquelles l'état est confronté. Il y a des dépenses qui suivent une pente haussière structurellement plus rapide que le PIB. Les impôts sont déjà un niveau très élevé, ce qui impose donc de faire des économies. Le scandale provoqué par l'aveu de Jérôme Cahuzac ne vient en fait que couronner une dizaine de mois où l'impression qui se dégageait était une suite de renoncements et d'inversions de direction par rapport à ce qui avait été compris durant la campagne par les électeurs. On ne saurait donc trop conseiller aux candidats sérieux de travailler un peu. La matière est disponible, les fonctionnaires français sont souvent chargés de publier des rapports sur tous sujets, ils sont compétents et honnêtes. Cela permet de se faire une idée des options irréalistes, ce qui évite les propos aventureux qui se transforment en piège une fois au pouvoir ainsi que l'impression d'impréparation et d'incompétence qui se dégagent lorsque ce piège se referme. Cela peut aussi permettre de trouver des slogans pour lutter face aux démagogues: ceux-ci véhiculent parfois une image datée de la situation.

17 mars 2013

Des implications du plan de «sauvetage» chypriote

Ce samedi matin, le gouvernement chypriote a annoncé un plan visant à assainir son secteur bancaire et qu'il allait recevoir 10G€ d'aide — de prêt en fait — des pays de l'UE en état de le faire ainsi que du FMI. Ce plan était attendu depuis 9 mois, une fois que les conséquences de la faillite de l'état grec sur les banques chypriotes connues. Parmi les mesures imposées figure une taxation des dépôts de moins de 100k€ de 6.75%: si vous aviez 1000€ sur votre compte chypriote, il ne vous en restera plus que 932.5€ si le plan est voté par le parlement. Les dépôts supérieurs à 100k€ se voient, eux, amputés par un taux de taxation de 9.9%, digne d'une publicité de supermarché. Sans surprise, les chypriotes se sont donc rués sur les distributeurs automatiques de billets, puisque suite à une coïncidence inexplicable, la décision a été annoncée lors au début d'un long week-end, ce lundi marquant opportunément le début du carême orthodoxe, période de privations. Le plan prévoyait qu'en échange de la confiscation des actions des banques seraient distribuées, mais la perspective d'un bank run a amené le président chypriote à promettre une partie des éventuels revenus gaziers du pays pour ceux qui laisseraient leurs économies dans les banques.

L'échec de l'euro

À l'origine l'euro était prévu pour que les valeurs relatives des sommes placées dans la poche des détenteurs ou déposées sur un compte ne varient plus d'un pays à l'autre en fonction de la conjoncture ou des décisions politiques locales. Le moins qu'on puisse dire, c'est que c'est raté. De fait, même si cette décision ne transforme pas la zone euro en système monétaire à parités fixes et qu'elle n'est pas équivalente à une dévaluation puisque seules les dettes des banques envers leurs clients sont affectées, il s'agit d'une diminution arbitraire du patrimoine des déposants.

Cette décision fait suite aux diverses avanies qu'a subies la zone euro depuis 2008. Alors que l'euro devait aider à faire converger les niveaux de vie et les économies des divers pays participants, on a vu en fait d'énormes divergences se créer, avec à la clef de graves crises en Grèce, en Irlande, au Portugal, en Espagne et en Italie. Comme le remarquait Verel avant de prendre connaissance du plan, les objectifs politiques ont aussi été manqués et de loin. Il ne manque plus en fait qu'un pays sorte de la zone euro pour cocher toutes les cases des échecs possibles. Il faut à ce propos remarquer que Chypre correspond bien aux types de pays qui pourraient sortir. Chypre est un petit pays, imprimer suffisamment de billets et de pièces prendrait sans doute peu de temps, mais peut-être pas beaucoup plus qu'un mois. On s'achemine aussi vers un bank run. On coche toutes les cases de la liste des prérequis qu'avait préparé Barry Eichengreen il y a un peu plus de 5 ans.

La zone euro continuera sans doute d'exister: malgré la confiscation d'une partie des dépôts à Chypre, la population semble toujours favorable à l'euro à cause de son statut de monnaie forte qui protège de l'inflation. Un certain nombre de pays restent à cause des conséquences très néfastes qu'aurait une sortie: la situation doit vraiment devenir désespérée pour qu'une sortie devienne intéressante. Pour d'autres pays d'Europe du Nord, la situation est au contraire acceptable.

La fin des espoirs fédéralistes

Cette confiscation des dépôts est aussi à mon sens la fin des espoirs fédéralistes en Europe. En juin dernier sur blog, j'avais exprimé ma faveur pour une garantie européenne des dépôts qui mutualiserait les sauvetages bancaires, ce qui les rendait nettement plus faciles à gérer: c'est parfaitement clair dans le cas chypriote où les dépôts sont trop gros pour l'état chypriote mais faibles à l'échelles de l'ensemble de la zone. Il y a déjà une directive en place, selon laquelle la garantie minimale est de 100k€. Mais comme la garantie doit être assumée par l'état où est établie la banque, elle n'est aussi solide que la signature de cet état. En l'occurrence, Chypre est trop petit pour assumer cette obligation, d'où la taxe, spécialement destinée à contourner la législation. On a rarement vu des contribuables recevoir des actions de banques suite à la levée d'un impôt nouveau; recevoir des actions alors qu'on était créancier d'une entreprise en faillite est nettement plus courant. À cet égard, la communication de l'Union Européenne est simplement désastreuse, où un porte-parole assume totalement ce détournement. Le montage de ce plan est donc de la pure real-politik.

C'est important car ce qui différencie l'Union Européenne d'un simple zone de libre-échange, c'est qu'il y a un ensemble étendu de règles communes à respecter, notamment en matière commerciale. Au départ, la CEE édictait des règles techniques communes pour éviter que les obligations du marché commun ne soit vidées de leur sens par les participants. Sans cela, chaque pays pourrait édicter ses propres règles techniques, ce qui permet d'écarter les produits de l'étranger par trop gênants. Ces règles se sont étendues par la suite à de nombreux secteurs au fur et à mesure que le marché commun se développait et que des fonctions traditionnellement souveraines étaient confiés à l'Union, comme par exemple la monnaie. En matière financière, il est donc devenu de facto impossible à une banque d'un petit pays de proposer ses services à ceux de grands pays: les dépôts ne sont pas garantis de la même façon, ils n'ont pas exactement la même valeur. Par contre, les habitants des petits pays peuvent déposer dans les pays jugés les plus sûrs et les banques de ces pays proposer leurs services à tous les habitants de l'union. Ces règles étaient aussi garanties par l'existence d'une Cour de Justice qui avait le pouvoir d'obliger les états à respecter les directives et les traités. Dans ce cas, c'est impossible: Chypre ne peut pas assumer ses obligations s'il n'y a pas de garantie commune. Or, l'Union Européenne est en grande partie fondée sur le droit. Si les habitants des petits pays ne peuvent faire appel à la justice pour se voir reconnaître leurs droits, l'intérêt de l'Union diminue pour eux! Et on voit alors s'éloigner la perspective d'une intégration fédérale qui suppose que le pouvoir central est capable de faire respecter les lois qu'il édicte. Dans la cas présent, il s'avère que le pouvoir central est complice du dévoiement de ces règles.

L'absence de perspectives d'intégration est aussi visible dans les commentaires de certains des plus favorables à une fédération. Ainsi, Jean Pisani-Ferry qui dirige le think tank Bruegel a justifié la taxe par le rendement servi par les banques chypriotes. Ce rendement était lié aux difficultés connues de ces banques: tout le monde savait plus ou moins qu'elles détenaient beaucoup d'obligations d'état grecques, le taux d'emprunt de l'état chypriote a aussi augmenté à cause de la perspective d'avoir à voler au secours de ses banques. Bref, le taux servi était dû à la fragmentation nationale du système bancaire. Avec une garantie commune et le régulateur qui va avec, de tels taux auraient été impossibles, empêchés par le régulateur. Sans compter que, si on suit le tableau, les petits déposants n'ont pas de rémunération mirobolante. Autrement dit, pour Jean Pisani-Ferry, déposer dans un pays en crise est à éviter: tous les épargnants de ces pays se doivent donc de déposer dare-dare leurs économies dans les pays sûrs sous peine d'être responsables de ce qui leur arrive. Difficile de faire plus centré sur les états. Une autre variante était de justifier cela par les dépôts venant de Russie et les pratiques peu reluisantes les accompagnant: une nouvelle fois, c'est un faux-semblant. Dans un état de droit, ce serait une question de police, pas une question de garantie des dépôts. Bref, même les plus fédéralistes des commentateurs rejettent les conséquences d'une fédération, ils rejettent donc la mise en place de cette fédération.

Et la France?

En France, il paraît pour l'heure impossible que le secteur bancaire soit menacé d'une telle confiscation. Cependant, il faut remarquer que l'état français voit sa dette se rapprocher des 100% du PIB. L'ensemble des dépôts à vue représentent 1500G€, soit plus de 75% du PIB. En cas de problème similaire à Chypre, ou même face à un problème de bulle immobilière laissant énormément de créances douteuses comme en Espagne et en Italie, l'état français serait devant un choix similaire à celui de Chypre. Dans ce cas, loin d'être un modèle à éviter le modèle chypriote pourrait s'imposer. Des calculs montrent même qu'il faudrait saisir à peu près 20% des avoirs financiers des ménages si l'état devait intervenir de cette façon pour rétablir la soutenabilité à long terme de l'ensemble des dettes françaises (tant publiques que privées). Dans un pays où il est vu comme normal de taxer les patrimoines et comme acceptable d'imposer des taxes à usage unique sur la même assiette, la réponse de savoir ce qui se passerait dans une situation de réelle crise comme à Chypre ne se pose pas vraiment: la réponse est sans doute qu'il se passerait la même chose ici! Si des vents véritablement mauvais devaient se lever, on ne peut pas dire que les épargnants français seraient spécialement protégés.

Il n'est donc pas certain que ce soit une bonne idée d'avoir montré qu'un pays englué dans une grave crise économique, dont l'état est fortement endetté et dont les banques sont en difficulté pouvait revenir sur la garantie accordée aux épargnants classiques. Si jamais les épargnants des pays en difficulté (Italie...) prennent ce qui se passe à Chypre comme l'exemple de ce qui se passera ailleurs, des moments sportifs se préparent.

10 mars 2013

Les projections du 11ᵉ rapport du Conseil d'Orientation des Retraites

En décembre dernier, le Conseil d'Orientation des Retraites a publié son 11ᵉ rapport qui est une actualisation des projections financières relatives aux divers régimes de retraites français. Il s'était déjà livré à 3 reprises à cet exercice, qui est bien entendu une part majeure du travail qui est attendu de cet organisme: en 2006, fin 2007 et finalement en 2010 pour préparer la dernière réforme. La réforme Fillon de 2003 prévoyait une clause de revoyure tous les 5 ans, mais la crise qui a éclaté en 2007-2008 précipite les échéances. Malgré la dernière réforme, les caisses de l'AGIRC — retraite complémentaire des cadres du privé — sont quasiment vides et une négociation est en cours qui semble s'acheminer vers un gel des pensions et une hausse des cotisations. D'aucuns soupçonnent le gouvernement de chercher à se réfugier derrière le résultat de cette difficile négociation pour annoncer une réforme du régime général très similaire et faire porter ainsi le chapeau aux signataires — probablement la CFDT et les syndicats patronaux. Le sujet revêt donc une certaine actualité.

Le modèle du COR

Pour essayer de savoir quelle sera la situation financière future des régimes de retraites, le COR a bâti un modèle permettant de prendre en compte les diverses variables qui l'affectent. Comme il s'agit d'un exercice où il s'agit de savoir quelles mesures éventuellement prendre pour assurer l'avenir des régimes, on raisonne d'abord à loi constante en établissant différents scénarios macro-économiques avant de voir quels sont les effets des mesures qu'on peut prendre. Comme le rapport contient des tableaux qui les résument très bien, je les reproduis ci-dessous, en commençant par les perspectives à long terme, avec pour comparer les hypothèses prises en 2010, avant la dernière réforme. Hypothèses LT du COR en 2010 Hypothèses LT du COR en 2012 hyp_CT_COR_11.jpg On peut donc voir que les hypothèses à long terme sont sensiblement les mêmes qu'en 2010. Le COR a pris en compte la dernière réforme des retraites, l'allongement de l'espérance de vie — qui tend à rallonger la durée de cotisation d'un trimestre — ainsi que de la natalité constatée en ce moment en France. 2 scénarios macro-économiques sont ajoutés, un plus pessimiste et un autre plus optimiste. Ces hypothèses ne sont en fait valables, grosso modo, qu'après 2020. De 2012 à 2020, les scénarios sont en fait quasiment identiques, pour 2 raisons. La première, c'est que ce sont les hypothèses de croissance de loi de finances de la sécurité sociale (PLFSS) pour 2013 qui sont prises en compte d'ici 2017. La seconde, c'est que le COR voit ensuite une convergence rapide vers le taux de chômage tendanciel: les 7% de chômage sont atteints en 2020 dans tous les scénarios.

Le COR formules les hypothèses de façon à pouvoir reconstruire de façon naturelle la situation financière du régime en séparant les différents types de variables. Ces différents types se justifient par l'impact réel que peuvent avoir les mesures prises.

  1. La démographie est une donnée qui change — en général — de façon très lente. Les projections s'étendent jusqu'en 2060, ce qui est déjà très éloigné, mais tous les retraités de 2060 sont déjà nés et ont pour l'écrasante majorité entamé leur vie active. De même, tous les travailleurs de 2030 ou presque sont déjà vivants. La situation de ce point de vue est déjà jouée, sauf catastrophe. De plus, on voit mal un gouvernement démocratique prendre des mesures contraignantes dans ce domaine!
  2. Les données macro-économiques sont en partie déterminées par la démographie. Une hausse de la population en âge de travailler doit se traduire par une hausse grosso modo équivalente du PIB. Ce qui explique le choix du COR d'exprimer une hypothèse de productivité, ce qui donne la hausse moyenne annuelle des salaires au dessus de l'inflation.
  3. Les données légales peuvent, elles, changer rapidement, mais leurs effets mettront parfois du temps à se réaliser. Le meilleur exemple est celui de l'indexation des retraites sur les prix, dont l'impact est en fait déterminant sur l'équilibre financier à long terme. Mais il vaut mieux, pour savoir quelles décisions prendre, raisonner dans un premier temps à loi constante.

Les hypothèses économiques prises paraissent très optimistes. L'ajout du scénario A' est tout de même très surprenant, puisqu'il estime qu'une hausse de la productivité par travailleur de 2%/an est possible, alors même que la croissance du PIB français ne cesse de ralentir depuis les années 70. Prévoir 4.5% de chômage tendanciel — c'est-à-dire en moyenne sur un cycle économique — paraît très optimiste dans un pays où l'INSEE indique qu'un tel niveau est dépassé depuis 1978, soit 35 ans. Le chômage a passé la barre des 7% de la population active en 1983, il y a 30 ans. À long terme, contrairement à ce que laisseraient penser les tableaux du COR, l'hypothèse la plus crédible est sans doute le scénario C, voire le C'. Quant aux prévisions à 5 ans, il suffit de remarquer que la croissance a été nulle en 2012 et que la prévision 2013 a déjà été abandonnée. Or toute la communication gouvernementale va s'organiser autour de ces projections et, comme la dernière fois en 2010, il basera ses décisions sur le scénario central qui est à la fois complètement hors des clous à court terme et optimiste à long terme. Ce n'est pas un hasard: tous les gouvernements ont surestimé la croissance ces dix dernières années, ça permet de minimiser la taille des problèmes à résoudre, dans tous les domaines, sous couvert de volontarisme.

Les résultats

Les résultats des simulations sont aussi un rappel des effets attendus de la réforme de 2010. Par exemple, avec des hypothèses assez équivalentes à celles de 2010, on voit qu'il y a 1M de cotisants en plus en 2020 par rapport aux projections de 2010 (p31) soit presque 4% de plus. On voit aussi que c'est un effet équivalent aux différence entre les taux de chômage à long terme des différents scénarios! Projection d'emploi selon le COR en 2012

L'effectif des retraités est réduit d'autant, ce qui ne l'empêche pas d'exploser puisqu'on va passer d'environ 15M aujourd'hui à presque 20M en 2030. retraites_cor.jpg

Les perspectives financières sont mauvaises dans les scénarios les plus réalistes (C et C'), où les régimes sont constamment en déficit. La situation est réellement tragique pour le scénario C', où malgré des hypothèses à court terme optimistes — et communes aux autres scénarios — le déficit est de 2% du PIB par an à partir de 2030. situation_financiere.jpg On voit aussi qu'au lieu d'être à l'équilibre, comme escompté lors de la dernière réforme, en 2017, il y aura un trou de 1% du PIB. Par contre la situation dans le scénario A' paraît gérable: on constate des déficits jusqu'en 2030, compensés par la suite par des excédents. On peut donc prévoir à ce graphe une longue vie auprès de ceux qui pensent qu'il n'y a pas de problèmes de retraites en France, spécialement auprès de l'extrême gauche et de certains syndicats pas forcément très réalistes. Dans le scénario B, qui va sans doute servir de scénario central, l'équilibre n'est rétabli qu'à l'horizon 2057, l'équivalent des calendes grecques. La poursuite de la crise a donc creusé un trou très important et ce malgré l'impact important du relèvement de l'âge légal.
On voit aussi que dans tous les cas, après 2030, la situation est soit stabilisée soit en amélioration. On comprend donc que les réformes vont se succéder jusqu'en 2030 et qu'ensuite le système pourrait se figer.

Le 12ᵉ rapport du COR donne comme pension moyenne mensuelle la somme de 1431€ en 2008, l'INSEE donne un revenu salarial moyen mensuel de 1624€. Le ratio des deux vaut actuellement 88%. Les simulations du COR donnent aussi l'évolution de ce ratio suivant les divers scénarios (p57), d'où on peut tirer le graphe suivant. Pensions_COR.jpg On y voit clairement que ce qui fait basculer l'équilibre du système, c'est le ratio pension/salaire. Dans le cas du scénario A', l'indexation des retraites sur les prix diminue suffisamment les pensions pour assurer l'équilibre du système. Pour donner sa pleine mesure, l'indexation des pensions sur les prix doit être accompagnée d'une forte croissance: à long terme, l'effet cumulé est très notable et déterminant. Ceux qui se baseront sur le scénario A' pour donner des pronostics roses sur l'avenir seront en fait ceux qui prônent une baisse du niveau relatif des pensions.

Les politiques à mener

Ces simulations permettent au COR de montrer les effet des principales politiques qui ont un effet sur l'équilibre financier du système. Il faut en effet rappeler que le système ne peut s'équilibrer qu'en jouant sur 3 leviers:

  1. le taux de cotisation: en augmentant les cotisations, on augmente les revenus du système, le déficit se comble donc. Cependant, les revenus des actifs baissent et donc le ratio pension/salaire augmente. Les retraités sont favorisés
  2. le ratio entre nombre de retraités et nombre de cotisants: c'est la politique menée par la droite avec les réformes Fillon de 2003 et celle menée en 2010. L'idée est d'augmenter l'âge légal de départ ou le nombre d'annuités pour obtenir une retraite à taux plein. Si la première mesure est d'effet direct — puisque les gens ne peuvent plus partir à la retraite —, la deuxième peut se transformer en baisse effective des pensions.
  3. le niveau relatif des pensions: c'est le levier qui regroupe le plus de tactiques. Il a été employé dans la réforme menée par Balladur en 1993. On peut donc changer le mode d'indexation des pensions voire les geler, changer le mode calcul pour baisser petit à petit la pension versée, etc.

Tous les autres leviers ne rapportent pas suffisamment. Les revenus du capital ne suffisent en effet pas à renflouer les caisses de retraite. Dans les 35% du PIB qui rémunèrent le capital, on trouve en fait les loyers fictifs que se versent à eux-mêmes les propriétaires de leur logement (10% sur les 35) ainsi que l'amortissement des investissements des entreprises et des particuliers. Les flux réels monétaires sont inférieurs à 10% du PIB. On voit donc que faire porter, en plus des impôts actuels, le poids du déficit prévisible des retraites éliminerait à peu près totalement l'intérêt de recevoir personnellement des revenus du capital.

Les abaques sont situées dans l'annexe 4, à partir de la page 130. Les points w donnent l'effet d'un équilibre qui ne compte que sur une hausse des cotisations accompagné d'un allongement déjà prévu de la durée de cotisation. L'intersection des droites diagonales avec l'axe des abscisses donne le niveau relatif des pensions par rapport aux salaires qui assure l'équilibre à prélèvement constant. Les points y donnent la hausse des cotisations qu'il faut acter si on veut préserver le niveau relatif des pensions.

Les abaques portant sur 2020 donnent une information importante: si on voulait équilibrer les régimes à cet horizon uniquement par des hausses de cotisation, la pension moyenne serait réévaluée de 5% par rapport au salaire moyen, alors même que les niveaux de vie entre retraités et actifs sont aujourd'hui équivalents! À cet horizon, il me semble qu'un gel des pensions soit indispensable: tout prélèvement supplémentaire diminuerait les revenus des actifs, il n'y a pas assez de temps pour qu'un allongement de la durée de travail ait suffisamment d'effets, la réforme de 2010 ayant un calendrier s'étirant jusqu'en 2017. Et cela avec une abaque basée sur un scénario macro-économique très optimiste!

Comme je l'ai dit plus haut, je considère que les scénarios C et C' sont les plus crédibles. Par ailleurs, la baisse du chômage vers une moyenne sur un cycle de 7% étant franchement très hypothétique, je ne pense pas qu'on puisse compter sur une quelconque baisse des cotisations chômage: on devrait éviter autant que possible les hausses de cotisation pour les retraites. Pour savoir quelles politiques mener, on peut se reporter à l'abaque suivante: abaque2040c.jpg On y voit que pour équilibrer le système de retraites, une augmentation de la durée de travail de 6 ans est nécessaire pour préserver le ratio pension/salaire (point z). Ce n'est pas très crédible. Le point y donne la hausse de cotisation nécessaire pour préserver le système avec les réformes déjà actées: 5.5 points. Autant dire que les revenus des actifs en prendraient un sacré coup. Le point x donne la baisse relative des pensions pour assurer l'équilibre sans hausse de cotisation ni de durée de cotisation: une baisse de 20%. Les points w donnent l'effet de la politique actuelle: il faudrait augmenter les cotisations de 3.5 points, les pensions baisseraient de 10% par rapport aux salaires par l'effet de l'indexation sur les prix. Pour situer les données du problème, 3.5 points de cotisation c'est 15% des ressources actuelles du systèmes; si on prend un taux de prélèvements obligatoires de 50%, ça correspond à une baisse relative de 7% du niveau de vie des actifs. C'est donc loin d'être neutre. On voit aussi que le point x requiert un gel durable des pensions, l'indexation sur les prix n'apportant qu'une baisse relative de 10%! Dans ce contexte, la politique qui me semble préférable est celle consistant à allonger la durée de cotisation de 2 ans. De cette façon, l'indexation sur les prix amène à proximité de l'équilibre, surtout combiné au gel sans doute indispensable à court terme des pensions. Le reste pourrait être assuré par une hausse des cotisations, très limitée — inférieure à 1 point.

Conclusions

Les abaques du COR sont très utiles, mais cette utilité est entravée par l'utilisation de scénarios immodérément optimistes. Suivre le scénario B ainsi que les hypothèses du PLFSS 2013 amène à sous-dimensionner les changements. Mais c'est sans doute ce qui se passera, le gouvernement PS aura énormément de mal à faire accepter un gel des pensions, un allongement de la durée de cotisation et un relèvement de l'âge de la retraite après avoir combattu toutes ces mesures depuis 20 ans. Pourtant, il semble qu'il soit nécessaire pour assurer l'équilibre du système de geler les pensions pendant quelques années ainsi que d'acter un allongement de la durée de cotisation de 2 ans de plus, pour aller vers les 44 ans de cotisation.

3 mars 2013

Signé Furax: le diésel qui tue

Le 1er mars dernier, la Cour des Comptes a publié un référé pour faire des remontrances au gouvernement sur la question des taxes sur les carburants. En effet, le gouvernement n'inclut pas dans la liste des dépenses fiscales l'exonération du kérosène pour les avions, la fiscalité avantageuse du diésel ainsi que celle du charbon. Elle remarquait finement que taxer le diésel consommé par les particuliers comme le sans-plomb rapporterait presque 7G€ par an et faisait une allusion tout aussi fine au fameux chiffre de 42000 morts par an dus au diésel en France. Comme l'idée d'aligner la fiscalité du diésel sur celle du sans-plomb semble planer avec insistance, cela a amené le retour vengeur du diésel qui tue dans la presse. Comme je m'étais fendu d'un billet l'an dernier sur le sujet lors de la dernière poussée de fièvre sur le sujet, je me suis donc moi aussi décidé à faire un retour vengeur et à l'actualiser — entre autres à l'aide de ce billet-là — pour bien montrer qu'il n'y a absolument aucune chance pour que le diésel puisse causer 42000 décès chaque année en France.

Comme ce billet s'annonce long et que ton temps, ô lecteur, est certainement précieux, voici un résumé de ce qui va suivre.
Il n'y a aucune chance pour que le diésel soit la cause de 42000 morts par an en France pour les raisons suivantes:

  1. Ce chiffre était donné à l'origine pour l'ensemble des émissions de particules de moins de 2.5µm (PM2.5). Le diésel ne représente que 10% de ces émissions.
  2. Ce chiffre est calculé sur la base des émissions en l'an 2000. Depuis, les émissions ont baissé d'un tiers.
  3. Cette étude a eu une suite dont les conclusions conduisent, via une extrapolation linéaire très incorrecte, à pratiquement 3 fois moins de morts.
  4. Ce chiffre n'a pas la signification qu'on soit capable de relier les pics de pollutions aux morts. Il s'agit d'une donnée mathématique abstraite, qui est mieux exprimée en perte d'espérance de vie.
  5. Pour ce qui est de la liaison directe entre niveau de pollution et mortalité, on se risquera à une évaluation à la louche qui est d'environ 5000 morts pour l'ensemble de la pollution aux particules et de 1000 morts pour le diésel. J'estime même maintenant que c'est une évaluation maximale en ce qui concerne le diésel.

On s'essaiera ensuite à une exégèse de la communication gouvernementale sur le sujet dont il va ressortir qu'il s'attaque au sujet de la fiscalité du diésel par la face de la santé publique par opportunisme et manque d'autres choix. Il s'est en effet fermé diverses portes par ses déclarations précédentes. Ce qui n'est guère étonnant vue l'incompétence dont il a fait preuve jusqu'ici, incompétence largement due au manque de travail sérieux sur les questions énergétiques lorsque le PS était dans l'opposition — ce qui est, accessoirement, un thème récurrent sur ce blog.

Pourquoi le diésel ne peut tout se prendre sur le dos

Commençons par le début: le chiffre de 42000 morts est donné sur le site du ministère de l'environnement comme valable pour l'ensemble de la pollution aux PM2.5. On nous donne aussi la source, le programme CAFE, on y revient plus loin. Pour l'instant, une évidence s'impose: le diésel n'est peut-être pas le seul émetteur de PM2.5. S'il était responsable de la majeure partie des émissions, on pourrait presque tout lui mettre sur le dos; au contraire, s'il n'est qu'un émetteur marginal, c'est gonflé. De plus, le programme CAFE se base sur les émissions de l'an 2000, il faudrait donc tenir compte de l'évolution de la situation puisque ce billet est rédigé en 2013. Par chance, la France dispose d'un organisme qui recense et évalue toutes sortes de pollutions atmosphériques, dont les PM2.5, le CITEPA. Il publie chaque année un rapport qui les compile. On peut alors en tirer cette figure (p90) Émissions de particules de moins de 2.5µm en France On peut voir sur ce graphe que les émissions ont baissé d'un tiers entre 2000 et 2011. Le modèle menant au chiffre honni étant linéaire, le nombre de morts devrait déjà être ajusté d'autant. Mais il y a mieux: on voit distinctement que le transport routier ne compte que pour 19% des émissions totales. Rien qu'avec ça, je peux affirmer qu'il est strictement impossible que le diésel tue 42000 personnes par an en France. Si on continue la lecture de ce précieux tome, on tombe p224 sur un superbe tableau qui détaille les émissions par combustible. Répartition des émissions de PM2.5 par combustible

On y voit que le diésel seul représente 25kt, contre 250kt de PM2.5 émises chaque année. Le biodiésel n'ajoute que 2kt. Dit simplement, le diésel ne représente que 10% des émissions totales de PM2.5. Le reste des émissions du secteur des transports est dû marginalement à l'essence, de façon plus importante à des choses comme l'usure des pneus. Mettre sur le dos du diésel l'ensemble des morts est donc sérieusement gonflé. On constate aussi une particularité des émissions de PM2.5: les premiers émetteurs sont liés au chauffage des locaux avec 39% des émissions liés aux secteurs résidentiel et tertiaire. Le tableau détaillant par combustible nous dénonce 2 autres coupables: le fioul domestique et ... le bois qui émet à lui tout seul quasiment 4 fois plus de PM2.5 que le diésel, concentrés lors des mois froids de l'année.

Mais ce n'est pas tout. Si on se limite aux particules de moins de 1µm, on se limite en fait aux émissions dues au combustible utilisé et on élimine les émissions dues à l'usure. On constate (tableau p205) que les poids lourds émettent 6kt sur 27. Il est laissé à la sagacité du lecteur de savoir si les poids lourds seront concernés par une éventuelle hausse des taxes sur le diésel. Il ne semble pas non plus qu'on empêche les poids lourds de rouler au diésel dans un avenir proche. PM_moytransport.jpg Bref: une éventuelle hausse des taxes sur le diésel ne concernerait que 8% des émissions de PM2.5.

D'où sortent ces 42000 morts?

L'autre point frappant, c'est que 42k morts représentent une part importante de la mortalité en France, c'est presque 8% des décès constatés chaque année. Pour fixer les idées, on estime qu'il y a 60k décès liés au tabagisme et qu'il cause 80% des décès par cancer du poumon. Comme les effets du tabagisme et des particules ne doivent pas être bien différents, il y a un problème de concurrence entre ces deux causes: il n'y a pas assez de morts de maladies respiratoires ou cardiaques pour qu'il n'y ait pas de recouvrement entre causes. Dit autrement, si on additionnait tous les morts qu'on lie à une cause quelconque en France, on aboutirait à une somme supérieure au nombre total de décès annuels en France. D'une certaine façon, il y a des gens qu'il faut tuer plusieurs fois avant qu'ils ne soient définitivement répertoriés comme morts.

En l'occurrence, ce chiffre sort à l'origine d'un programme européen, CAFE. Le chiffre de 42000 figure dans ce fichier excel à la ligne «morts prématurées». Les conclusions de ce programme ont fait par la suite l'objet d'un document de l'OMS. Une lecture cursive du fichier excel ainsi que du document de l'OMS montre d'ailleurs une caractéristique bizarre: il y a plus de morts — 350k/an au niveau de l'Europe — que d'admissions à l'hôpital — 100k/an — pour la même cause (pXII du document de l'OMS). Si ces morts étaient conformes à l'idée naïve qu'on peut s'en faire, ce serait l'inverse: aux dernières nouvelles, on ne laisse pas les gens mourir chez eux sans rien tenter en Europe de l'Ouest. Surtout quand il s'agit de gens qui ont des problèmes respiratoires et vont certainement demander de l'aide. Il est remarquable que ce «détail» n'ait pas eu l'air d'alerter grand monde sur la signification de ce chiffre.

Le programme CAFE a consisté à modéliser la présence de PM2.5 sur l'Europe pour en déduire un certain nombre de conséquences sur la santé à long terme. On a découpé l'Europe en cases, où on pouvait assigner une concentration moyenne en PM2.5 et la population y vivant. À partir de là, le nombre de morts y est calculé en prenant la concentration en PM2.5 (exprimée en µg/m³) et la multipliant par le taux de 0.6% par µg/m³ ainsi que le nombre de décès dans une case. Ce qui revient à dire qu'il y a à long terme un excès de mortalité de 0.6% par µg/m³ de PM2.5. Tout ceci est expliqué dans la notice méthodologique (p57). Il y est dit que cette méthode est ... fausse et qu'elle surévalue notoirement le nombre de morts. Mais qu'elle est utilisée parce qu'elle est facile à mettre en œuvre et rend un résultat facile à comprendre ou, autrement dit, pour des raisons publicitaires. À la page suivante, il nous est clairement dit que la méthode préférée est de compter en termes d'années d'espérance de vie perdues, surtout que la méthode est destinée à faire des évaluations de politiques, menées ou à mener, en fonction de la valeur d'une année d'espérance de vie. La vraie question à laquelle le programme CAFE voulait répondre, c'est de savoir de combien de temps la mort est-elle hâtée, en moyenne, par la faute des particules.

L'autre biais est celui du double comptage: sauf erreur de ma part, il n'y a aucun contrôle pour des comportements individuels comme le tabagisme. Ça favorise aussi l'emploi d'un modèle linéaire. Imaginons que la population soit divisée en 2 catégories, les non-fumeurs, pour qui il existe un seuil en deçà duquel les particules n'ont pas d'effet, et les fumeurs, pour qui toute concentration de PM2.5 hâte des décès parce que le seuil est dépassé à cause du tabagisme. Dans ce cas, toute concentration de PM2.5 va hâter des décès pour l'ensemble de la population puisqu'on aura un mélange indiscernable de fumeurs et de non-fumeurs. À long terme, si un fumeur meurt d'une affection respiratoire, et que les particules n'ont d'effet que sur eux, dira-t-on qu'il est mort du tabac ou des particules? On peut aussi constater que, dans ce cas, la meilleure façon de lutter contre la mortalité par les particules peut devenir … la lutte contre le tabagisme. Un biais supplémentaire est l'effet mémoire: les niveaux de pollution aux particules ont fortement baissé depuis les années 70s, mais nombre de ceux en vie à cette époque sont toujours vivants aujourd'hui. Ces études à long terme observent donc en partie les effets de la pollution du temps jadis. Les émissions de particules ont été divisées par 2 depuis 1990, et l'usage du charbon — autre émetteur de particules historiquement important en Europe et très actuel en Chine — a fortement diminué depuis les années 70s et les centrales à charbon ou au fioul dotées de filtres. Et on peut donc dire que le nombre de morts annoncés n'a rien à voir et est nettement plus élevé que ce qu'on entend généralement par mort à cause de....

De plus un autre programme a succédé à CAFE, Aphekom. Les résultats du programme en ce qui concerne la France ont été chroniqués ailleurs: cette fois-ci, en étudiant des agglomérations rassemblant 12M d'habitants, on ne trouve que 2900 décès attribuables, pour les niveaux de pollution de 2004 à 2006. À la différence de CAFE, ce programme considère qu'il y a un seuil à 10µg/m³ et attribue la diminution de l'espérance de vie à la partie de la concentration dépassant ce seuil. Pour Paris, le site d'Airparif nous dit que ça correspond à une perte de 6 mois. On peut aussi voir que, d'un programme à l'autre l'évaluation, si on l'extrapole violemment par une règle de 3 à l'ensemble de la population française, est passée à 15000 morts. Sans que ceux-ci soient tellement plus rattachables à leur cause que les morts du programme CAFE.

Pour relier directement les effets des particules aux morts, il y a les études à court terme qui lient les hospitalisations et les décès aux pics de pollution pour voir quelle est la variation et en tirer une relation entre concentration de polluants et morts. Un autre document de l'OMS nous donne la relation à court terme (p257): une augmentation des décès de 0.6% tous les 10µg/m³, un facteur 10 de moins que les effets à long terme. On trouve donc à la louche un ordre de grandeur de 5000 décès directement imputables aux particules par an en France dont seulement 1000 maximum peuvent à la rigueur être imputés au diésel, mais plus probablement 500, puisque le diésel ne compte que pour 10% des émissions.

Pourquoi le gouvernement utilise-t-il cet argument?

On peut maintenant se tourner sur les raisons pour lesquelles le gouvernement utilise l'argument de la santé publique pour vouloir pousser une hausse des taxes sur le diésel et les aligner sur celles de l'essence. La première raison, c'est qu'ils croient sincèrement que le diésel fait des morts tous les ans en France. Sans doute pas 42000, sans quoi on aurait des réactions plus violentes comme la recherche d'une interdiction pure et simple des rejets de particules. C'est la politique qui a été menée avec le durcissement constant des normes portant non seulement sur les moteurs d'automobiles, mais aussi sur les installations industrielles comme les centrales au charbon. Aujourd'hui, les filtres à particules des véhicules diésel filtreraient plus de 99% des particules (source: communication de l'Académie de médecine, p3-4). Le problème pourrait donc se régler de lui-même au fur et à mesure du renouvèlement du parc, quitte à le lier à un durcissement du contrôle technique. Comme on l'a noté plus haut, le bois et le fioul domestique constituent aussi une source importante de PM2.5, puisque le bois représente à lui seul 4 fois les émissions de PM2.5 du diésel. À ce sujet, il me souvient d'avoir entendu, dans la même interview de 10 minutes, l'inénarrable Jean-Vincent Placé fustiger le diésel pour ses émissions de particules et porter au pinacle le chauffage au bois. On le voit, il y a une certaine dichotomie entre la réalité de la pollution aux particules et sa représentation dans le discours public. Toutefois, on s'aperçoit que les feux de cheminée sont aussi dans le collimateur en région parisienne. Dans l'article du Parisien, on pouvait lire la réaction appropriée d'une vice-présidente Verte du conseil régional:

« Il n’est pas question de créer une police des feux de cheminée, mais d’alerter tous ceux qui utilisent ce moyen de chauffage sans connaître son impact », réagit Hélène Gassin, vice-présidente (EELV) du conseil régional d’Ile-de-France. « Mais, prévient-elle, il ne faudrait pas se focaliser sur la chasse aux foyers ouverts et laisser les particules de bois cacher la forêt du diesel. »

Au total, il ne me semble pas que les propositions de taxation du diésel pour cause de particules soient particulièrement crédibles dans ces conditions! Les politiques deviendront crédibles sur ce sujet lorsqu'ils proposeront une taxe sur le bois — très probable en cette époque.

Les raisons du retour de l'idée d'aligner les fiscalités de l'essence et du diésel sont donc en partie à chercher ailleurs. Par exemple, Jérôme Cahuzac disait lundi dernier qu'il faudrait trouver 6G€ l'année prochaine, une somme très proche des 7G€ que rapporterait l'alignement des fiscalités. Je constate aussi que les taxes sur le carburants sont presque les seules à n'avoir pas été augmentées dans ce cycle d'austérité. D'autre part, la France entend réduire sa consommation de pétrole, à la fois pour des raisons géopolitiques — le peak oil — et climatiques — puisque la combustion du diésel dégage fatalement du CO₂. Pour cela, il faudra sans doute augmenter de façon conséquente la fiscalité des carburants.

Mais le gouvernement ne peut le dire directement: on a eu droit à un épisode qui a conduit à baisser temporairement les mêmes taxes cet été. Le gouvernement y a été poussé car il s'est fait fort de stopper la hausse du prix des carburants lors de la dernière campagne électorale. Et ce, alors même que les problèmes climatiques et d'approvisionnement pétrolier sont connus depuis longtemps. Le gouvernement s'est donc lié les mains et ne peut plus justifier une hausse des taxes sur les carburants par le besoin de financement de l'état, les problèmes climatiques ou d'approvisionnement. Il ne peut donc plus qu'utiliser des moyens détournés pour arriver à ses fins. La mise en cause du diésel sur le plan sanitaire semble donc représenter une bonne occasion pour enfin réaliser cet objectif. Car enfin, cet objectif d'alignement des fiscalités est légitime: le diésel ne présente aucun avantage sanitaire par rapport à l'essence, émet la même masse de CO₂ par litre brûlé, la différence de consommation étant désormais couverte par le système de bonus-malus. Tout devrait pousser à cet alignement. Mais faute de l'avoir dit dans la campagne électorale voire avant, le gouvernement en est réduit à chercher une issue de secours. Cette voie n'est pas sans danger, car une fois qu'on a mis en cause les effets sanitaires du diésel aujourd'hui, on risque des réactions épidermiques complètement déconnectées de la dangerosité réelle du carburant.

Finalement, tout cela a un air de déjà vu: ces contorsions sont du même tonneau que celle qui entouraient la tarification progressive de l'énergie. Comme on n'avait pas bossé le sujet dans l'opposition ni eu la sincérité d'exposer la situation telle qu'elle est, on s'est fermé la voie vers des solutions intelligentes.

15 février 2013

Cheval de retour

Ayant abordé l'envoi d'une proposition de loi au congélateur, il était certain que le sujet suivant en sortisse sortît, celui des fameuses lasagnes au cheval. Il faut bien dire que ces plats surgelés, pas spécialement destinés à une clientèle de gourmets, mais plutôt à tous ceux qui cherchent un plat roboratif à bon marché et compatible avec cette invention remarquable qu'est le four micro-onde, sont très tentants pour ceux qui voudraient se livrer à une fraude en remplaçant un aliment garanti, le bœuf, par un autre, en l'occurrence le cheval. Personne, en effet, ne pourra jamais détecter la fraude en goûtant le plat, élaboré spécialement pour qu'on n'y puisse reconnaître le goût des ingrédients.

Comme d'habitude, la révélation de la fraude a permis de se livrer à ce grand sport social qu'est la désignation de coupables, dont la plupart sont innocentés au fur et à mesure que l'enquête se déroule. Le premier coupable trouvé fut bien sûr le trader, héritier lointain de l'accapareur. Toute production industrielle a besoin d'approvisionnements et, pour ce genre de production, on se figure bien que le prix est prépondérant dans le choix du fournisseur. C'est pourquoi la présence d'un intermédiaire chargé de trouver la matière première au meilleur prix est quasiment obligatoire. Cependant, l'histoire récente n'a point amélioré l'image de cette profession, les officiants ne sont guère dépassés dans l'opprobre publique que par les sociétés qui les emploient. Il faut dire aussi que les sociétés impliquées dans ce drame moderne sont établies dans des paradis fiscaux, c'est-à-dire ailleurs qu'en France, et qu'une d'entre elles a eu l'idée de se nommer Draap, le nom de la pauvre bête écrit à l'envers dans l'idiome local. Les louables efforts de la profession pour améliorer son image, en établissant un subtil distinguo entre négociant et commissionnaire, dont à la lecture de l'article on comprend que l'un est l'aboutissement de l'autre, échouent à cause d'un manque criant de sophistication, le personnel usant d'un langage aussi fleuri que rustique. Les traders sont pour l'instant sauvés par l'avancée de l'enquête qui accuse formellement le grossiste français.

Un autre coupable, plus indirect mais non moins vicieux, a été dénoncé par le pourfendeur national de la malbouffe, José Bové. Une loi aurait été votée en Roumanie interdisant la circulation des véhicules hippomobiles, mettant les chevaux roumains dans la charrette pour l'abattoir et provoquant un afflux de viande de cheval à écouler. Devant l'idiotie et la tyrannie d'une telle loi, il n'a pas fallu longtemps avant que le suspect habituel en la matière ne soit accusé à son tour. Ainsi donc, le Moloch bruxellois, fidèle à sa réputation, aurait envoyé pour le plaisir des chevaux à l'abattoir pour faire de la place aux voitures. Bien entendu, point de loi européenne ni même roumaine, la responsabilité du déclin des chevaux de trait en Roumanie ― très relatif à l'heure actuelle ― s'explique sans doute plus par une élévation du niveau de vie ou une baisse relative du prix des automobiles. On peut aussi s'étonner d'une loi dont José Bové clame qu'elle est appliquée depuis 2009 ou 2010 mais dont on trouve trace dès 2008 dans la presse anglaise: 5 ans de conservation au congélateur, c'est tout de même long. Par contre, il est évident que le nombre de chevaux de trait en Roumanie en fait un grand producteur de viande de cheval, ceux-ci finissant leur vie à l'abattoir lorsqu'ils ne sont plus capables de remplir leur office. Cependant, la situation en Roumanie n'explique pas tout: ce qui a déclenché l'affaire c'est sans doute la crise. Le Financial Times nous informe ainsi qu'il y a eu, en 2012, 10 fois plus de chevaux envoyés à l'abattoir en Irlande qu'en 2008: un cheval, de course cette fois, est en effet un bien de prestige qui coûte en entretien. L'appauvrissement réel provoqué par la crise dans les pays les plus touchés, dont l'Irlande, force les propriétaires à se séparer de ces biens et les fournisseurs de ces biens à fermer. Le détonateur de la crise nous est aussi révélé: devant l'afflux de chevaux à l'abattoir et, sans doute, le manque de débouchés officiellement visibles, les autorités sanitaires irlandaises se sont mises à effectuer des tests ADN. Ce qui a débouché sur la découverte que des steaks hachés contenaient presque 30% de viande de cheval. En fait, il semble que ce soit cet afflux de viande de cheval en Europe de l'Ouest qui ait fait chuter les cours et s'accumuler des stocks, créant la tentation de frauder. L'accusation envers les autorités roumaines voire européennes apparaît alors pour ce qu'elle est, la désignation d'un coupable étranger, contre lequel il s'agit de prendre des mesures d'autant plus vigoureuses qu'il s'était cru à l'abri du fait de la distance, et fort utile puisqu'il sauvegarde notre amour-propre.

On sent aussi chez José Bové une réprobation envers les procédés industriels qui ont permis d'inclure de la viande de cheval dans les lasagnes en toute discrétion. C'est ainsi qu'on a appris l'existence du minerai de viande, matière première de nombreux plats surgelés à base de viande hachée. Cette répugnance peut surprendre dans un pays où les jus de raisins pourris puis fermentés, les fromages moisis ou les estomacs de vache sont portés au pinacle comme des mets destinés à de fins gourmets et une tradition à conserver, mais cette répugnance est largement déterminée par des facteurs culturels. Il est plus étonnant que ce soit au sein de la famille politique de l'opposition au gaspillage alimentaire au nom de la faim dans le monde et du réchauffement climatique qu'on sente le plus d'opposition à la malbouffe. Or, comme le montre la description du minerai de viande, c'était quelque chose qui était brûlé de façon improductive, il y a 40 ans. De plus, une recette certifiée 100% italienne montre bien quelle était l'origine des lasagnes: un plat de restes permettant de recycler la viande laissée de côté et provenant de différents animaux. Les industriels ont donc valorisé des déchets comme le demandait si bien Éva Joly: Une politique écologiste des déchets vise évidemment une réduction du volume global de déchets par une action renforcée en amont, dès la conception des produits. Il faut aussi remarquer que l'usage de la viande de bœuf est très mauvais pour le climat: si on en croit les documents du bilan carbone, la viande bovine provoque en moyenne l'émission de 27kg d'équivalent CO₂ par kg de viande commercialisée (p37 du doc sur l'agriculture). C'est dû pour une bonne part aux émissions de méthane: la digestion des ruminants provoque l'émission de 30Mt d'équivalent CO₂ chaque année en France, soit 6% de nos émissions! On conçoit donc bien qu'il est intéressant de ce point de vue de consommer le maximum du bœuf pour préserver la planète, y compris les chutes de viande. De plus, en fraudant en remplaçant du bœuf par du cheval, le grossiste français a provoqué une moindre émission de gaz à effet de serre: toujours selon les documents du bilan carbone (p31), un cheval de trait émet deux fois moins de gaz à effet de serre qu'un bœuf! On voit donc bien que les procédés industriels et la filouterie du grossiste ont des conséquences écologiques positives, même si elles n'ont pas lieu en suivant les préceptes prônés.

Cette histoire de lasagnes au cheval permet une fois de plus de s'apercevoir que les suspects les plus rapidement désignés — d'ailleurs ce sont souvent les même à chaque fois — ne sont pas les plus coupables. On constate aussi que le métier de politique est fort compliqué, non point tant à cause des conséquences inattendues des décisions prises, mais surtout à cause de ces satanés sujets, qui s'obstinent à ne pas vouloir des solutions toutes prêtes qui leur sont offertes et s'acharnent à répondre aux problèmes posés à leur façon, ainsi que des inévitables lubies idéologiques qui empêchent d'accepter la déviance des sujets. On avait déjà bien vu cela, il y a un an et demi, lors d'une sombre histoire de concombres andalous et de pousses de soja, où devant l'impeccabilité des industriels et l'origine impensable du scandale, on n'avait pas tiré les conclusions qui s'imposaient. On le voit bien de nouveau ici: voilà un grossiste qui rend leur sens originel à des plats et des traditions ancestraux, participe du mieux qu'il est possible à une filière efficace de recyclage, permet d'éviter des émissions de gaz à effet de serre! Quel politique peut s'opposer à cela? Et pourtant!

6 février 2013

Envoi au congélateur

Ce jeudi 31 janvier venait en discussion une très prévisible proposition de loi écrite par le groupe écologiste à l'Assemblée Nationale. Il y était donc prétendûment question de faire jouer le principe de précaution en matière d'émission d'ondes électromagnétiques.

On a déjà abordé la question dans le passé, on peut résumer la situation ainsi:

  • Il existe une recommandation internationale qui donne comme limite une superbe formule croissante dans la zone de fréquence du GSM de 61V/m à 137V/m puis constante au-delà, zone où on trouve notamment les bandes de fréquence du Wifi. À 900MHz, bande de fréquence originelle du GSM, la recommandation est de 90V/m. La recommandation est fixée en estimant la densité d'énergie du champ pour augmenter la température du corps de 1°C, puis divisée par un facteur 50 (p16).
  • la réglementation française fixe des seuils encore plus bas, puisqu'ils représentent moins de 50% de la recommandation en termes de champ électrique — donc 4 fois moins en densité d'énergie. À 900MHz, le champ maximal autorisé est d'environ 41V/m.
  • des mesures effectuées en Angleterre n'ont jamais réussi à détecter plus de 0.2% de la recommandation en densité d'énergie.
  • par contre les téléphones portables peuvent émettre nettement plus, jusqu'à 50% et plus de la recommandation, comme on peut le constater avec les informations données par les fabricants. Mais il s'est avéré extrêmement difficile de démontrer un effet nocif de l'usage intensif du téléphone portable du fait du rayonnement électromagnétique: dans mon post sur le sujet, j'avais pu estimer le pire cas à 60 cas de cancers par an.
  • le rapport de l'ANSES de 2009 ne laissait aucun doute sur le fait que les fameux électro hypersensibles relevaient de la psychiatrie. On trouve ainsi dans l'avis le passage suivant (p13): les seuls résultats positifs obtenus à ce jour sur le plan thérapeutique sont ceux obtenus par des thérapies comportementales ou des prises en charge globales
  • ce même avis se montrait surtout préoccupé par les téléphones et pas du tout par les antennes. Quant à la réduction de l'exposition, c'était le service minimum: il estimait que dès lors qu’une exposition environnementale peut être réduite, cette réduction doit être envisagée.

Les écologistes ont profité de leur niche parlementaire pour déposer une proposition de loi sur ce sujet. Étant donné l'utilité réelle de ces niches, qui servent à donner des gages à son électorat quand on n'est pas le parti majoritaire, ils ont, comme prévu, abordé tous les sujets sans impact sur la santé — les antennes, le Wifi, les électro-hypersenibles — et ignoré le seul qui aurait à la rigueur mérité qu'on y passât 5 minutes — le téléphone lui-même. Ce n'est pas un hasard, puisque la partie la plus bruyante de leur électorat n'est absolument pas préoccupée par le combiné, mais veut surtout disposer d'armes juridiques pour s'opposer à l'implantation d'antennes. Ainsi, on aurait obligés les opérateurs à une tracasserie administrative de plus — une étude d'impact — dont on se doute que la non-réalisation ou une réalisation en dehors des formes aurait valu annulation du permis de construire. Ou encore à une baisse du champ maximal autorisé à 0.6V/m — valeur déterminée de façon arbitraire, c'est 1/100e du champ maximal autorisé au delà de 2GHz — obligeant à la multiplication des antennes et, incidemment, à une augmentation des émissions des téléphones. Pour finir, on voit bien quel potentiel peut offrir la reconnaissance du trouble des électro-hypersensibles ainsi que la désignation d'une cause officielle, totalement disjointe de celles déterminées par la science. Les écologistes pouvaient compter sur leurs relais habituels pour faire connaître leur action, aidé en cela par les caractéristiques de l'histoire qu'on peut raconter: un procédé technique mystérieux car invisible, des morts insaisissables mais des malades très visibles, un document à charge sorti opportunément, des industriels forcément mus par leurs seuls intérêts financiers repoussant d'un revers de main les arguments d'activistes bien organisés mais sans gros moyens autres que symboliques.

Lors du débat, les défenseurs de la proposition se sont reposés sur des topos de l'écologie politique ainsi que sur des déformations de faits relevés ailleurs, au grand dam de l'auteur d'un rapport sur la question. Les autres parlementaires semblèrent, en gens de bonne compagnie, presque s'excuser de vouloir vider la proposition de son contenu, ne se laissant aller à des piques qu'à quelques moments comme lorsqu'on demanda à l'auteur de la proposition si elle possédait un téléphone portable. Mais, plus que les mots de la ministre, ce qui montre l'attitude du gouvernement envers cette proposition, c'est que le groupe socialiste, certainement en toute indépendance, a déposé à la dernière minute une motion de renvoi en commission, équivalente à un renvoi au congélateur. Cette mauvaise façon a permis d'abréger les débats et de montrer que, finalement, mieux valait subir jusqu'au bout l'obstruction clairement affichée de l'opposition et appuyée dans l'hémicycle sur des arguments douteux sur un autre sujet que les complaintes des écolos et leur opposition à ce qui est, sans doute, une des plus utiles inventions des 25 dernières années.

28 janvier 2013

Un peu de comptabilité: les tarifs de rachat des énergies renouvelables

Après avoir regardé les coûts de l'EPR de Flamanville, il est intéressant de regarder des tarifs de rachat consentis aux énergies renouvelables, au premier rang desquelles l'éolien et le solaire photovoltaïque. Même si j'ai déjà émis l'opinion que fixer les tarifs en fonction des coûts des différentes technologies plutôt qu'en fonction du bénéfice pour la société était une mauvaise politique, il est intéressant de voir quelle rentabilité du capital est accordée aux exploitants. Elle n'a pas forcément à atteindre de hauts niveaux pour que ces subventions aient un effet: l'état garantit par ces tarifs garantis des rentrées d'argent. Les exploitants n'ont plus qu'à porter le risque météorologique et les risques d'exploitation et de construction, mais se voient exonérés du risque commercial.

L'éolien terrestre

L'éolien terrestre bénéficie de tarifs de rachat pendant 15 ans, grosso modo réévalués chaque année selon l'inflation. Le tarif est de 82€/MWh les 10 premières années, puis il y a nominalement un tarif dégressif en fonction de la quantité produite pour les 5 années suivantes. Mais comme il faut atteindre un facteur de charge de 27% pour que la dégressivité démarre, la plupart des éoliennes se voient donc rémunérées 82€/MWh pendant 15 ans, puis doivent vendre leur production sur le marché, où le prix est actuellement d'environ 50€/MWh.

On peut calculer la valeur actuelle d'un kW d'éolien moyennant quelques hypothèses: durée de vie de l'éolienne de 20 ans, facteur de charge de 23%, coût d'exploitation de 20€/MWh. On obtient le graphe suivant: VA_eolien.jpg Dans un rapport sur l'éolien et le solaire, il est dit (p49) que le coût moyen d'une éolienne est de 1600€/kW. Sur le graphe, on peut donc lire la rentabilité attendue pour un tel prix: c'est l'abscisse où la courbe croise l'ordonnée 1600. On constate donc que la rentabilité est limitée dans ces conditions. Même si on peut estimer qu'une éolienne va durer en fait 25 ou 30 ans, cela ne représente pas un surcroît de rentabilité spectaculaire. Ce n'est donc pas une surprise si les capacités installées diminuent d'année en année, comme on peut le voir ci-dessous (extrait du bilan 2012 de RTE). Si les tarifs ont été fixés à une hauteur permettant, au départ, d'obtenir sans doute une bonne rentabilité, on peut subodorer qu'il y a eu une certaine inflation des coûts de l'éolien ces dernières années. install_eolien.jpg

Le solaire photovoltaïque

La situation sur le solaire photovoltaïque est plus complexe car il est possible d'avoir des installations de petites tailles. Là où une éolienne a puissance nominale de 2MW et plus, les particuliers peuvent installer des panneaux délivrant quelques kW voire quelques dizaines de kW, un module photovoltaïque délivrant environ 100W/m² avec des tarifs différents suivant que le panneau est installé au-dessus du toit ou sert de toit. Comme on peut le constater, l'intégration au bâti — où le module sert de toit — permet d'obtenir au moins 120€/MWh de plus, ce qui est intéressant car le contrôle est difficile. La CRE a noté dans sa dernière délibération sur la CSPE (annexe 2, p9-10) que 98,5% des contrats présentés bénéficient d’une prime d’intégration au bâti et en déduit que compte-tenu des exigences de l’intégration au bâti, il ne peut être exclu qu’une partie de ces contrats présente un caractère frauduleux. En français commun, elle a constaté que le régime de soutien au photovoltaïque a donné lieu à une fraude massive.

À partir de 100kW, pour éviter le rush qui s'est produit quand il est devenu financièrement intéressant d'installer ces panneaux grâce à une chute des prix plus rapide que la baisse du tarif de rachat, le gouvernement procède par appel d'offres. Le dernier appel d'offres accepté a mené à un prix moyen de 208€/MWh, pour des dossiers déposés fin janvier 2012.

Le rapport sur l'éolien et le solaire dit (p59) que le coût d'un système photovoltaïque est de 1300€/kW. En comptant 5€/MWh de coût d'exploitation, 11% de facteur de charge, une durée de vie de 30 ans avec un tarif sur 20 ans, on obtient le graphe suivant: VA_solaire.jpg On voit que 200€/MWh permet une rentabilité tout à fait conséquente: c'est la conséquence de la procédure d'appels d'offres où les dossiers ont été déposés au début 2012 et un lancement de l'appel à l'été 2011. Les prix des modules baisse rapidement, il y a donc un hiatus entre le prix accordé et le prix qu'on pourrait obtenir avec les prix du jour. Mais cela ne suffit pas à expliquer toute la différence. L'état accepte quasiment tous les dossiers complets dans les appels d'offres sur le solaire photovoltaïque, il n'y a donc en fait aucune concurrence et cela n'incite pas à baisser les prix. L'impression qui se dégage est que la rentabilité est très élevée!

Pourtant, on constate que les installations de panneaux ont baissé (cf graphe du bilan 2012 de RTE ci-dessous). Cela peut s'expliquer par la baisse de la rentabilité qui était outrancière avant le moratoire de 2010 et par le fait que le coût des petites installations chez les particuliers est plus élevé que pour celles qui font l'objet d'appels d'offres. install_pv.jpg Cependant malgré cette baisse des prix, il n'est pas sûr que le solaire photovoltaïque devienne vraiment compétitif et permette de produire une partie importante de l'électricité à un coût acceptable — mettons autour de 40€/MWh — car le coût du panneau est déjà minoritaire dans le coût d'une installation. Le coût du travail et de composants plus classiques (acier...) tend à devenir majoritaire, ce qui va rendre de plus en plus compliqué d'obtenir des baisses de prix. Mais on atteindra sans doute les 70€/MWh, où le surcoût dû aux subvention deviendrait relativement faible; le problème viendrait plutôt qu'on ait installé la quantité immédiatement utile avec des tarifs nettement plus élevés.

L'éolien en mer

On se rappelle qu'en avril dernier, l'état avait annoncé les résultats de l'appel d'offres concernant l'éolien en mer. 4 des 5 lots avaient été attribués, pour 1928MW au total et un investissement annoncé de 7G€. Le lot restant n'a pas été attribué pour cause de coûts trop élevés, ce qui n'était pas très bon signe quant aux coûts des autres. On l'a déjà abordé ici, mais les coûts se sont bien avérés extraordinairement élevés à 228€/MWh en moyenne. L'avis de la CRE donnait aussi la production attendue: 6.8TWh/an.

Avant même d'aborder la question de la rentabilité du projet pour les industriels, on peut déjà remarquer qu'on va investir une somme inférieure de 20% à l'EPR de Flamanville, unanimement reconnu comme un échec d'ampleur galactique, pour une production annuelle presque 2 fois inférieure! Certains journaux se sont scandalisés à juste titre des surcoûts de l'EPR de Flamanville, je n'ai, par contre, pas vu un seul titre s'interroger sur le bienfondé de cet investissement dans l'éolien en mer. Si on fait l'hypothèse que le coût d'exploitation est de 25€/MWh — la même hypothèse que j'ai prise pour l'EPR de Flamanville —, que les débours dûs à la construction s'étalent sur 4 ans, que la durée de vie des éoliennes est de 20 ans et en prenant les taux d'actualisation de la Cour des Comptes, je trouve que le coût du courant issu de ces champs est de ... 138€/MWh. On peut essayer de voir quel taux d'actualisation ferait sens avec ces hypothèses et le prix annoncé (cf graphe ci dessous), on s'approche dangereusement de 20%! VA_eolien_mer.jpg On peut avancer les explications suivantes:

  • j'ai fait une erreur dans mes calculs
  • le coût réel de l'investissement est bien supérieur à 7G€, auquel cas on est de nouveau confronté au cas de l'EPR de Flamanville, en bien pire cette fois!
  • le coût réel d'exploitation est bien supérieur à 25€/MWh, ce serait quand même un comble pour une source d'énergie qui est annoncée comme devant remplacer les grandes centrales classiques, d'avoir un coût d'exploitation supérieur à une centrale nucléaire.
  • la production sera bien inférieure à 6.8TWh — qui suppose un facteur de charge de 40% pratiquement 2 fois plus élevé que l'éolien terrestre.
  • les industriels vont effectivement s'en mettre plein les poches, ce qui est étonnant quand on regarde les exigences du cahier des charges en matière de détail des coûts.

Conclusion

Ces petits calculs montrent quelques problèmes de la politique d'aide en faveur des renouvelables électriques. Le système d'appels d'offres semble défavorable au consommateur, car très peu d'offres se présentent et que les prix semblent toujours élevés par rapport aux coûts d'investissement annoncés. Que ce soit dans le domaine du solaire photovoltaïque ou de l'éolien en mer, on peut soupçonner des rentabilités extraordinaires.

Le solaire photovoltaïque voit ses coûts baisser très rapidement et le gouvernement peine à adapter suffisamment vite les tarifs de rachat; il représente déjà la moitié des sommes dépensées au titre des subventions aux renouvelables électriques alors qu'il ne représente que moins de 20% de la production éligible aux subventions à ce titre. On soupçonne une fraude massive dans les installations chez les particuliers. La rentabilité des appels d'offres semble excellente du fait des baisses de prix des panneaux.

L'éolien en mer a vu les appels d'offres se conclure sur des prix délirants. J'ai du mal à comprendre comment les montants d'investissements et la production annoncée peuvent correspondre aux prix annoncés. Quant à l'éolien terrestre, l'inflation des coûts tend à diminuer le rythme de construction.

17 janvier 2013

L'état d'esprit de la politique en France et la numérisation à la BNF

En 2005, c'est à dire pendant la préhistoire, Jean-Noël Jeanneney, alors directeur de la Bibliothèque Nationale de France, avait tempêté contre Google qui venait de démarrer son programme de numérisation des fonds de littérature présents dans les bibliothèques de grandes universités américaines. Ce programme a depuis été étendu à diverses bibliothèques de par le monde, y compris celle de Lyon. Les œuvres tombées dans le domaine public y sont disponibles librement, comme on peut le constater. Jeanneney dénonçait alors le risque d'une domination écrasante de l'Amérique.

En 2008, la rumeur courut que, finalement, un accord eût pu se conclure avec l'implacable ennemi, mais rien ne se fit. En 2013, 8 après le début du projet de Google, on apprend que la bibliothèque va numériser son fonds via un partenariat public-privé. Les entreprises privées se rémunéreront en commercialisant le contenu des ouvrages numérisés et disposeront d'une exclusivité de 10 ans sauf pour une petite partie qui sera publiée immédiatement sur Gallica, qui rassemble ce qui a déjà été numérisé. Le travail s'étalera sur 10 ans. On peut donc constater que les conditions sont bien moins favorables pour le public que ce qu'a pratiqué Google: la totalité des ouvrages numérisés ne sera disponible librement qu'en 2033, alors même qu'ils sont libres de droits et qu'avec Google, ils seraient sans doute déjà disponibles.

Cet évènement, même s'il est d'une dimension limitée, est révélateur de travers de la vie publique française. C'est d'abord un révélateur de l'impécuniosité de l'état français. Le patrimoine culturel français est concédé en partie à une entreprise privée parce que la BNF n'a pas les moyens de payer l'ensemble des frais de numérisation et n'a aucun espoir d'obtenir les crédits nécessaires. Elle a donc développé un partenariat public privé où l'entreprise privée valorisera son travail pour recouvrer les sommes manquantes. Les partenariats public-privé sont très populaires dans les projets d'infrastructures, car ils permettent d'éviter d'augmenter la dette de l'état: l'engagement de verser à intervalles régulier des sommes d'argent est simplement compter dans les dépenses annuelles à prévoir. Le revers est que les sommes à verser sont bien supérieures à ce qu'il aurait fallu verser si l'emprunt avait bien eu lieu à la place: les taux de rémunération du capital sont bien plus élevés que les taux des OATs. Dans le cas qui nous occupe le but de la BNF est de conserver les ouvrages dans le meilleur état possible mais aussi de permettre leur consultation, de préférence par le plus grand nombre. Or, il s'avère que la BNF va privatiser une partie du domaine public, ce qui va empêcher de consulter les copies numériques de certains documents dont justement la consultation devrait être libre. La manque d'argent pousse ainsi l'état à prendre des décisions douteuses du point de vue des finances et des buts qu'il poursuit.

Ensuite, on peut voir le biais cocardier. Le problème n'était pas que Google puisse être ou devenir une société trop puissante, mais qu'elle soit américaine. Autant une certaine méfiance peut être de mise dans les domaines militaires, autant dans le domaine culturel, s'il s'agissait de faire connaître la culture française, la nationalité de l'entreprise qui numérise le fonds de la BNF importe peu. L'important est plutôt que ce qui est numérisé soit facilement et immédiatement à la disposition du plus grand nombre. La politique culturelle de la France est en grande partie bâtie sur cette hostilité envers l'étranger. C'est ainsi que les productions étrangères, américaines au premier chef, se voient exclues par des quotas de productions françaises à diffuser obligatoirement; il y a des obligations de financement de l'industrie locale payées in fine par les consommateurs, comme au cinéma. Bref, toute une démarche protectionniste est mise en place et débouche sur des errements, comme des acteurs sur-payés ou le refus d'une possible aide étrangère.

Enfin, il y a la peur de la nouveauté et un état d'esprit qui ne voit que les menaces et pas les opportunités. De fait, s'allier à Google était une opportunité: la mise à disposition du public aurait été faite gratuitement, Google a numérisé des fonds sans demander d'argent aux bibliothèques, ni d'exclusivité dans la numérisation et la diffusion. Cet état d'esprit s'accorde très bien de l'esprit cocardier. Cette focalisation sur les menaces pousse en plus à de graves erreurs d'analyse du marché des biens culturels. En France, il est quasiment impossible de lancer de nouveaux services sur les marchés culturels car, immédiatement, par peur de perdre des revenus, les intervenants déjà présents veulent que le nouvel entrant paie immédiatement de grosses sommes. C'est le cas avec des choses assez futiles comme la VoD, mais c'est sans doute aussi le raisonnement tenu par la BNF: quelqu'un pourrait lancer une activité à succès sur la numérisation de son fonds et ne jamais rien lui reverser. On ne peut pas dire que ce soit un état d'esprit qui favorise l'innovation et l'adoption de nouvelles techniques...

Au final, on voit que ce dossier a été particulièrement mal géré et que les citoyens français n'ont pas eu les résultats auxquels ils auraient pu s'attendre. La numérisation du fonds de la BNF a déjà avancé, on peut par exemple consulter les premières version imprimées des pièces de théâtre de Corneille ou Racine, mais tout ne sera pas disponible avant 2033 faute d'avoir su saisir une opportunité. Malheureusement, sous ces péripéties, on voit poindre un état d'esprit qui me semble être bien présent dans la politique en général: manque d'argent qui amène des comportements néfastes, comportement cocardier qui confine parfois à la xénophobie, focalisation sur les menaces et oubli des opportunités.

- page 4 de 9 -