9 avril 2017

Recomposition

Le système électoral français est dominé par des élections «majoritaires», où le mode de scrutin avantage nettement le parti qui reçoit le plus de voix. Il engrange alors nettement plus d'élus que sa part des suffrages. Ce genre de système est stable et engendre des alternances nettes; il est aussi sujet à des recompositions brutales. Alors que la campagne présidentielle est bien avancée, il semble bien que les candidats adoubés par les 2 principaux partis de gouvernement de 2012 seront éliminés au premier tour. Selon les sondages (voir ici ou ), Emmanuel Macron et Marine Le Pen font la course en tête avec environ 25% des voix chacun. François Fillon est à moins de 20%, tandis que Benoît Hamon est en perte de vitesse aux alentours de 10%. Pourtant ces derniers sont les candidats soutenus par les partis de gouvernement qui ont dominé le paysage politique français depuis 30 ans voire plus. C'est sans doute le signe qu'une recomposition du paysage politique français est en train de s'opérer.

La situation actuelle s'explique bien sûr en partie par des raisons conjoncturelles. Le discrédit général dont souffre François Hollande l'a conduit à renoncer à se représenter. Lors de la primaire de janvier dernier, Benoît Hamon a remporté le plus de suffrages. Mais c'est aussi le représentant des opposants internes au PS qu'a eu à gérer Hollande tout au long de son quinquennat. Plombé par le bilan du quinquennat et les rancœurs internes, Benoît Hamon se retrouve à la peine. François Fillon, quant à lui, souffre bien sûr de ses histoires d'emploi de sa femme et plus généralement d'argent ou d'avantages indus. Il semble qu'il n'ait pas son pareil pour créer des histoires tournant autour de son train de vie. Sa réponse ayant consisté pour l'essentiel à crier au complot et à ne plus parler qu'aux plus militants de son camp, il a naturellement perdu des électeurs potentiels. Il est en effet difficile de voir comment ces histoires n'affecteront pas la légitimité de l'application de son programme social en cas d'élection…

Cependant, cette conjonction d'évènements a aussi des racines plus profondes. Les 2 partis de gouvernement que sont le PS et l'ex-UMP sont des coalitions qui peuvent de défaire quand ce qui les lie n'existe plus. La division du PS entre une aile «idéaliste» de gauche et une «réaliste» plus centriste existe depuis la formation de ce parti au début des années 70. En fait, la raison de l'apparition du parti est justement d'unir des tendances de gauche dispersées pour faire pendant au PCF et espérer un jour exercer le pouvoir. À droite, les composantes ont été analysées, il y a déjà longtemps par René Raymond. Le parti de gouvernement actuel est un mélange d'orléanisme et de bonapartisme.

L'histoire plus ou moins récente montre que le PS a eu des difficultés lorsqu'il est arrivé au pouvoir. À chaque fois, il a été battu aux élections suivantes. Il faut dire que le discours dans l'opposition est celui de l'aile idéaliste alors que la politique économique est après renoncements, plus ou moins celle de l'aile réaliste, sauf sur certains sujets tabous comme les retraites. Le résultat, c'est que les idéalistes sont souvent en rébellion plus ou moins ouverte contre leur propre gouvernement et que de multiples tendances se présentent ou menacent de le faire aux élections suivantes. De plus, dans l'opposition, l'aile réaliste est incapable de reconnaître certaines évidences, comme par exemple, que la réforme des retraites de 2003 correspondait de fait à son positionnement réel.

À droite, l'éclatement de l'UDF en 1998 sur la question de présidents de régions élus avec les voix de conseillers FN a ouvert la voie à une domination sans partage des descendants du gaullisme et du RPR. L'essentiel de l'ancienne UDF est absorbé par le RPR en 2002, seuls les plus proches de Bayrou restant en dehors. Depuis, il est clair que la tonalité du discours est de plus en plus à droite, délaissant de nombreuses fois le terrain économique pour se concentrer sur les questions identitaires ou de l'immigration. La logique de départ est sans doute que la politique économique est impopulaire et que la montée du FN signale la capacité mobilisatrice de ces questions dans l'opinion. Mais au final, on constate que le discours actuel reprend à son compte des thèmes incroyables dans les années 90, comme l'hostilité envers les accords de Schengen de libre-circulation, clairement aux antipodes d'un positionnement libéral «orléaniste».

La première raison de ces 2 comportements, c'est que les partis ont besoin de troupes. Dans l'opposition, les partis se concentrent sur l'entretien de leur base militante. Or il n'est pas bien difficile de constater que les recrues du PS ne se font sans doute pas parmi les socio-libéraux. Les sympathisants sont en partie sur la même ligne, on l'a vu lors des dernières primaires. Feue l'UDF a eu une réputation de parti sans militants: mêlée au RPR, il n'est plus guère resté de raison de tenir souvent un discours de centre-droit. L'essentiel des militants est très à droite dès 2002 et c'est ce qu'a compris Sarkozy en préparant les élections de 2007. Une innovation apportée par Sarkozy a été de chercher à cultiver cette base militante tout en étant au pouvoir avec le discours de Grenoble et en initiant les appels à revoir Schengen dès sa présidence. L'agitation sur le mariage gay durant ce quinquennat a aussi renforcé les rangs des militants très à droite. Cette réalité a été bien décrite par Alain Juppé quand il a dit que les militants de droite s'étaient radicalisés.

La structuration en 2 camps vue jusque aujourd'hui est basée sur l'opposition aux communistes: on trouve à gauche des gens qui pourraient possiblement travailler avec eux, comme Mitterrand l'a proposé en créant le PS, à droite les héritiers des gens qui se trouvaient dans la coalition qui soutenait de Gaulle. Ce dernier est mort en 1970, le Mur de Berlin est tombé en 1989 et le PCF a cessé d'être une force politique d'importance. À la place, on a vu l'intérieur des 2 camps des séparations en 2 parties. D'abord sur l'Europe, où la droite (en 1992) et la gauche (en 2005) ont amplement démontré le clivage qui les traversaient sur la question. Il y a clairement des 2 côtés des partisans du projet d'intégration et de l'autre des gens qui s'y opposent, même si à gauche l'hypocrisie veut qu'on parle «d'autre Europe». Chez les 2 catégories d'opposants, on retrouve d'ailleurs la revendication qu'on ne retire pas assez de l'Europe et qu'il suffit de s'opposer pour obtenir plus, en dépit d'exemples récents, comme la Grèce. Des 2 côtés, on retrouve aussi un clivage de politique intérieure entre les tenants d'une approche plus libérale de l'économie face à des dirigistes, avec de longs palabres à chaque fois qu'on veut déréguler, que ce soit sur le travail du dimanche ou sur les autocars. On peut citer le même genre d'opposition sur les finances publiques, où les ailes centristes veulent limiter les déficits, alors que les autres réclament de fait une hausse continue.

Au final, suite à des défaites électorales comme le référendum de 2005, l'offre politique avec une teinte libérale pro-européenne était en voie d'extinction en France. Aux dernières élections présidentielles, un adversaire autoproclamé de la finance et un opposant au halal à la cantine s'étaient opposés au second tour. Globalement au début de l'année dernière, on pouvait constater l'absence de la famille orléaniste de droite dans le discours public et une forte contestation du gouvernement de la part du parti censé le soutenir. Emmanuel Macron est donc venu remplir un vide d'offre politique. Bayrou occupait à peu près le même positionnement en 2007, mais il avait face à lui 2 candidats des familles traditionnelles plus talentueux que ceux d'aujourd'hui. Il n'avait pas su non plus rassembler suffisamment de militants autour de lui. Beaucoup sont aussi partis par la suite, ce qu'on peut comprendre avec l'échec: les citoyens normaux ont autre chose à faire que prêcher dans le désert.

Cette recomposition semble avantager les centristes comme Emmanuel Macron … mais aussi les extrémistes. Si les partis traditionnels capturent toujours une partie du vote qui pourrait échoir à Emmanuel Macron, ils capturaient aussi une parti du vote tenté par la radicalité mais plus intéressé par le pouvoir que l'extrémisme. Quand le candidat marqué dans un camp n'a plus de chance de l'emporter, comme c'est le cas de Benoît Hamon, ces électeurs se reportent sur le candidat de la pureté idéologique, ici Jean-Luc Mélenchon. Il faut d'ailleurs dire que les appels du pied de Benoît Hamon dans la direction de Jean-Luc Mélenchon sont dévastateurs et totalement irresponsables, car ils indiquent que ce dernier serait le candidat le plus proche du PS dans ses propositions. Comme Mélenchon s'est emparé de la pureté idéologique, ça indique aux électeurs de la gauche du PS qu'on peut tout à fait voter Mélenchon dès le premier tour. Cela rend aussi le report éventuel sur Macron au second tour plus difficile, les positions de Mélenchon étant parfois proches de celles de l'extrême droite, par exemple sur la sortie de l'euro. À droite, il existe un fort tribalisme lié aux personnes. Jacques Chirac, lui aussi largement le centre d'affaires financières en 2002, avait rassemblé un peu moins de 20% des suffrages, pas si loin des 18% dont François Fillon est crédité dans les sondages. En cas d'élimination (probable) de ce dernier au 1er tour, il n'est pas évident que la tribu ne se fracture pas pour alimenter significativement le vote d'extrême droite. Le discours de ces dernières années sur l'immigration rend cette possibilité crédible à mon avis.

Enfin, même si je me retrouve assez largement dans le positionnement d'Emmanuel Macron, il ne faut pas ignorer la déception dont, inévitablement, ce dernier sera l'objet dans le futur. Des propositions qu'il a faites sont idiotes et reviendront le hanter s'il gouverne. On peut penser à la quasi-suppression de la taxe d'habitation. Dans d'autres domaines, elles seront moins dommageables, mais montrent que la démagogie est bien présente dans son discours: son service militaro-civique d'un mois est affligeant, sa promesse de fermer Fessenheim indique que la raison ne déterminera pas toujours ses choix sur des sujets techniques. Sur le plan de la gestion de son mouvement, il est aussi probable qu'il y ait des déçus et des départs après la séquence actuelle d'élections, quelque soit le résultat. Le risque est alors d'en revenir au syndrome de l'UDF d'un parti de caciques sans militant, qui peut disparaître rapidement après un revers électoral.

Pour conclure, cette élection présidentielle est bien partie pour acter une recomposition du paysage politique français. Dans le pire des cas, les extrémistes vont l'emporter avec un face à face entre Le Pen et Mélenchon, bien que les centristes aient montré qu'il existe encore des électeurs à convaincre entre le PS et l'ex-UMP d'aujourd'hui. Dans le meilleur des cas, c'est une victoire électorale du courant centriste qui le place en très bonne position pour de longues années. Je remarque toutefois que les courants clairement dictatoriaux ont le vent en poupe en France: entre Le Pen, Mélenchon et une bonne partie des «petits candidats», on arrive aujourd'hui à presque 50% des intentions de vote. La question de savoir si le clivage principal de la vie politique française est entre les partisans et les opposants à la démocratie, impensable il y a 5 ans, ne me paraît plus si idiote aujourd'hui.

6 février 2017

L'affaire Fillon et les travers de la politique française

François Fillon et son épouse Pénélope sont au cœur d'une polémique car le vainqueur de la primaire a rémunéré sa femme comme assistante parlementaire pendant de longues années, alors même qu'elle n'était pas connue pour ses activités politiques. Cette affaire a aussi le mérite de jeter la lumière sur des travers indéniables de la politique en France.

La rémunération des politiques

Le système de rémunération des politiques est incompréhensible pour le commun des mortels, et même pour ceux qui s'intéressent en dilettante à ces question, il est difficile d'appréhender les montants en jeu. C'est largement dû à l'organisation même de la rémunération. Pour les députés, on a donc le système suivant:

  1. Une indemnité de base et une indemnité de résidence qui totalisent 5700€/mois bruts et qui sont imposables
  2. Une indemnité de fonction de 1400€/mois bruts, augmentée pour ceux qui ont une fonction spéciale, non imposable
  3. Divers systèmes sociaux sont financés par des retenues sur le salaire (environ 1400€/mois): les députés ne sont affiliés à aucun des systèmes communs en France, ce qui est source d'un soupçon de privilège.
  4. Une indemnité représentative de frais de mandat (IRFM) d'environ 5800€/mois bruts, non imposable.
  5. Des voyages gratuits en train (ou en avion dans les circonscriptions les plus éloignées)
  6. Une enveloppe destinée à rémunérer des collaborateurs pour environ 9600€ bruts par mois

Le système de l'IRFM n'a pas d'équivalent dans le privé, où tous les frais doivent être justifiés d'une part par des factures ou des tickets de caisse et d'autre part par une réelle utilité pour l'entreprise. S'octroyer des faux frais est un des moyens les plus sûrs de s'attirer l'attention du fisc et les comptables y font attention car leur responsabilité peut être engagée. Tous les dirigeants d'entreprise y sont à un moment ou à un autre sensibilisés. Pour ceux qui n'ont jamais l'occasion de pouvoir se faire rembourser leurs frais et les autres qui doivent se justifier, le système de règlement de frais au forfait ressemble à un privilège. Ce système viendrait des pratiques de la haute fonction publique, où certaines fonctions bénéficient de primes non imposables. Le tout se combine au cumul des mandats largement pratiqué jusque récemment: dans le cas d'un député-maire, les fonctions de la permanence électorale pouvaient être remplies par la mairie, l'IRFM constituerait alors juste un complément de revenus.

Le fait qu'on puisse employer son conjoint et les autres membres de sa famille prête foncièrement le flanc aux accusations de favoritisme et de népotisme. Même si on peut rencontrer son conjoint au travail, ce n'est le cas que pour 10% des Français. Or, il semble que la proportion de parlementaires qui emploient une personne de leur famille est plus importante. Le soupçon est renforcé par la difficulté de mesurer le travail effectué tant par le député lui-même que par ses collaborateurs: le fait qu'un député soit réélu ne veut pas dire pour autant qu'il ait beaucoup travaillé, en tout cas à l'Assemblée; l'inverse peut être tout aussi vrai. Ça peut aussi renvoyer à une adéquation idéologique entre le député et les électeurs de la circonscription. Dès lors, un élément supplémentaire a dû s'ajouter: Pénélope Fillon n'était semble-t-il pas connue pour son implication dans le travail de son mari. Les interviews données dans le passé ont dû par exemple laisser un souvenir diffus.

Enfin, les services de l'Assemblée ne sont pas à la hauteur sur ce point: ne créer ni adresse mail, ni badge, c'est vraiment laisser la porte ouverte aux accusations d'emploi de complaisance.

Bien sûr pour remédier au moins en partie à cela il faudrait mettre de l'ordre dans le mode de rémunération et interdire l'emploi de proches. Mais cela supposerait essentiellement de réduire drastiquement le salaire réel des députés au prix d'une augmentation considérable du contrôle: la quasi-totalité du salaire devrait être imposable, les frais payés uniquement sur des justifications en rapport avec le mandat. Inutile d'espérer un débat serein sur le sujet, ce qui se passerait serait une redite de ce qu'on a vu quand Sarkozy a voulu mettre de l'ordre dans les rémunérations du Président et des ministres: la question est restée suffisamment marquante pour que 5 ans après, une des premières actions de Hollande a été de baisser ces mêmes rémunérations. Ici comme dans d'autres domaines, l'opacité contribue à faire marcher le système … est-on par exemple si sûr que la complexité du système fiscale ne rende pas acceptable le haut niveau d'imposition?

Les sponsors

Il est de notoriété publique que certaines des personnes les plus riches du pays «sponsorisent» l'activité politique, soit en finançant des partis, soit directement leur poulain. On en a déjà eu l'illustration avec les affaires autour de Liliane Bettancourt: apparemment des sommes importantes étaient versées en faveurs de partis politiques, en l'occurrence, l'UMP (ex-RPR) semblait la plus concernée. Aujourd'hui, il semble que la campagne d'Emmanuel Macron soit aussi en partie financée par des gens fortunés: on se demande autrement comment il a pu monter son parti entre le printemps dernier et l'automne! Il se trouve que l'affaire concerne aussi le salaire reçu par Pénélope Fillon (5000€ bruts pendant 20 mois) pour une contribution qui semble bien maigre: 2 articles dans une revue dont la caractéristique première semble être une danseuse pour un riche industriel.

Aux États-Unis, de telles pratiques sont institutionnalisées, soit par des associations de financement annexes, soit par l'organisation d'évènements comme des repas, où on peut côtoyer son idole politique contre une somme sans rapport avec le coût réel de l'évènement. En France, c'est nettement plus mal vu. Cela pose aussi en France des questions sur les contreparties, car les grandes fortunes gèrent souvent des entreprises bénéficiant de contrats publics. Mais cela n'empêche pas non plus le financement par proximité idéologique: sur certaines questions — comme les OGMs — on voit fleurir les accusations de conflits d'intérêts, alors que ce qui semble déterminer l'action des intervenants dans le débat public est bien l'ensemble des croyances de chacun.

Il n'y a aucune solution en vue pour ce type de problèmes. En effet, la réforme du financement politique du milieu des années 90 donne une grande prééminence aux partis installés en leur donnant l'essentiel des finances autorisées. Pour créer quelque chose en dehors ou acquérir une certaine indépendance, il faut ruser — micropartis … — ou trouver un sponsor.

Les hommes de paille

La politique française paraît aussi parsemée d'homme de paille, c'est-à-dire de personnes semblant ne faire que ce qu'on leur dit de faire. Il est difficile d'expliquer autrement le versement de la quasi-totalité du crédit collaborateur à Pénélope Fillon par le suppléant de ce dernier. Il ne semble pas avoir été effrayé par le montant du salaire, à des niveaux qu'on ne rencontre en France qu'à des postes avec pas mal de responsabilités. Dans un autre registre, on a pu constater que la gestion de l'ex-région Poitou-Charente s'était caractérisée par un laissez-aller certain. Le responsable officiel était le président de la région, un certain Jean-François Macaire. Dans les comptes-rendus dans la presse, il est fort peu apparu, sauf pour dire qu'il n'avait pas vu grand chose … mais par contre, Ségolène Royal est largement intervenue. Bref, il semble que la région était toujours gérée de fait par Ségolène Royal … même si le président officiel de la région devait assumer les responsabilités pénales!

Que ce genre de choses soient possibles provoque chez moi un certain trouble. D'abord, ça semble montrer l'existence de groupies prêts à prendre de gros risques juridiques. Ensuite, ça remet fondamentalement en cause les règles de non cumul des mandats: si c'est pour échanger des gens qui assument publiquement contre des ectoplasmes qui servent de conduit au grand manitou local, il n'est pas sûr que la démocratie y gagne. Une nouvelle fois, il n'y a pas de solution puisque le soutien d'une figure connue est une aide notable pour être choisi par le parti et se faire élire!

30 janvier 2017

La gauche apocalyptique

Ce dimanche, Benoît Hamon a remporté la primaire socialiste. Écoutant le débat de l'entre-deux-tours, j'ai été frappé par les prémisses qui servaient à justifier les mesures emblématiques qu'il propose. En effet, elles étaient souvent fausses et apocalyptiques, quoique probablement répandues — puisqu'il l'a emporté.

Le revenu universel qu'il propose est basé sur la prémisse suivante: il y aura de moins en moins de travail à l'avenir, à cause de la robotisation ou, plus généralement de l'automatisation. C'est un point de départ fondamentalement différent de la proposition libérale du revenu universel, qui est plutôt celui de simplifier radicalement le système de protection sociale, en éliminant la plupart, si ce n'est tous, des systèmes de redistribution existant. Benoît Hamon est d'ailleurs cohérent, puisqu'il annonce aussi vouloir favoriser la baisse du temps de travail hebdomadaire, l'augmentation de l'emploi agricole à la faveur d'une baisse de la mécanisation du secteur, ou encore vouloir taxer les robots! Ce point de départ du raisonnement n'est pas très étonnant: après tout, les préretraites instituées dans les années 80 étaient basées sur une idée similaire, de même que la semaine de 35 heures lui doit beaucoup. Mais il a aussi été démontré comme faux, tant théoriquement qu'en pratique. La théorie économique prévoit surtout une baisse du temps de travail si le revenu s'élève suffisamment pour que les gens préfèrent les loisirs. Historiquement, la mécanisation n'a pas entraîné de perte d'emploi global. Personne ne dénoncerait les machines à laver comme détruisant de l'emploi, or il s'agit de l'exemple typique du robot. Elle est fausse aussi de nos jours: en fait rien ne permet de dire qu'il y aura moins de travail à l'avenir. La baisse du temps de travail hebdomadaire pour les salariés à temps plein est finie depuis les années 80. S'il existe en France un fort chômage, ce n'est pas le cas ailleurs, y compris dans des pays assez comparables comme l'Allemagne.

Un autre de ses chevaux de bataille est l'environnement et la pollution. Il dénonce dans un même souffle la pollution atmosphérique et les perturbateurs endocrinien comme les éléments parmi les plus morbides. On voit bien la convergence qu'il peut y avoir entre une partie du PS et les écologistes. Cependant, cette prémisse est fausse elle aussi. Les facteurs environnementaux sont largement minoritaires parmi les causes de cancer. Les Français n'ont jamais eu une espérance de vie aussi longue que de nos jours. Si les décomptes de morts dus à la pollution augmentent, c'est sous la pression conjuguée de la baisse des seuils et de modèles permettant de larges doubles comptages. Quant aux perturbateurs endocriniens, il suffit de se rendre compte que nombre de femmes en prennent régulièrement sous la forme de la pilule contraceptive. D'ailleurs, certains perturbateurs sont en odeur de sainteté, comme le montre le cas du resvératrol: il est dûment listé par l'ANSES comme perturbateur endocrinien tout en étant vendu comme supplément alimentaire sans soulever l'indignation de quiconque… On peut simplement rappeler que lors de la primaire des écologistes, 40% des votants ont choisi Michèle Rivasi, qui a des positions ouvertement hostile aux vaccins: on peut se demander où s'arrêtera la reprise des idées fausses et délétères des écologistes.

Bien sûr, être scandalisé par l'état perçu de la société est un moteur de l'engagement en politique. Cependant, avoir une idée correcte des problèmes sous-jacents et non pas seulement avoir des préjugés me semble important pour prendre des mesures bénéficiant au plus grand nombre. On l'aura compris, je ne voterai pas pour Benoît Hamon, car il prend comme prémisses de ses raisonnements à peu près toutes les mauvaises idées à la mode à gauche en ce moment. Je constate qu'il fera partie de la cohorte de candidats dont la vision du monde est basée sur des idées clairement fausses. Cette cohorte de candidats rassemblera sans doute plus de la moitié des suffrages en avril, malheureusement!

8 janvier 2017

La post-vérité, c'est les autres

On parle en ce moment du concept de «post-vérité», qui consiste essentiellement à proférer des mensonges de façon à accréditer une alternative à la réalité, en niant des faits de base ou des raisonnements communément admis. Contrairement au mensonge classique, il ne s'agit pas seulement d'aller à l'encontre d'une partie de la réalité, mais de proposer une alternative complète des faits de base aux conclusions. Bien sûr, une difficulté peut apparaître très rapidement: à partir du moment où il existe un certain nombre d'alternatives qui se présentent comme la réalité, les partisans de chacune d'elles vont évidemment affirmer mordicus que c'est leur alternative qui est la réalité. Cela débouche forcément alors vers une accusation de «post-vérité» des partisans de l'erreur envers ceux qui ne sont pas d'accord et sont plutôt dans le vrai.

Une illustration de cela nous est donné par des articles récents de Stéphane Foucart, journaliste au Monde à la rubrique Planète et éditorialiste. Les lecteurs réguliers de ce blog savent que je ne suis pas spécialement convaincu, en général, par ses propos. Il est ainsi l'auteur d'un article intitulé L’évaluation de la toxicité des OGM remise en cause, daté du 19 décembre, et d'un éditorial, Aux racines (vertes) de la « post-vérité », daté du 26.

Le premier article est critiqué, avec l'étude qui lui sert de prétexte, de façon fort juste sur la blog de la théière cosmique. Pour résumé, un chercheur de la mouvance de Séralini a écrit un papier pour tenter de remettre en cause la notion d'équivalence en substance. L'idée de base de la notion est de voir si l'OGM, en dehors des effets prévus de la modification génétique, tombe bien dans la variabilité attendue des plantes non OGM comparables. Le papier scientifique échoue à démontrer une différence réelle entre OGM et non OGM, ce qui ne l'empêche pas de jeter le doute en conclusion sur la sécurité de la modification génétique. Repris dans l'article du Monde, l'auteur du papier peut exprimer sa position sans rencontrer d'opposition nette. L'article du Monde est donc l'occasion d'une énième remise en cause du processus d'évaluation des OGMs. Cependant, il existe un consensus sur la sécurité de ceux actuellement sur le marché: on pourrait donc penser que ce processus d'évaluation ne marche pas si mal que ça pour éviter les évènements nocifs. Plus généralement, cet article se situe donc dans la droite ligne des articles du Monde sur les OGMs, où ceux-ci sont toujours envisagés avec moult soupçons dans le meilleur des cas, à rebours du consensus scientifique. On est dans une sorte de réalité alternative où les OGMs sont mauvais, mais où on constate régulièrement qu'ils continuent à être utilisés, pour des raisons généralement inexpliquées dans ce journal…

L'éditorial a pour objet de signaler que les thèmes écologistes ont déjà vu les phénomènes désormais nommés «post-vérité» depuis longtemps et qu'ils resteront des domaines de prédilection de ce phénomène à cause de leur complexité. Il expose surtout le cas du réchauffement climatique, où les preuves sont purement et simplement niées dans certains média, surtout outre Atlantique, et où on accuse les scientifiques de tremper dans un complot imaginaire. Mais il finit sur une dénonciation des projets de la Commission Européenne sur les perturbateurs endocriniens qui iraient à l'encontre du consensus scientifique. Évidemment, rien de tel dans la communication de la Commission: il s'agit surtout de déterminer le niveau de preuve nécessaire pour mériter le titre de perturbateur endocrinien aux yeux de la loi. La polémique semble d'ailleurs surtout concerner le fait de savoir s'il existera une gradation dans le classement ou un classement binaire perturbateur / non perturbateur. Il ne s'agit donc pas d'un problème scientifique mais d'un problème juridique et politique. Le classement avec des paliers permettrait certainement d'incriminer plus de substances, avec des opportunités de polémiques comme ce fut le cas avec le glyphosate en 2016. On comprend donc le côté pratique de la proposition de la Commission pour un classement binaire, par essence nettement plus clair.

En procédant ainsi, Stéphane Foucart construit une petite aire d'alternative à la réalité. Ceux des lecteurs qui lui font confiance croiront que la Commission s'assoit sur des résultats scientifiques, alors qu'il n'en est rien, vu qu'il s'agit justement de créer un cadre juridique supplémentaire pour prendre en compte certains de ces résultats de façon spécifique. De la même façon, il se plaint qu'on ait trop souvent lu que les OGMs étaient des poisons violents, mais sur ce sujet, fort est de constater que le même Stéphane Foucart répand cette croyance erronée. Il a régulièrement rendu compte de façon positive des travaux de Gilles-Éric Séralini et d'autres personnes qui n'ont aucune crédibilité scientifique sur le sujet: ce fut le cas en 2007, ou en 2012 avec la fameuse affaire des rats, où systématiquement, les thèses des opposants aux OGMs ont été soutenues. Le papier qui a fait l'objet de l'article du 19 décembre entre tout à fait dans cette ligne éditoriale où le consensus scientifique sur la sécurité des OGMs est nié. Une justification à cette dénégation est souvent susurrée: les scientifiques seraient vendus à l'industrie! Le processus reflète celui dénoncé quand il s'agit de réchauffement climatique.

La seule explication à cette analogie, c'est qu'évidemment, une fois une croyance installée, il est difficile de l'abandonner. Les incroyants paraissent toujours dans le déni, les informations contraires à la croyance n'ont nécessairement qu'une importance somme toute marginale et doivent trouver une explication compatible avec la croyance. On voit donc bien l'utilité d'installer dans le public une croyance qui va dans le sens de certaines conceptions, notamment politiques. Ces croyances erronées peuvent d'ailleurs s'installer durablement, malgré des faits contraires rapportés dans les mêmes journaux qui diffusent la croyance, comme l'a montré le cas du nuage de Tchernobyl en France. À partir du moment où la conviction s'est forgée, l'hypothèse contraire ne peut qu'être fausse, à moins que des nouvelles extraordinaires n'adviennent. C'est pourquoi le terme de «post-vérité» va surtout connaître un destin de récupération par toutes sortes de croyants: la post-vérité, c'est les autres!

13 novembre 2016

Les contrevérités dans les médias: la faute à Internet?

La victoire du «Leave» au référendum sur le Brexit et la victoire de Donald Trump aux primaires des Républicains, puis à l'élection présidentielle aux USA ont suscité des commentaires sur la diminution de l'importance des faits dans les médias et dans le discours public en général. C'est ainsi, par exemple, que le Guardian a publié un article intitulé «How Technology disrupted the truth» — qu'on pourrait traduire par «Comment la technologie masque la vérité». La thèse en est qu'Internet et en particulier les réseaux sociaux empêchent les faits et la vérité d'apparaître aux yeux de tous, à cause de l'accélération du rythme qu'ils imposent et de l'émiettement de l'audience qu'ils engendrent. Cette thèse était aussi en partie énoncée dans le livre La démocratie des crédules où il était toutefois rappelé qu'Internet ne faisait que faciliter des tendances naturelles. Mais Gérald Bronner, l'auteur, prônait et prône toujours un essor de la «slow information» pour contrer ce qu'il appelle la démagogie cognitive.

L'immédiateté

Pour ma part, je trouve que mettre l'accent sur le versant de l'immédiateté, permise par les réseaux sociaux et Internet, n'est pas totalement mérité. En effet, on peut constater que les longues enquêtes ne sont pas une garantie contre les assertions fausses. Dans le passé en France, il y a eu quelques exemples de reportages, parfois portés au pinacle, qui de fait étaient basés sur des apparences et des mensonges.

  1. Le Cauchemar de Darwin dénonçait le commerce de la perche du Nil, pointant classiquement l'exploitation des travailleurs et la disparition de certaines espèces de poissons mais l'accusant aussi de favoriser la prostitution, le commerce des armes et par là les génocides ainsi que les guerres civiles de la région. L'imposture de ce film a été dénoncée par François Garçon, la réponse du réalisateur Hubert Sauper évite soigneusement d'apporter de quelconques éléments de preuve. Au contraire, on peut considérer qu'il n'en possède aucun. Il est toutefois notable qu'il fait état de 4 ans de travail. Plus de 10 ans après sa sortie, ce film est toujours cité dans les articles wikipedia sur la perche du Nil …
  2. Le documentaire Prêt à jeter dénonçait l'obsolescence programmée. Seul problème: ça n'existe pas. Ce qui, en apparence, paraît dû à un complot est en fait la conséquence de compromis économiques, de pannes aléatoires, d'innovations et d'effets de mode. Le reportage utilise à son avantage des histoires comme l'ampoule de Livermore ou la nostalgie pour les anciens pays communistes et la rusticité légendaire mais inexistante de leurs équipements. Au fond, ne pas vérifier les informations n'a pas posé de problème pour la diffusion de ce film: les apparences ont suffi.
  3. Cette année dans l'émission Cash Investigation, le reportage Produits chimiques : nos enfants en danger dénonçait les dangers supposés des pesticides, mais dès le départ faisait dire à un rapport de l'EFSA l'inverse de ce qu'il disait vraiment. Ainsi au lieu des 97% de fruits et légumes contenant des résidus de pesticides, 97% des tests étaient dans les limites de la réglementation et dans à peu près la moitié des cas, rien n'était détecté. D'autres contre-vérités parsemaient le reportage. On peut remarquer qu'une association militante s'est vantée d'avoir grandement aidé à produire cette émission, tout au long d'une année et qu'aucune rectification n'a été publiée ou diffusée par France2, malgré les articles des rubriques de vérification de certains médias traditionnels.

Ces exemples devraient amener à se méfier aussi des enquêtes de long terme, menées sans forcément que les sujets sous-jacents fassent les gros titres. Dans ces 3 cas, seuls les pesticides faisaient l'objet d'articles récurrents dans les médias traditionnels. Après quelques années à l'affiche au cinéma puis à la télévision, le cas de la perche du Nil a de nouveau rejoint la cohorte des non-sujets. Il y a de bonnes raisons à cela. Pour expliquer les effets de meute, la victoire du biais de confirmation ou, plus généralement, de toutes les formes de paresse intellectuelle, on avance souvent que c'est l'intérêt économique qui fait que l'emballement se produit: il faut publier vite, les autres vont le faire, ça confirme ce qu'on pensait et c'est ce qu'attendent les lecteurs. Mais pour une enquête longue, certains de ces problèmes se posent toujours. D'abord, ces enquêtes sont d'une façon ou d'une autre préfinancées et il faut donc sans doute que le producteur vende le sujet à une chaîne de télévision avant que le reportage ne soit fini. Savoir ce qu'on va dire à l'avance est donc une bonne idée économique. On peut aussi recruter l'aide de gens prêts à abonder dans votre sens. Orienter l'émission dans le sens d'un grand scandale à l'œuvre dans l'ombre est un plus qui peut attirer de l'audience, etc. Une chose est certaine: ce type de système ne peut contrer le biais de confirmation. Si jamais il s'avère que les faits vont directement à l'encontre de la thèse du reportage, ça peut se solder sur un reportage impossible à montrer … Ça peut même dériver sur des comportements malhonnêtes: les seules explications disponibles du contre-sens de Cash Investigation sont une mauvaise connaissance du français, un aveuglement dû aux convictions des auteurs et la pure malhonnêteté.

Un autre exemple montre jusqu'à la caricature ce qui peut se passer avec ces reportages. Il y a quelques années, M6 avait diffusé une émission intitulée Au secours mon mari est un macho!. Bien sûr avec un titre et un sujet pareils, il avait fallu recruter un pigeon. Et donc l'équipe de tournage avait dit au couple sujet principal de l'émission que celle-ci porterait sur la passion du tuning. Grâce à un montage astucieux des discussions tenues tout au long de la journée avec eux, M6 a pu diffuser le sujet qu'elle souhaitait, flouant ainsi les gens enrôlés pour l'occasion. Bien sûr, on est là en face de pure malhonnêteté. Mais il reste qu'en tant que spectateur ne connaissant pas un sujet, on ne sait pas qui a été interrogé, combien de temps, ce qui a été conservé au montage, à quel point le reportage est orienté à l'appui d'une thèse particulière. On doit entièrement se reposer sur l'honnêteté et le sens du jugement des auteurs.

C'est pourquoi je pense que le problème de l'immédiateté se pose toujours du point de vue du spectateur, fût-il journaliste, qui tombe sur une information nouvelle. Il doit juger rapidement, parce qu'il a généralement autre chose à faire, si cette information est vraie. Et il a plus ou moins de chances de le faire selon qu'il ait été conditionné par la forme de l'annonce et des évènements passés ou selon que la nouvelle confirme, ou pas, ses croyances. Il est assez naturel que les gens qui font des annonces nouvelles travaillent au sujet en amont: leur élaboration requiert du travail qui ne se fait pas en un jour. La plupart des informations récurrentes sont dans ce cas. Par exemple, l'annonce des chiffres de la croissance économique requiert le travail des services de l'INSEE qui élaborent ensuite un communiqué pour présenter divers faits saillants. Mais on peut utiliser cette phase de travail pour préparer une opération médiatique. C'est ainsi que la présentation par Gilles-Éric Séralini de ses résultats bidons s'est accompagnée de publications simultanées ou presque de livres et reportages. C'est aussi le cas pour le premier exemple cité dans l'article du Guardian: si les frasques supposées de David Cameron avec une tête de cochon ont été diffusées, c'est pour faire la publicité d'un livre.

Pour espérer contrer cela, il faudrait que les rectificatifs des fausses nouvelles aient la même exposition que les annonces initiales et qu'ils soient systématiques. Malheureusement, ce n'est jamais le cas. Et, comme dans le cas du reportage de Cash Investigation, la réprimande des collègues est dans le meilleur des cas modérée: le premier Désintox de Libé se termine sur un dernier paragraphe où l'auteur se refuse à invalider l'ensemble du reportage sur cette base, alors que l'erreur est grossière et que toute l'émission semble basée là-dessus. Il s'est même trouvé au moins un journaliste pour pratiquement justifier le procédé. La suggestion de Gérald Bronner d'une sorte de Conseil de l'Ordre pour les journalistes pourrait être une solution, mais on se demande comment il trouverait tous les experts nécessaires ou comment il pourrait obliger les médias incriminés à faire amende honorable.

L'émiettement de l'offre

Par contre, là où Internet aide clairement les croyances, c'est dans l'émiettement de l'offre d'information. Depuis l'apparition d'Internet, des sites d'information nouveaux sont apparus dont la caractéristique est de s'adresser aux gens suivant leurs opinions (Contrepoints pour les libéraux, Fdesouche pour l'extrême droite, etc.). Internet sert aussi de répertoire d'arguments: c'est à cette fonction que le site d'Étienne Chouard dut sa renommée lors de la campagne référendaire de 2005. Mais je constate qu'en fait, Internet ne fait que prolonger une tendance déjà à l'œuvre, même si la perfection est presque atteinte.

Tout d'abord, il y a toujours eu une coloration politique à certains médias. Il est bien connu que Le Figaro est par exemple plus réceptif aux thèses de la droite française que ne l'est Le Monde, L'Humanité est le quotidien historique du Parti Communiste. Mais jusque vers les années 80-90, la concurrence idéologique semblait limitée aux médias écrits. La libéralisation qui s'est produite depuis a d'abord révélé que beaucoup de gens souhaitaient écouter de la musique à la radio, mais en 1996 Fox News s'est lancée. L'argument de vente n°1 de Fox News est son point de vue ouvertement pro-Républicain, comme celui de CNBC est d'être pro-Démocrate. L'émiettement ne date donc pas simplement de la diffusion massive d'Internet ou des réseaux sociaux, elle démarre sans doute avant avec la libéralisation des médias audiovisuels.

Ensuite il est vrai que dans ce domaine, Internet aide énormément. Internet diminue grandement les coûts de publication. Plus besoin d'imprimerie, d'émetteur radio. Internet a aussi changé le marché de la publicité, au moins pour les médias écrits. Les médias anciens comme nouveaux cherchent donc des financements, mais comme les informations en elles-mêmes sont disponibles partout, il faut proposer quelque chose d'autre: en l'occurrence, on peut leur proposer un point de vue sur le monde. Un business model possible est que les médias trouvent une clientèle en jouant sur les biais de confirmation d'une partie de la population, ou inversement, que la population se trie d'elle-même en se répartissant sur l'offre disponible suivant les différentes croyances. On peut voir ça sous un angle optimiste, mais évidemment le risque est que les fausses croyances ne s'implantent, sous l'effet d'une segmentation des médias suivant les groupes de population. Chaque groupe dans la population développerait alors ses propres croyances. C'est d'autant plus facile que les réseaux sociaux comme Facebook ont des algorithmes pour nous proposer principalement des choses proches de ce qu'on a déjà aimé, masquant le reste.

Enfin, cela relativise le pouvoir des médias en tant que tels. Une telle segmentation se produit surtout parce que la population se sélectionne sur des lignes éditoriales, les titres de presse essayant de nouvelles lignes éditoriales quand ils se sentent en perte de vitesse ou qu'ils sentent une opportunité. Il semble que Valeurs Actuelles ait fait évoluer sa ligne éditoriale ces dernières années. Il y a sans doute une lien avec les progrès électoraux du Front National et la disparition progressive des centristes du champ électoral. Les gens semblent se méfier des médias, mais est-ce parce que ces derniers ne disent pas la vérité ou parce qu'ils ne collent pas assez aux croyances des lecteurs? On peut aussi regarder dans le passé: au début de la IIIe République, il y avait de nombreux petits journaux d'opinion. Si Zola a publié son J'accuse…! dans L'Aurore, c'est parce que Le Figaro avait reçu de nombreuses protestations de lecteurs pour ses 3 premiers articles défendant Dreyfus. Cette affaire va d'ailleurs voir une partie non négligeable de la population continuer à croire en la culpabilité de Dreyfus malgré la révélation et la confirmation de faits accablants sur ceux qui l'ont envoyé au bagne. Une partie des positions de la presse reflètent donc les goûts du public, pas forcément une réflexion poussée sur un problème. Inversement, la population ne suit pas toujours les recommandations de la presse, comme le montrent les exemples du référendum sur le traité européen de 2005, le Brexit ou encore l'élection de Donald Trump. Quand les médias amplifient une rumeur, c'est souvent qu'il y a rencontre des croyances des journalistes et de celles de la population en général.

Comme la presse a pour but de relater des faits nouveaux, elle peut faire connaître largement des rumeurs qui sont encore largement ignorées par le plus grand nombre. Cela peut être relativement bénin quand on révèle les relations sentimentales de personnalités politiques. C'est bénéfique quand on révèle de vrais scandales publics. C'est par contre clairement néfaste quand on diffuse de pseudo reportages sur les dangers de la vaccination, ou un faux témoignage dans une affaire criminelle. Le problème est que la véracité n'est pas le premier déterminant de l'impact que peuvent avoir ces nouvelles, c'est plutôt l'accord qu'il y a entre ce qui est annoncé et les croyances des spectateurs et lecteurs. Pour que des faits réels mais qui s'insèrent mal dans le système de croyances de beaucoup de gens, il faut sans doute répéter de nombreuses fois et insister sur les preuves. Malheureusement, l'émiettement fait que les spectateurs peuvent fuir dès que le message ne plaît plus.

Cela rend plus difficile d'arrêter les démagogues qui mentent en jouant sur les croyances populaires. En effet, les médias sont parfois obligés de traiter certains sujets, ce qui donne une tribune à ceux-ci, même si les journalistes contredisent directement le tribun. Impossible par exemple de passer sous silence qu'il y a des gens qui appellent à voter «non» à un référendum! Le public ne répondant en partie que suivant ses croyances, la contradiction du journaliste tombe à plat: c'est pourquoi les rubriques de vrai/faux ne peuvent avoir qu'un impact limité sur certaines personnalités publiques. Une autre tactique est de profiter de l'émiettement des médias pour parler successivement à plusieurs audiences et leur dire ce qu'elles veulent entendre, que ce soit vrai ou faux, d'ailleurs! Évidemment, plus il y a d'émiettement et plus il y a de «silos» d'opinion, plus c'est facile.

En conclusion, il semble qu'incriminer Internet pour les contre-vérités dans les médias, c'est se tromper assez largement. Le problème de l'immédiateté dans les reprises et buzz n'est pas le seul problème, et on ne peut pas le contrer simplement en suscitant plus d'enquêtes de long terme: au fond on peut préparer un buzz de longue date! Là où la responsabilité d'Internet est claire, c'est dans la tendance à l'émiettement. Cela donne inévitablement des occasions supplémentaires pour les démagogues, mais c'est un mouvement qui avait commencé avant qu'Internet ne soit massivement utilisé. Cependant, vu le niveau de perfectionnement de plateformes comme Facebook, la segmentation de l'auditoire est sans précédent. Par ses actions sur Facebook, on peut signaler au fur et à mesure l'ensemble de ses propres croyances, ce qui permet ensuite de relayer surtout les contenu reflétant ces croyances. Même s'il n'y a pas plus de fausses nouvelles qu'hier dans les journaux, la faculté d'entendre et de lire uniquement ce qui confirme ce qu'on croit déjà devrait pousser à chercher leur élimination.

16 septembre 2016

Sarkozy l'opportuniste vire climato-sceptique

Nicolas Sarkozy, ancien Président de la République aspirant à le redevenir, s'est apparemment fendu de déclarations clairement climato-sceptiques lors d'une réunion publique. Il a déclaré: Cela fait 4 milliards d’années que le climat change. Le Sahara est devenu un désert, ce n’est pas à cause de l’industrie. Il faut être arrogant comme l’Homme pour penser que c’est nous qui avons changé le climat…. Pour ma part, je pense que ces déclarations confirme l'opportunisme de Sarkozy en matière d'environnement, qui ne s'embarrasse pas des faits scientifiques. Ces déclarations donnent aussi à voir que le courant climato-sceptique en France est plus fort qu'il n'y paraît au premier abord, puisque Sarkozy a jugé utile de tenir des propos aussi ineptes.

L'ineptie des propos ne fait aucun doute, dans tous les domaines. Ce n'est pas parce que le climat a changé dans le passé sans l'intervention des humains que ce n'est pas le cas aujourd'hui. Il existe aujourd'hui de nombreux éléments qui montrent que le réchauffement actuel est d'abord et avant tout dû aux activités humaines — utilisation de combustibles fossiles, fabrication de ciment, déforestation, élevage de ruminants —, au point que j'y avait modestement consacré un billet. D'autre part, Sarkozy laisse entendre que l'Homme n'aurait pas le pouvoir de transformer l'environnement, ce qui est tout aussi faux. Les exemples s'étendent jusque dans l'Antiquité, où par exemple, les défrichements romains ont largement façonné les paysages de Provence. Aujourd'hui, à cause de l'ampleur mondiale des activités humaines, il n'est pas étonnant qu'elles puissent avoir des conséquences sur l'équilibre du monde entier.

Ces déclarations relèvent d'un opportunisme certain. En effet, lors de son mandat présidentiel, Nicolas Sarkozy avait commencé par lancer le «Grenelle de l'Environnement», grand barouf où il s'agissait de discuter environnement, bien sûr, mais aussi et surtout des préoccupations des associations écologistes. En mars 2010, deux ans après la fin du grand barouf, il déclarait au Salon de l'Agriculture qu'il voulait dire un mot de toutes ces questions d'environnement. Parce que là aussi, ça commence à bien faire. Entretemps, à la COP15 à Copenhague, il avait déclaré Les scientifiques nous ont dit ce qu'il fallait faire, ils nous ont dit que nous étions la dernière génération à pouvoir le faire. (...) Qui osera dire que les deux degrés d'augmentation de la température ne passent pas par la réduction de 50 % des émissions dont 80 % pour nous les pays riches, parce que nous avons une responsabilité historique ?. En passant, un des faits marquants du Grenelle de l'Environnement avait été la pantalonnade du comité de préfiguration sur les OGMs, où l'avis des scientifiques avait été proprement piétiné, ce qui avait donné lieu ensuite à diverses annulations d'arrêtés sur le MON810. En fait, le seul point commun que j'aie trouvé entre ces déclarations et ces décisions est l'opportunité politique. Au début du mandat, il s'agissait d'ouverture et de continuer dans une lignée où les écologistes avaient le vent en poupe y compris à droite; en 2010, de plaire aux agriculteurs. Aujourd'hui, Nicolas Sarkozy est en campagne pour tenter d'être encore une fois le candidat de son parti aux élections présidentielles.

Plusieurs conclusions peuvent être tirées de cet épisode. D'abord, si l'ancien Président juge opportun de faire de pareilles déclarations, c'est qu'il doit toujours exister un courant climato-sceptique dans l'opinion, même s'il ne s'exprime pas souvent publiquement. Ensuite, sur nombre de questions, cela montre que Nicolas Sarkozy a peu d'égards pour les faits démontrés. Pour quelqu'un qui professe que le premier des défis de ces cinq prochaines années est celui de la vérité, c'est assez étrange, même si de nos jours ce genre de déclaration est en fait le prélude à un déluge de n'importe quoi émotionnel. Enfin, cela montre qu'un nouveau mandat de Nicolas Sarkozy risque d'être une répétition du premier en matière de comportement.

Évidemment, Nicolas Sarkozy profite d'un contexte où la vérité en politique n'a presque plus de valeur, comme peuvent le démontrer les succès de Donald Trump, du Brexit, ou plus éloigné, du référendum sur la constitution européenne. Il ne faut pas se tromper, ces épisodes ne sont pas passés inaperçus des professionnels de la politique. Ils en ont tiré la conclusion immédiate que ça ne servait pas à rien de pointer les faits, et qu'il valait mieux surfer sur une vague émotionnelle. Mais cela devrait inciter les gens qui tiennent un peu à ce qu'il se dise de temps en temps des choses exactes dans le débat public à écarter l'ancien Président de la candidature.

27 juillet 2016

Solar Impulse, ou pourquoi brûler du pétrole

L'avion Solar Impulse s'est posé à Dubai avant le lever du jour le 26 juillet, bouclant ainsi un tour du monde commencé il y a 15 mois. Il est clair qu'il s'agit d'une prouesse technologique, puisque l'avion rassemblait des cellules photovoltaïques à la fois minces et efficaces — avec un rendement de 23% — et des moteurs très performants — avec un rendement de 93%. C'est aussi un exploit d'endurance pour les pilotes qui devaient être capables de rester éveillés pendant une bonne partie des trajets au dessus des océans.

Cependant, Solar Impulse apparaît plus aujourd'hui comme une démonstration de la supériorité du pétrole que du potentiel de l'énergie solaire. En effet, on peut déjà remarquer qu'à la voile, on a déjà réussi à faire le tour du monde en 45 jours en équipage, et 78 jours en solitaire. Il est vrai que Solar Impulse n'est resté en l'air qu'un peu plus de 23 jours, mais le fait qu'il doive s'arrêter est dû aux contraintes de l'avion qui ne peut emporter suffisamment de nourriture et doit être piloté en permanence ou presque. Face au pétrole, on voit que Solar Impulse est en fait inférieur à l'avion de Lindbergh Spirit of St. Louis qui a rallié Paris depuis New York en 33h, contre 71h pour Solar Impulse pour rallier Séville. La raison en est simple: Solar Impulse ne dispose que de 70ch (environ 50kW) contre 223 pour Lindbergh.

Les comparaisons sont encore plus cruelles avec les avions actuels destinés au transport de passagers, qui volent à une vitesse de l'ordre de 800km/h, permettent de voyager dans une cabine pressurisée et climatisée ainsi que d'emmener des bagages. Pour cela, ils sont équipés de réacteurs ayant une poussée de 150 à 400kN: cela signifie que pour faire décoller un A320, il faut au minimum développer 12MW de puissance mécanique; pour un A380, c'est 70MW. Cela est tout à fait possible quand on utilise du kérosène: la densité de puissance d'énergie est de l'ordre de 12kWh/kg, contre 0.26kWh/kg pour les batteries de Solar Impulse. Même en comptant sur l'amélioration des technologies, il existe un gouffre entre Solar Impulse et les avions modernes qu'il sera difficile de combler. À surface couverte de cellules photovoltaïques constante, on ne peut espérer au maximum qu'une multiplication par 4 de la puissance disponible; inversement pour disposer de 70MW avec des cellules efficaces à 100%, l'ordre de grandeur de la surface à couvrir est 70 000 m², sachant qu'un A380 tient dans un rectangle de 6000m² … et ce ne sont que 2 exemples!

On comprend que pour le transport de matériels et de passagers, les énergies renouvelables comme le solaire ne sont pas assez denses. Les bio-carburants constituent la seule alternative viables et ils sont en fait une manière de rassembler en un petit volume l'énergie reçue sur une grande surface. Mais l'énergie solaire permet d'envisager de faire voler des drones pendant très longtemps. Cependant, qu'ils se déplacent n'est sans doute pas la priorité, ce qui leur sera demandé est sans doute des missions d'observation ou de relais télécoms. Pour cela, le dirigeable est nettement meilleur, puisqu'il ne dépense que très peu d'énergie pour rester en l'air. En fait, Piccard a surtout offert un beau joujou aux militaires et aux autres météorologues, pas vraiment une solution pour des transports sans pétrole…

10 juillet 2016

On devrait construire les villes à la campagne

Il y a à peu près 3 semaines, la pollution atmosphérique en général et les particules fines en particulier ont refait surface dans l'actualité, via les 48000 morts dus aux particules. Ce blog ayant déjà traité de ces questions dans le passé, la tentation de revenir sur le sujet s'est fait d'autant plus sentir que le rapport d'étude publié sur le site de l'INVS contient des données permettant de se livrer à quelques tests sur la question.

Dans les billets précédents sur la question, j'exprimais mon plus grand scepticisme envers des estimations similaires de mortalité. J'y voyais là le résultat de modèles utilisés jusqu'au delà de leurs limites et que les comparaisons faites avec des causes de mortalités telles que le tabac et l'alcool étaient déplacées. La lecture du rapport et les quelques tests statistiques que j'ai pu faire n'ont pas fait varier ce jugement. Pour tout dire, je trouve ces comparaisons avec les effets du tabac et de l'alcool contreproductives et dangereuses, car elles minimisent les dangers réels de ces 2 produits qui sont des causes majeures de mortalité en France (et dans le monde).

Il y a 2 raisons qui me font rester sur mon jugement d'origine:

  1. La publication qui sert de base à la simulation donne un surcroît de mortalité 2.5x supérieur à la plupart des études comparables, tout en ayant un large intervalle d'erreur. Avec la moyenne des études sur la question, l'estimation centrale de la mortalité attribuée aux particules serait plus basses dans les mêmes proportions, soit moins de 20000. Quoique toujours important, ce chiffre prête moins le flanc aux analyses ex post sur l'espérance de vie
  2. Une analyse statistique des espérances de vie par département ne montre un effet de la concentration en particules qu'à la seule condition d'accepter qu'une forte densité de population allonge l'espérance de vie, au point de compenser presque exactement les effets de la pollution.

L'étude

Le principe de l'étude est d'établir une cartographie fine de la concentration en PM2.5 au niveau de la France métropolitaine (hors Corse), puis d'utiliser un risque relatif de décéder, déterminé par ailleurs, pour calculer, à l'aide de la cartographie établie, les excès de mortalité causés par les particules.

La cartographie de la concentration en particules fines s'appuie sur plusieurs composantes. D'abord, il y a eu un travail de collecte des données sur des stations de mesure puis de reconstruction des émissions, là où les stations de mesure étaient absentes. Ensuite, un modèle reconstruisant le déplacement des particules dans l'atmosphère est utilisé pour rendre compte de leur étalement progressif. Le tout est fait avec une maille de 2km de côté et pour plusieurs années de 1989 à 2008. La carte obtenue est visible ci-dessous, où on voit qu'il y a une plus grande concentration de particules au nord, et qu'elle est minimale en montagne. cartePM25.jpg

Pour obtenir un chiffrage de l'excès de mortalité provoqué par les particules, il faut alors décider du risque supplémentaire de mourir provoqué par les particules (alias sur-risque), en fonction de la concentration de celles-ci dans l'atmosphère. En général, il est exprimé en pourcentage pour une hausse de 10 μg/m³. Dans le cas présent, l'étude a pris comme risque supplémentaire 15% pour une augmentation de 10 μg/m³. Au niveau de risque et de pollution aux particules considérés, la mortalité attribuée aux particules est à peu près proportionnelle au niveau du sur-risque: s'il était divisé par 2, le nombre de morts le serait grosso modo aussi. Le rapport contient un tableau, reproduit ci-dessous, qui liste les sur-risques obtenus par diverses études. Entourées en bleu sont les études qui ont servi pour le rapport, en rouge la méta-étude recommandée par l'OMS jusque récemment. etudes_PM25.jpg On peut remarquer 3 choses:

  1. La base de l'étude est pessimiste: elle part d'un sur-risque parmi les plus pessimistes puisque seules 2 études sur les 11 autres présentent un sur-risque supérieur
  2. La méta-étude de l'OMS de 2013 donne un sur-risque de 6% pour 10 μg/m³ soit 2.5x moins que la base de l'étude. Si elle avait été choisie comme base, on aurait pu s'attendre à ce que la mortalité supplémentaire soit divisée par le même facteur.
  3. Les études dont les intervalles de confiance à 95% (entre crochets) sont les plus resserrés sont parmi celles qui donnent des valeurs encore plus basses, de 4% pour 10 μg/m³.

Pourquoi avoir choisi un sur-risque de 15%? Le rapport dit que c'est pour garder la cohérence entre le sur-risque et les données sous-jacentes de concentration en PM2.5, parce que la puissance statistique était importante et parce que ces sur-risques ont été déterminés par des études françaises. Cela me semble surprenant, puisqu'il semble improbable qu'il y ait une forte différence entre les effets sur les Italiens et sur les Français des particules. La puissance statistique, au vu des intervalles de confiance, semble loin d'être extraordinaire; par ailleurs, le but de la méta-étude de l'OMS est de renforcer la puissance statistique en prenant en compte une bonne part des études sur le sujet. Enfin, le problème de la cohérence des données me semble surfait: un fort sur-risque ne se justifie pour cette étude que par une sous-évaluation des écarts de concentration en particules, or il se trouve que le modèle de concentration concurrent trouve moins d'écarts. Bref, les raisons invoquées ne me paraissent pas très convaincantes. Les conséquences sur le résultat final sont par contre évidentes: en choisissant le sur-risque maximal, la mortalité sortant du modèle est élevée.

L'espérance de vie et les PM2.5

En annonçant 48000 décès imputables aux particules, l'étude met les conséquences des particules sur pied d'égalité avec la consommation excessive d'alcool (49000 morts attribués) et pas si loin du tabac (60000 morts attribués). L'étude annonce aussi des gains possibles d'espérance de vie, par comparaison au cas de concentration uniforme en PM2.5 de 4.5 μg/m³, très élevés, puisque par exemple, elle donne le chiffre de 27 mois d'espérance de vie à 30 ans perdus pour Paris (p116). Le rapport donne aussi, à partir de la p71, les concentrations en PM2.5 pour la période 2007-2008, ce qui permet de pouvoir se livrer soi-même à quelques tests statistiques à partir de données disponibles publiquement, quoique pas forcément si aisément. On peut retrouver l'essentiel des données et les scripts qui ont permis de les récupérer sur cet espace Google Drive.

L'idée est de chercher des corrélations entre l'espérance de vie et certains facteurs dont on peut penser (ou pas) qu'ils ont un lien avec elle. Le premier pas est de récupérer des données:

  1. L'espérance de vie est disponible par département sur le site de l'INSEE. Malheureusement, l'INSEE ne propose pas d'évaluation de l'espérance de vie à 30 ans. Je me suis donc rabattu sur l'espérance de vie à 20 ans et j'ai considéré la moyenne entre l'espérance de vie des femmes et celle des hommes, ce qui revient en gros à considérer qu'il y a autant d'hommes que de femmes.
  2. On peut bien sûr penser que le niveau de vie influe sur l'espérance de vie, les riches vivant plus longtemps que les pauvres. J'ai utilisé le revenu disponible par unité de consommation, aussi disponible sur le site de l'INSEE.
  3. Un autre paramètre auquel on peut penser est la densité de population. J'ai plutôt utilisé le logarithme de la densité: cela correspond à l'idée intuitive qu'ajouter 50 habitants au km² en Lozère (15 hab/km²) changerait beaucoup les choses, ça ne changerait presque rien à Paris qui compte déjà plus de 20000 habitants par km².
  4. Avant de passer à des indicateurs liés directement à la santé, un indicateur qui "marche" bien est la part de vote extrême aux élections présidentielles de 2012, qui est la somme de la part des votes du premier tour étant allés à M. Le Pen, F. Arthaud, Ph. Poutou et J.-L. Mélenchon. J'ai constaté que cette variable était plus "efficace" que le niveau de vie. Je pourrais rationaliser tout ça en avançant l'hypothèse que le vote extrême exprime de mauvaises conditions de vie, mais ça me paraît surtout être un indicateur ad hoc qui se trouve combiner divers facteurs défavorables à l'espérance de vie.
  5. Un indicateur de mortalité lié à la consommation d'alcool. Le problème est qu'un indicateur direct de la consommation d'alcool n'est pas disponible au niveau départemental. Le site gouvernemental idoine ne donne que des indicateurs de mortalité ou des indicateurs au niveau régional. C'est pourquoi j'ai pioché dans la base du cepiDc (via un script perl) pour construire un indicateur sur la base de la mortalité avant 55 ans dûe à la cirrhose alcoolique (code CIM K70).
  6. Un indicateur de mortalité lié au tabac. Les difficultés sont assez similaires, amplifiées par des problèmes de taxation: il est bien connu que les taxes sur le tabac sont moins élevées en Belgique et en Allemagne, ce qui fait que de nombreux fumeurs s'y approvisionnent lorsqu'ils habitent à une distance raisonnable. Là aussi, j'ai pioché dans la base du cepiDc et l'indicateur est construit sur la base de la mortalité avant 55 ans dûe au cancer du poumon (maladie dont la part attribuable au tabac est la plus élevée, plus de 80%, code CIM C34).

Il y a certes un côté tautologique à considérer des indicateurs directement basés sur le taux de mortalité chez des gens assez jeunes pour constater qu'ils sont liés à une espérance de vie plus basse. Cela dit, la cirrhose alcoolique fait environ 1300 morts par an chez les moins de 55 ans, le cancer du poumon environ 4000 dans la même classe d'âge. C'est à comparer avec 40 000 décès dans la même classe d'âge et presque 600 000 décès annuels toutes classes d'âges confondues: on regarde une part raisonnablement faible des décès pour estimer que l'effet était a priori faible. De plus, que les maladies en questions soient provoquées avant tout par la consommation du produit incriminé (alcool ou tabac) ne fait plus de doute: il y a énormément de preuves scientifiques.

Quels résultats peut-on obtenir? La différence d'espérance de vie entre le département qui a l'espérance de vie minimale — le Pas de Calais — et celui où elle est maximale — Paris — est d'environ 4 ans et 4 mois (soit 52 mois). Le fait que Paris, le département où l'impact de la pollution est donné comme maximal, soit le département où l'espérance de vie est la plus élevée doit d'ailleurs amener à douter un peu des conclusions de l'étude: le handicap qu'on lui attribue est de la moitié de l'écart total. Certes, le Pas de Calais n'est pas le département le moins pollué, mais néanmoins, on voit qu'il va être difficile de réconcilier l'étude et les statistiques d'espérance de vie. Si on regarde maintenant s'il y a une relation entre la concentration moyenne en PM2.5 et l'espérance de vie, on voit qu'il n'y a en fait aucune corrélation visible directement (voir graphe ci-dessous). Le R² quantifie la variance «expliquée» par la (les) variable(s) considérées, on constate qu'il est nul. EV_PM.jpg

Bien sûr, ce n'est pas complètement fini: il est possible que l'effet des particules soit masqué par un (des) effet(s) bénéfique(s). Mais la concentration en PM2.5 est l'indicateur le plus faible quand on le teste seul. Par exemple, l'indicateur lié à l'alcool permet d'expliquer à lui seul plus de la moitié de la variance, même s'il est vrai qu'il est aussi corrélé assez fortement à l'indicateur sur le tabac. EV_Alcool.jpg

Quand on teste plusieurs variables simultanément, on s'aperçoit de même que la concentration en PM2.5 n'est que faiblement explicative. Par exemple, si on teste ensemble le niveau de vie, le tabac, l'alcool et les PM2.5, on trouve que:

  • L'alcool a un effet (en suivant la "meilleure pente") faisant perdre 24 mois d'espérance de vie entre le département le plus "alcoolisé" et le moins porté sur la bouteille
  • L'écart attribué au tabac est de 14 mois
  • L'écart attribué au niveau de vie de 19 mois
  • Pour les PM2.5, la pente n'est pas statistiquement significative, car elle est faible: l'écart est de 5 mois entre le département le plus pollué et le moins pollué, dans le sens conforme à l'intuition

Pour trouver un effet statistiquement significatif, il faut associer ensemble la concentration en PM2.5 et la densité de population. Il faut dire que ces deux variables sont liées entre elles (voir le graphe ci-dessous). Intuitivement, les départements au-dessus de la droite ont une espérance de vie plus basse que ceux qui sont en dessous. PM25_densite.jpg Ainsi, quand on ajoute au niveau de vie, au tabac, à l'alcool, aux PM2.5, la densité de population (ou plus exactement son logarithme), on trouve que:

  • L'alcool fait baisser l'espérance de vie de 23 mois et le tabac de 12 mois entre les départements extrêmes, ce qui est sensiblement la même chose que ci-dessus
  • Le niveau de vie crée un écart de 15 mois entre le département le plus riche et le plus pauvre
  • L'écart attribué aux PM2.5 est une perte de 16 mois, compensé par un gain dû à la densité de population de 19 mois. Autrement dit en passant des Hautes-Alpes à Paris, il n'y a aucun gain d'espérance de vie ou presque de ce fait. Par contre, si on se déplace perpendiculairement à la droite de tendance du graphe ci-dessus, l'écart est d'environ 7 mois.

Si on prend cette modélisation statistique au pied de la lettre, il faudrait d'urgence construire des villes à la campagne car l'air y est plus pur. On gagnerait sur les 2 tableaux puisqu'on profiterait à la fois de la baisse en concentration en PM2.5 et de la hausse de la densité de population. Si on regarde les cartes, il faudrait toutefois éviter les campagnes du nord de la France qui ont tendance à être plus polluées que celles du sud. Cependant, au risque de doucher l'enthousiasme, il me semble plutôt qu'on est en face d'un artefact statistique, l'INSEE signalait — certes il y a maintenant un certain temps — que les banlieusards de province avaient tendance à mourir plus tard que les habitants des centre-villes.

Quelques conclusions

Après cet exercice statistique, je trouve encore et toujours que les gros chiffres de mortalité due à la pollution atmosphérique, dont raffolent les médias, sont grossièrement surévalués. La modélisation qui sert de base au chiffre de 48000 morts prétend que l'espérance de vie à Paris est diminuée de 27 mois. Or il se trouve que Paris et ses banlieues aisées affichent les espérances de vie parmi les plus élevées de France, tout en étant les plus polluées. De façon générale, il n'y a pas de corrélation claire entre l'espérance de vie et les niveaux de pollutions tels qu'affichés par l'étude, ce qui pointe vers un impact de la pollution qui, tout en restant bien entendu négatif, serait nettement plus faible que celui qui a fait les titres des journaux.

Une autre conclusion qu'on peut tirer, c'est que, décidément, les effets de l'alcool ou du tabac n'ont rien de comparable à ceux de la pollution. L'alcool et le tabac sont associés à des maladies dont ils créent l'immense majorité des cas et où il y a une longue littérature médicale sur le sujet. Ces maladies sont mortelles dans bien des cas. Pour l'alcool, cela se double d'une détérioration du comportement et des qualités physiques et mentales, ce qui fait qu'en plus des maladies, on a déplorer des suicides et des morts par accidents de la route. C'est sans doute pour cette raison, qu'en plus de la sévérité des maladies que l'alcool entraîne, il semble associé à une baisse plus forte de l'espérance de vie que le tabac. Mais ces 2 produits partagent une caractéristique: leur impact sur l'espérance de vie est net, il est apparent sans avoir à démêler différents effets. La pollution atmosphérique est bien loin de cela.

Enfin, il serait bon que ces chiffrages de mortalité liés à la pollution s'accompagnent de vérifications a posteriori. En effet, ces études sont toutes construites sur le même principe d'étudier une cohorte où regarde les effets de certains produits pour obtenir une quantification des risques liés. C'est une détermination des dommages a priori. Cependant, lorsque les effets annoncés sont importants, on peut vérifier la cohérence de ce qui a été trouvé sur la situation sanitaire globale: une perte de 2 ans d'espérance de vie entre 2 départements, c'est déjà beaucoup! De telles vérifications permettraient peut-être de se passer de comparaisons inappropriées entre la pollution et le tabac ou l'alcool.

26 juin 2016

Out

Le Royaume-Uni a voté pour sortir de l'Union Européenne. Comme cela était prévisible, la campagne a été marquée par des thèmes xénophobes et une certaine violence dans les propos, au point qu'un déséquilibré se soit cru autorisé à assassiner une député partisane de l'Union Européenne. Ce scrutin britannique ne fait que confirmer une tendance où les fondements même de l'Union sont menacés par la désaffection et l'opposition grandissante des citoyens des différents pays qui la compose.

Que la sortie de l'Union l'ait emporté n'est pas totalement une surprise. Le parti conservateur est devenu de plus en plus eurosceptique à partir du départ de Margaret Thatcher, qui a peut-être lancé le mouvement en demandant le fameux rabais britannique. Toujours est-il qu'en 2009, le parti conservateur avait dérivé suffisamment loin de ces confrères continentaux de droite et avait créé son propre groupe au Parlement Européen. À lui seul, ce geste montrait bien que le courant eurosceptique avait un poids prépondérant au sein des Tories. Et de fait, tous les leaders conservateurs ont dû faire des concessions aux eurosceptiques ne serait-ce que pour s'installer et se maintenir à la tête du parti: c'est ainsi que David Cameron promit d'organiser un référendum sur la sortie de l'UE en 2013 s'il était encore Premier Ministre après les élections de 2015. À sa droite, un parti, l'UKIP s'est constitué pratiquement sur ce seul thème; c'est ce parti qui a remporté le plus de voix, et le plus de sièges, aux élections européennes de 2014. À sa gauche, les Travaillistes ont porté à leur tête Jeremy Corbyn, de l'aile la plus à gauche et qu'on peut décrire au maximum comme moyennement enthousiasmé par l'Union.

L'Union Européenne est basée sur 3 principes: le libre-échange, la liberté de circulation et des règles communes. Les 3 sont d'ailleurs liés: le libre-échange demande des règles communes pour être étendu au maximum et éviter les accusations de dumping, et une fois le libre-échange très étendu, il est difficile d'expliquer que les individus doivent être confinés à l'intérieur de leurs frontières, etc. Les partisans de la sortie étaient clairement opposés à au moins un des 3 principes, voire aux 3 à la fois. De ce fait, il est à peu près inévitable que la campagne ait des relents xénophobes: les xénophobes sont en désaccord avec les 3 et la xénophobie est la manière la plus directe pour exprimer tout désaccord avec ces principes, fût-il partiel. attac_breaking_point.jpg C'est ainsi que les campagnes contre l'UE sont populistes et émaillées de mensonges énormes. La raison pour laquelle ces campagnes marchent est que les électeurs sont de moins en moins favorables aux 3 principes fondateurs de l'UE. Le discours des dirigeants politiques ne fait que refléter cette évolution. Dans le cas britannique, les partisans du non étaient massivement contre les règles communes — c'est la base de l'euroscepticisme des Tories —, la liberté de circulation — voir le poster ci-dessus — et, même si peu de partisans officiels de la sortie l'ont dit ouvertement, la carte électorale montre que ce sont les régions les plus touchées par la désindustrialisation qui ont voté pour sortir, ce qui veut dire que les électeurs voulant la sortie n'étaient sans doute pas si favorables au libre-échange que ça.

Tout ceci ne devrait pas surprendre. Déjà, lors du référendum de 2005 en France et aux Pays-Bas, on a retrouvé ce mélange de mensonges éhontés — les posters d'ATTAC en sont un bon exemple — et de duplicité faisant croire qu'un accord résolument meilleur est à portée de main. Les suites des différents référendums ne font que renforcer le mécontentement des électeurs. D'une part, parce qu'ils ne regardent pas la faiblesse de ce que proposent réellement les opposants: Fabius proposait en fait de discuter d'une partie du traité déjà en place en rejetant celles qu'il approuvait. D'autre part, parce que les gouvernements ont toujours choisi d'éviter l'abîme malgré les votes, comme en Grèce en 2015, donnant l'impression d'une trahison aux électeurs. Le dernier référendum en date avant le Brexit, en Hollande, n'augurait déjà rien de bon sur ce plan. Ainsi, la légitimité du projet européen s'effrite peu à peu, alors qu'elle n'a jamais été bien grande et que les États ont toujours conservé l'essentiel de la légitimité pour prendre des décisions.

Face à cela, les partisans de l'Union sont confrontés à la réalité de la gestion quotidienne, toujours compliquée et peu télégénique, tant la plupart des compétences déléguées à Bruxelles sont techniques. Comme il y a aussi une opposition très répandue aux principe de base du projet européen, aucun projet nouveau d'envergure ne peut raisonnablement être proposé. Les projets proposés servent d'abord à colmater les brèches créées par diverses crises: on conçoit qu'ils ne soulèvent pas l'enthousiasme. La confiance entre pays fait aussi défaut, il faut dire que certains pays ne respectent ouvertement pas leurs engagements, comme la France sur la discipline budgétaire: beaucoup de pays, et particulièrement la France, semblent dire d'accord à plus de règles communes, à condition qu'elles aillent dans mon sens. C'est pourquoi je pense que les discours sur la refondation de l'UE sont illusoires. Quant aux appels à plus de démocratie, ils se trompent de cible: l'UE manque de légitimité; le «plus de démocratie» risque surtout de se traduire par des redites du dernier référendum hollandais. Au fond, tant que les 3 principes de l'Union seront en recul dans l'opinion et que les opposants pourront exploiter la crédulité de tous, l'Union Européenne continuera à se déliter.

12 juin 2016

Les affres du glyphosate

En ce moment se déroule un psychodrame autour du renouvèlement de l'autorisation de mise sur le marché du glyphosate, un des herbicides les plus utilisés au monde. Le débat se concentre sur la dangerosité du glyphosate et plus précisément son éventuelle tendance à provoquer des cancers. Pour évaluer ce type d'effets, les agences d'évaluation des risques sont mandatées. Dans le cas du glyphosate, c'est l'agence allemande qui a été chargée du rapport.

Les conclusions du BfR — et donc de l’EFSA — sont que le glyphosate n’est probablement pas cancérogène. Mais le CIRC a classé au début 2015 le glyphosate comme probablement cancérogène, sa catégorie 2A. Comme la Commission Européenne doit renouveler l’autorisation de mise sur le marché du glyphosate d’ici au 30 juin pour qu’il continue à être vendu, il s’en suit une bataille autour de ce produit dans l’arène publique. Cela donne des articles où certains points de vue sont clairement avantagés par rapport à d’autres.

À titre personnel, je retrouve beaucoup d’aspects liés au dévoiement du principe de précaution dont on parlé autrefois sur ce blog. Si la décision d’autorisation du glyphosate (ou son absence) ne relèvent pas nécessairement du principe de précaution, on retrouve grosso modo les 3 éléments que sont la demande du dommage zéro, la construction de scénario apocalyptiques et la disqualification des adversaires.

Le dommage zéro

La demande de Dommage Zéro se retrouve simplement dans cette histoire : il s’agit de dire que, puisque le glyphosate est un cancérogène probable, il doit être interdit. Or, il se trouve que cet argument est insuffisant. En effet, les évaluations des agences de sécurité portent aussi sur le nombre absolu de victimes potentielles !

Il se trouve aussi que les autorisations ne dépendent pas que de la dangerosité d’un produit. Pour s’en convaincre, il suffit de faire un tour dans un hypermarché :

  1. On y trouve des couteaux, qui son indéniablement dangereux. Une centaine de meurtres par an sont commis à l’aide d’armes tranchantes (source: CépiDc, catégorie X99)
  2. On y trouve des produits d’entretien, comme l’eau de Javel, des bases (débouche évier «Destop») dont les modes d’emploi préconisent d’appeler des centres anti-poison dans diverses circonstances
  3. Pour ce qui est des aliments, on y trouve des boissons alcoolisées, qui sont cancérigènes de classe 1, c’est-à-dire de façon certaine. On estime que l’alcool est à l’origine d’environ 200 maladies et qu’il provoque quelques 49000 morts par an en France.
  4. Les salaisons (par exemple, le saucisson) sont cancérigènes de classe 1, la viande rouge de classe 2A — la même que le glyphosate —, la viande grillée est connue pour contenir divers composés cancérigènes
  5. Le sel est connu pour faciliter des maladies comme l’hypertension. Une méta-étude a montré qu'il favorise les infections de la bactérie qui provoque le cancer de l’estomac. Le sel de table sera donc peut-être lui aussi classé cancérigène un jour !
  6. Si on se limite à la toxicité pour les animaux, le chocolat est toxique pour les chiens et les chats à cause de la théobromine. La caféine a des effets similaires sur nos amis à 4 pattes.
  7. Enfin on peut remarquer que des aliments anodins comme l’eau peuvent être mortels en cas d’excès. Pour l’eau on appelle cela la noyade.

Les exemples ci dessus peuvent parfois sembler incongrus ou déplacés. Cela dit, ils montrent qu’il suffit de forcer suffisamment la dose pour rendre quelque chose nocif. Même quand un aliment est absolument nécessaire à la vie comme dans le cas de l’eau ou du sel, on arrive toujours à trouver une dose nocive. Dans la réalité, on ne peut donc pas demander qu’il y ait zéro risque ou absolument zéro dommage : c’est impossible.

Pour les agences de sécurité, il s’agit donc plutôt d’établir une balance entre les risques et les bénéfices. Bien entendu, on voit alors qu’il faut prendre en compte les usages ainsi que les alternatives. Il faut donc se demander qui concerné par les risques, dans quelles conditions et essayer de déterminer ce qui va se passer en cas d’interdiction ou de libéralisation.

De l’autre côté, demander le Dommage Zéro est pratique de par son utilisation polémique. En effet, cette demande ne peut s’appliquer qu’arbitrairement, puisque tout est potentiellement nocif. Demander et arriver à obtenir que le Dommage Zéro soit la norme est un outil qui permet de cadrer avantageusement le débat sur une interdiction d’un produit qu’on a choisi en amont.

Les scénarios apocalyptiques

Bien cadrer le débat ne suffit pas ; il faut que la conviction d’une grande dangerosité s’installe pour qu’un produit soit interdit, particulièrement s’il est déjà utilisé depuis longtemps, comme le glyphosate.

Le lien avec le cancer participe de cette stratégie, la maladie a une image aujourd’hui probablement pire que les maladies infectieuses. On peut aussi donner dans les associations rapides, par exemple, en analysant des mèches de cheveux. L'association est claire: le poison est omniprésent. Sauf que rien ne montre que puisqu’on peut détecter une substance, elle soit en quantité dangereuse. Dans la même logique, on peut commander un reportage bienveillant. Ce reportage propage des idées infondées et se trompe largement, mais peu importe : rien que grâce à sa diffusion, la «cause» a avancé et des gens sont convaincus qu’on nous empoisonne !

Si on regarde posément l’ensemble des informations disponibles, la conclusion qui se dégage est que le glyphosate n’est probablement pas un danger pressant. Tout d’abord, le CIRC se prononce sur le degré de certitude de la relation entre une cause et des cancers, sans que ce soit nécessairement lié à une quantification de l’impact. Le degré de preuve nécessaire pour entrer en catégorie 2B est par ailleurs très faible comme en témoigne cet article sur la classification des ondes radio-fréquences dont est extraite l’image ci dessous. En français clair, il n’y a qu’un seul article scientifique qui pointait vers un lien, il est infirmé par les études a posteriori et on ne connaît aucun mécanisme biologique qui permettrait d’expliquer l’apparition de cancers, mais on a quand même classé en « cancérigène possible » malgré tout. RF_EMF_decision.jpg

Même quand le lien est clairement établi, ça ne veut pas dire qu’on doit arrêter la commercialisation toutes affaires cessantes : le lien peut n’être établi qu’à partir d’une certaine dose, l’effet être faible et il peut aussi y avoir des effets bénéfiques plus généraux. C’est ce qu’on constate avec les salaisons dont on a déjà parlé plus haut : on continue d’en vendre en France et pour cause ! On estime que manger 50g de salaisons tous les jours augmente le risque de cancer du côlon de 18 % (OMS, point 13). Il faut dire que la publication du CIRC avait été accompagnée d’explications sur les sites internet (au moins anglo-saxons) et que, par ailleurs, manger des salaisons peut très bien s’intègrer dans une alimentation équilibrée et a donc des bénéfices.

Pour ce qui est du glyphosate, il faut d’abord se rappeler que les éventuelles conséquences pour le grand public n’ont jamais fait doute. L’OMS et la FAO l’ont rappelé : il n’y a aucun danger par voie alimentaire aux doses qu’on trouve sur les aliments. D’ailleurs, ce n’est pas une surprise: déjà au début des années 90, un papier signalait que 99.99 % des résidus de pesticides que nous ingérons sont fabriqués par les plantes elles-mêmes et que la moitié de ces substances avaient déjà montré un effet cancérogène chez les rongeurs, pour d’autres on avait montré qu’ils étaient mutagènes ou endommageaient l’ADN. Le problème du glyphosate n’a jamais concerné que les utilisateurs professionnels (c’est à dire essentiellement les agriculteurs).

Et pour utilisateurs professionnels, on constate que :

  1. il y a désaccord entre le CIRC et les agences de sûreté ce qui amène à penser que le caractère probant des éléments à charge n’est pas évident en partie à cause du point suivant
  2. les conséquences de santé publique, en termes absolus, seraient de toute façon faibles ; ce à quoi on pouvait s’attendre s’il faut 40 ans pour s’apercevoir que l’herbicide le plus utilisé au monde a un caractère dangereux pour les utilisateurs

La disqualification des contradicteurs

Comme le scénario apocalyptique rencontre des contradicteurs, on peut envisager de les disqualifier. C’est clairement transparent dans l’article de S. Foucart exposant la controverse : il est clairement fait allusion à de possibles conflits d’intérêts, façon contemporaine et permettant d’éviter les prétoires de dire que certaines personnes sont corrompues. De la même façon, le reportage de Cash Investigation montre l’industrie en plein lobbying, alors que les opposants aux pesticides se présentent comme ignorés du pouvoir. De fait, il s’agit de propager l’idée que ceux qui défendent les pesticides le font pour protéger leur bifteck, pour des raisons inavouables, ou parce que ce sont des idiots utiles.

De façon plus générale, on se doit de constater que le manque de relais dans la presse de l’EFSA contraint ses dirigeants à réagir, parfois dans des forums clairement hostiles, plutôt qu’à exposer ses conclusions directement. De fait, on voit beaucoup l’EFSA se faire taper dessus, nettement moins l’EFSA tenter d’expliquer dans la presse pourquoi et comment elle est arrivée à ses propres conclusions.

Dans le débat public, il me paraît clair que sur cette question du moins, l’organisme qui devait apporter l’avis scientifique et technique le plus complet a été totalement marginalisé, par manque de compétence médiatique et aussi suite au travail de sape sur plusieurs années des opposants.

Quelques conclusions

Comme les agences de sécurité et leurs employés ne sont pas du tout préparés à se défendre sur un terrain politique et qu’il n’y a en fait pas de force politique véritablement organisée pour soutenir leurs conclusions, le «débat» est à sens unique et un point de vue est avantagé dans les médias, sans forcément qu’il soit le plus proche de la vérité.

u fond, tout ceci n’est guère étonnant : comme avec les OGMs, on se trouve ici face à un conflit entre un avis scientifique et un but politique avoué — la fin des pesticides (enfin, pas tous : la bouillie bordelaise n’est jamais visée par ces associations). Plus généralement, il s’agit en fait de s’opposer à l’agriculture industrielle, un des fondements de l’idéologie écologiste, alors que l’agriculture industrielle est ce qui permet de nourrir des milliards d’hommes. La tactique est bien rôdée : celle d’arriver à imposer petit à petit des revendications incroyables par un grignotage progressif. Avec l’interdiction du glyphosate, ils se rapprocheraient d’un de leurs buts affirmés : que l’agriculture soit entièrement « bio », quelque puissent en être les conséquences.

9 avril 2016

Les ondes radio sont sans danger

Les ondes électromagnétiques constituent un domaine très vaste puisque le spectre électromagnétique ne connaît pas de limite de fréquence. Il s’étend des rayons gamma aux ondes radio en passant par le visible. En ce sens, elles sont présentes partout autour de nous.

800px-Domaines_du_spectre_e_lectromagne_tique.svg.png Le spectre électromagnétique (par Benjamin ABEL — Wikimedia Commons)

Mais ce qui est souvent affirmé publiquement de nos jours c’est que la partie du spectre utilisée pour les télécommunications ― une partie des micro-ondes ― est dangereuse pour la santé. Remarquant en quelque sorte la proximité entre la fréquence utilisée dans les fours à micro-ondes (2.45GHz) et celle utilisée par le WiFi (autour de 2.4GHz), on pourrait certes se demander si le WiFi ne nous cuisinerait pas à feu doux.

Quelques ordres de grandeur

Commençons par quelques remarques sur le spectre électromagnétique dont les ondes radio sont une partie, tout comme la lumière visible ou les rayons X (voir la figure ci-dessus).

Il est classiquement découpé suivant les fréquences des ondes qui se propagent, qui leur donne des caractéristiques bien différentes. En effet, toute onde électromagnétique représente le déplacement de photons. Plus la fréquence est élevée, plus l’énergie d’un photon est élevée. Les photons de la lumière visible ont ainsi chacun une énergie environ 500 000 fois plus élevée qu’un photon d’une onde radio à 1GHz.

Les photons dans le domaine des Ultra-Violets peuvent induire des réactions chimiques du fait de leur grande énergie. Pour les photons des ondes radios, c’est impossible : il faudrait que 500 000 photons passent au même endroit au même moment !

Le nombre de photons transportés peut varier avec l’énergie transportée. Elle est comptée en W/m². Une autre façon de mesurer un champ électromagnétique est de s’intéresser au champ électrique en V/m. La relation entre les deux est quadratique : quand le champ est 2 fois plus faible, l’onde transporte 4 fois moins d’énergie, et 100 fois moins quand le champ est divisé par 10.

Pour donner des ordres de grandeur, à midi solaire et sans nuages, la puissance reçue est entre 500 et 1000W/m² sous nos latitudes suivant la période de l’année. Dans le domaine des ultraviolets, la puissance est de l’ordre de 1 à 2W/m² pour les UVB et 30W/m² pour les UVA. Comme les photons ultra-violets sont très énergétiques, il peuvent induire des dégâts sur l’ADN dans les cellules de la peau, contrairement aux ondes radio. Les ultraviolets, notamment les UVB, sont ainsi jugés responsables par l’OMS de 80 à 90 % des mélanomes malins, dont il y a plus de 10000 cas par an en France. Cela explique que les pouvoirs publics appellent à faire attention à son exposition au Soleil.

On peut aussi donner un aperçu des différences qu’il peut y avoir entre le four et le WiFi : un four à micro-ondes en fonctionnement consomme à peu près 1000W, dont mettons 50 % est transformé en rayonnement. L’onde reste confinée dans l’espace où on met les aliments qui mesure à peu près 20cm de côté. En face de cela, un routeur WiFi va péniblement émettre 100mW (10 000 fois moins!) pour permettre de couvrir un appartement de 100m². Les puissances en jeu n’ont donc rien à voir !

Les recommandations

Dans le domaine des ondes radio, il existe un organisme reconnu par l’OMS qui s’occupe d’étudier la question des impacts sur la santé : l’ICNIRP. Cet organisme publie notamment des recommandations (en, fr) où l’état de la science est passé en revue. Pour ce qui concerne les fréquences utilisées pour les télécoms et le WiFi, l’effet sur le corps humain consiste en une hausse de la température. Il n’y a aucun effet comme les atteintes directes à l’ADN : chaque photon ne transporte pas assez d’énergie pour briser des liaisons chimiques.

Pour établir sa recommandation pour le public, la commission regarde quel champ provoque un échauffement de 1°C du corps humain, puis divise le flux de puissance par 50. Au final, on a donc un échauffement local dû aux ondes de 0.02°C. Les valeurs sont données dans le Tableau VII ci-dessous. Reco_ICNIRP.jpg On y voit que pour le WiFi (autour de 2.4GHz), la recommandation est de 61V/m, soit 10W/m², et à 900MHz, fréquence historique du téléphone mobile, de 41V/m. La réglementation française reprend ces valeurs.

En ce qui concerne les antennes, en Angleterre, on a constaté que les niveaux dus aux antennes ne dépassaient pas 2% de la recommandation (en termes de puissance). En France, plus de 97% des mesures sont à moins de 10% de la recommandation en termes de champ. Comme dit plus haut, cela correspond à 1% en termes de puissance et donc d’échauffement. 80% des mesures sont à moins de 2V/m soit 0.25% de la recommandation en termes de puissance pour la bande des 900MHz. On constate donc qu’en dehors de cas exceptionnels, l’échauffement dû aux antennes est inférieur à 0.0002°C.

Quant aux téléphones, on peut accéder aux données des fabricants les plus connus sur leur site internet (exemple). Les émissions sont souvent proches de 50 % de la recommandation, soit un échauffement dû au champ radio de 0.01°C.

Les études épidémiologiques sur le cancer et les ondes radio

Même si on voit qu’a priori il y a toutes les chances pour que les ondes radio n’aient pas d’incidence sur la santé des études épidémiologiques ont été conduites pour vérifier si c’était bien le cas.

L’étude la plus mentionnée est sans doute INTERPHONE. Parmi les résultats médiatisés de cette étude, il y aurait une augmentation du risque de certains cancers pour les 10 % des plus gros utilisateurs. Cependant, même si c’était confirmé, cette augmentation du risque serait extrêmement faible: le surplus de cas de cancer serait de 60 par an, à comparer aux 350000 cas annuels, tous cancers confondus.

L’étude comporte aussi un biais important : elle se base sur l’utilisation du téléphone rapportée après coup par les malades. Comme le cancer se développe avec un temps de latence important, il est aisé pour les gens de se tromper de bonne foi. Il faut donc pour bien faire confirmer à l’aide d’autres types d’études. C’est ainsi qu’une étude danoise de cohorte suivant l’état de santé de toute la population sans a priori n’a trouvé aucun effet. De même, si les téléphones ont un impact important sur l’apparition de certains cancers, on devrait le constater via une augmentation du nombre de ces cancers. Or, ce n’est pas le cas: le nombre de cas de cancers qui pourrait être liés au téléphone est stable, malgré l’utilisation intensive qui en est faite depuis maintenant de longues années.

gliome_model_comparison.jpg Incidence constatée du gliome (type de cancer) comparée à différents modèles.

Dans d’autres domaines, on n’a pas constaté de maladies professionnelles liées aux ondes radio (exemple avec les radars). Tout porte ainsi à croire que les ondes radios utilisées pour les télécoms n’ont pas d’effet délétère sur la santé. Comme le dit l’OMS : « À ce jour, il n’a jamais été établi que le téléphone portable puisse être à l’origine d’un effet nocif pour la santé. »

Le cas des électro-hypersensibles

Mais alors, pourquoi y a-t-il des articles dans les journaux sur les électro-hypersensibles ? La réponse est que si ces gens sont bien malades, la cause n’est pas celle qu’ils dénoncent. En effet, les expériences scientifiques ont toujours montré que le corps humain ne peut détecter les ondes radio. Les résultats sont les mêmes que l’exposition soit réelle ou simulée :

  • Lorsqu’ils étaient réellement exposés à des ondes radio, les électro-hypersensibles mentionnaient de plus forts maux de tête dans 60 % des cas
  • Lorsqu’ils étaient exposés de façon factice à des ondes radio, ils mentionnaient de plus forts maux de tête dans 63 % des cas, une proportion très similaire.

C’est ce qui a amené l’AFSSET (depuis devenue l’ANSES) à écrire que « les seuls résultats positifs obtenus à ce jour sur le plan thérapeutique sont ceux obtenus par des thérapies comportementales ou des prises en charge globales. » L’OMS est du même avis, puisqu’elle déclare qu’il n’y a «aucune base scientifique» reliant ces symptômes aux champs électromagnétiques.

On peut donc dire que ces articles alertant sur le cas des hypersensibles ne donnent pas un bon aperçu du consensus scientifique et qu’accepter sans distance critique le regard que les malades portent sur leur propre condition n’est pas le meilleur service à leur rendre.

Conclusion

Les ondes radio utilisées dans les télécoms sont sans danger pour la santé humaine. C’est ce qu’il ressort du consensus scientifique sur la question. Au fond, c’est cohérent avec l’historique qu’on en a : les ondes radio sont utilisées depuis plus d’un siècle et l’invention de la radio, ses usages n’ont fait que se développer. Les travailleurs du secteur (radio, radars, …) ont donc été plus fortement exposés que le public d’aujourd’hui, mais aucune maladie professionnelle n’a été détectée.

Il serait donc dommage de se priver d’inventions parmi les plus utiles des 40 dernières années et qui vont continuer à trouver de nouvelles applications. Le téléphone portable est devenu un moyen presque indispensable de communication et rend de grands services, au point que la fin des «zones blanches» est devenue une revendication des élus de zones rurales.

L’activité législative restrictive en ce domaine est déplorable, en ce qu’elle amène jeter le doute sur le consensus scientifique d’innocuité.

NB : ce texte s’inspire de 2 textes en anglais, sur le site du Guardian et FiveThirtyEight.com ; ainsi que de ce billet du pharmachien.

16 février 2016

Éradication

Il n'est pas très courant de voir pousser une logique philosophique à son terme, et c'est pourquoi il me semble intéressant de lire le billet d'Audrey Garric, journaliste au Monde, a publié sur son blog à propos de l'éradication des moustiques. Chacun sait que ces dernières années, le moustique tigre a agrandi son aire de répartition et a amené avec lui les maladies qui l'accompagnent, la dengue, le chikungunya et le zika. Cette dernière maladie est actuellement l'objet d'une attention particulière car de nombreux cas sont apparus au Brésil — avec comme conséquence de nombreux cas de microcéphalie. Une des voies de lutte contre ces maladies est de chercher à développer des vaccins — qui deviennent potentiellement rentables maintenant que ces maladies touchent nettement plus de monde et que la clientèle est plus solvable. Une autre est aussi de lutter contre le vecteur de la maladie: le moustique. Le paludisme, véhiculé par les anophèles, soulève des questions très similaires et on peut soit chercher un remède contre le parasite responsable, soit lutter contre le vecteur.

Le post donne la parole a des entomologistes qui disent carrément qu'on peut se passer des espèces de moustiques qui véhiculent des maladies, parce qu'ils seront soit remplacés par d'autres espèces de moustiques moins dangereuses pour l'homme, soit remplacés par d'autres types d'insectes. Mais en fin de billet on voit apparaître la raison pour laquelle la question n'est pas évacuée comme impossible: il y a de nouvelles techniques pour essayer de diminuer les populations de moustiques. 3 méthodes sont apparues:

  1. Infecter les anophèles avec une bactérie qui rend impossible la transmission du paludisme.
  2. L'utilisation de moustiques transgéniques mâles dont la descendance meurt au stade larvaire, fabriqués grâce à une technique qui a le vent en poupe.
  3. Utiliser des moustiques transgéniques pour rendre impossible la transmission du paludisme, gêne qui se répand grâce à une variante de la même technique.

La deuxième technique a de très bon taux de succès puisque des tests ont montré une chute de 80% de la population de moustiques tigre. Vu la voie d'action du procédé — par lâcher de moustiques mâles qui iront s'accoupler avec des femelles —, il est peu probable qu'une résistance se développe à court terme contrairement aux insecticides. Ce type de technique a d'ailleurs déjà été utilisé avec succès dans la cas de la lucilie bouchère.

La réponse finalement apportée par Audrey Garric est à mon sens résumée dans la dernière phrase du billet: peut-on supprimer des espèces entières, aussi meurtrières soient-elles, quand les humains eux-mêmes constituent un danger pour la nature dans son ensemble ?. Elle paraît donc essentiellement négative; finalement l'homme n'aurait pas le droit d'éradiquer les moustiques vecteurs de maladies parce qu'il est lui même corrompu et fondamentalement mauvais, car il passe son temps à rompre l'équilibre naturel des choses. L'impression qui se dégage est que l'espèce humaine — enfin, pour l'instant, la partie qui vit sous les tropiques — doit accepter la malédiction que sont les maladies véhiculées par les moustiques un peu comme un châtiment pour les destructions qu'il provoque par son activité. Souvent, la biodiversité est présentée par ses défenseurs comme un but en soi, n'ayant pas besoin d'autre justification, ce qui peut amener à se poser la question de savoir si la défense de la biodiversité s'étend aussi à des organismes clairement nuisibles tels que le virus de variole. La réponse suggérée dans le billet s'approche très près d'une telle affirmation.

Qu'on puisse préférer des espèces nuisibles au bien-être de l'homme me dépasse. Surtout dans le cas où, comme ici, il n'y aura sans doute aucune conséquence notable de la disparition de ces espèces de moustiques dangereuses pour l'homme autre qu'un plus grand bien-être pour ce dernier. Les personnes interrogées sont claires sur ce point: les moustiques dangereux seront remplacés par des insectes remplissant des niches écologiques équivalentes. De plus, aujourd'hui, les maladies véhiculées par les moustiques sont absentes de France métropolitaine, ce qui rend confortable de se poser des questions de la sorte. Pendant ce temps-là, on estime qu'il y a 200 millions de malades, et 600 000 morts par an, du paludisme. Pendant ce temps-là, deux théories du complot se sont développées sur le virus zika: la première incriminait les moustiques transgéniques, l'autre sur un produit de traitement de l'eau visant à tuer les larves de moustique. Dans les 2 cas, on incrimine une solution potentielle contre ces maladies en utilisant des arguments dans la droite ligne de ceux des militants écologistes: dénigrer les OGMs et les insecticides. Remettre le bien-être des hommes au centre des préoccupations serait donc sans doute une meilleure idée, à mon avis.

18 janvier 2016

Confortables retraites

En décembre dernier, le Conseil d'Orientation des Retraites a publié son 13ᵉ rapport intitulé Les retraités : un état des lieux de leur situation en France, accompagné de planches en résumant l'essentiel. Il en ressort que les retraités ont en moyenne un niveau de vie plus élevé que le reste de la population, et ce quasiment quelque soit l'indicateur retenu pour effectuer la comparaison.

Le niveau de vie des retraités

Le rapport commence par donner des éléments sur la démographie des retraités et les montants perçus par les pensionnés des systèmes de retraite français. 16.7 millions de personnes touchent une pension de droit direct ou dérivé — les pensions de réversion — dont 15.6 de droit direct, dont 14.5 millions vivent en France. Pour ces derniers, en 2013, la pension moyenne brute totale est de 1578€/mois. Si on se limite aux retraités qui ont eu une carrière complète, la pension moyenne de droit direct est de 1730€ brut par mois. Le rapport s'intéresse à la génération 1946 — 69 ans en 2015 — pour quantifier le taux de remplacement de la retraite: le taux médian de remplacement est de 73%.

Pour avoir une idée des conditions de vie des retraités, ces seules indications ne suffisent pas: il existe d'autre sources de revenus, les impôts ne sont pas les mêmes pour les actifs et les retraités et enfin, cela ne tient pas compte de la taille des ménages. L'INSEE mesure aussi les revenus du capital, ceux provenant des aides sociales ainsi que les impôts directs pour calculer le revenu disponible. Seul manque en fait pour évaluer le niveau de vie complet une évaluation des loyers imputés — le gain que procure le fait d'être propriétaire de son logement. Pour neutraliser l'effet de la taille des ménages, le niveau de vie d'un ménage est défini par l'INSEE comme le revenu disponible par unité de consommation. Une unité de consommation retranscrit en termes mathématiques l'intuition selon laquelle il y a des économies d'échelle lorsqu'on vit à plusieurs et que les enfants coûtent moins cher à entretenir que les adultes. Ainsi, la notion de niveau de vie permet de comparer les niveaux de revenu en tenant compte de la taille du ménage et d'effectuer des comparaisons entre les ménages de célibataires et ceux de couples avec enfants.

Le niveau de vie moyen des retraités est ainsi évalué à 2049€/mois et par unité de consommation, alors que celui des actifs s'élève à 2062€ et celui de l'ensemble de la population à 1946€ (p35). Comme l'ensemble des retraités rassemble d'anciens actifs mais aussi de vieux inactifs comme les femmes au foyer, la véritable comparaison doit s'effectuer avec l'ensemble de la population. On voit donc que les retraités ont en moyenne un niveau de vie supérieur de 5% à la population en général. Comme les retraités sont nettement plus souvent propriétaires de leur logement, compter les loyers imputés augmenterait encore la différence en faveur des retraités. Le rapport signale aussi (p36-37) que la différence s'est accrue depuis 2012 … il faut dire que le niveau de vie des actifs a été affecté par les conditions économiques dégradées suite à la crise de 2008, alors que celui des retraités a été largement protégé (cf graphe p38).

On pourrait croire qu'il s'agit d'un effet provoqué par un faible nombre de très riches retraités profitant d'un capital accumulé important. Il n'en est rien: le ratio de revenus entre les 10% de retraités les plus pauvres et les 10% les plus riches est moins élevé que pour l'ensemble de la population: pour l'ensemble de la population, le ratio est de 3.5; pour les retraités, il est de 3.1. En fait, d'après le tableau de la page 40, le faible nombre de retraités pauvres explique en partie le différentiel de niveau de vie moyen! En 2013, le taux de pauvreté — défini comme la proportion de gens vivant avec moins de 60% du revenu médian de population — est d'environ 8% chez les retraités, alors qu'il est de presque 14% pour l'ensemble de la population (graphe p41).

Le rapport montre ensuite le graphe ci-dessous (p43) qui montre bien les raisons du meilleur niveau de vie. En fait, une bonne part du problème provient de l'entretien des enfants. Ce n'est pas un secret: les enfants sont plutôt à la charge de gens dans la force de l'âge, ils quittent le foyer familial une fois les études terminées. Pendant ce temps-là, ils diminuent le niveau de vie du ménage dans lequel ils vivent par rapport à celui d'un couple sans enfant. Sur le graphe décrivant l'évolution du niveau de vie au cours du temps pour le cas type d'un couple avec 2 enfants, il est très net que le niveau de vie pendant la vie active est limité par le nombre d'enfants. On voit aussi clairement, qu'en termes réels, le niveau de vie à la retraite est meilleur que pendant presque toute la vie active du couple! Quand on compare au salaire moyen par tête — censé représenter l'évolution du niveau de vie moyen et qui est supposé augmenter au rythme de 1% minimum par an — on constate que le niveau de vie est d'abord meilleur puis ensuite équivalent après 75 ans au niveau de vie pendant la vie active. Il faut aussi noter que les revenus du capital sont exclus de ce cas type, alors qu'ils sont a priori plus élevés quand l'âge augmente. retraites_vs_salaires.jpg Pour compléter le graphe, le tableau qui vient ensuite (p44) donne divers ratios entre pension et salaire pour ce cas type. On constate que, même en tenant compte d'une certaine hausse des salaires tout au long de la retraite, le niveau de vie à la retraite est supérieur à celui obtenu entre 40 et 48 ans, représentatif du niveau de vie pendant la plus grosse partie de la vie active… ratio_retraite_salaire_periodes.jpg

La France est le pays qui fait le meilleur sort à ses retraités: quand on compare le niveau de vie relatif des plus de 65 ans, on constate qu'il est significativement plus élevé qu'ailleurs. Les 2 pays les plus proches sont l'Espagne et l'Italie. Ces 2 pays vivent une crise économique prolongée et en Espagne, le chômage dépasse les 20% de la population active, ce qui grève le niveau de vie de l'ensemble de la population! retraites_niveau_vie_comparaison.jpg

L'évolution passée et future du niveau de vie relatif des retraités est présentée à partir de la p67, mais on peut en résumer une grande partie par le graphe de la p73. prospective_niveau_vie_retraites.jpg La situation actuelle perdure peu ou prou depuis au moins 1996, date à laquelle l'INSEE a inclus les revenus du capital pour calculer les niveaux de vie. Avant le milieu des années 90, le niveau de vie relatif des retraités s'élevait rapidement sous l'effet de la mort des générations n'ayant que peu cotisé et leur remplacement par des générations avec des carrières complètes. Depuis 1996, le niveau de vie relatif des retraités fluctue légèrement en fonction de la conjoncture économique: lors des crises, les actifs voient leurs revenus baisser, alors que ceux des retraités se maintiennent. Dans le futur, il est prévu que le niveau de vie relatif des retraités baisse. Mais l'amplitude dépend de l'évolution du salaire moyen par personne: les pensions ne sont revalorisées de l'inflation. Comme je l'avais déjà évoqué à propos du rapport de 2013, les scénarios les plus optimistes prévoient une forte baisse relative de la pension moyenne par rapport au salaire moyen. Cette baisse est par contre nettement moindre pour les scénarios qui se veulent pessimistes. 2 scénarios ont une pertinence particulière: le scénario B où les régimes de retraite s'équilibrent globalement à terme et le scénario C', qui se veut le scénario noir, mais qui est en fait optimiste par rapport à ce qui s'est passé.

Dans le scénario B, la situation actuelle ne perdurerait pas plus de 10 ans et finalement, vers 2040, le niveau de vie relatif des retraités rejoindrait peu ou prou ce qui se fait ailleurs qu'en France. Comme l'étude prospective se fait à législation constante, le scénario B donne l'évolution du niveau de vie relative qu'il faudrait constater pour qu'on puisse s'épargner des hausses d'impôts et un allongement supplémentaire de la durée de cotisation. Dans le scénario C', on voit que la baisse est nettement plus limitée et plus lente. La situation actuelle perdurerait jusqu'en 2030 environ et le niveau de vie relatif se stabiliserait aux alentours de ceux de l'Espagne ou de l'Italie. Cependant, dans le scénario C', les régimes de retraite présentent un déficit important, de l'ordre de 2% du PIB par an. Comme je l'avais noté l'an dernier, le scénario C' est déjà relativement optimiste. Le rapport mentionne même p77 qu'alors que le scénario C' prévoit une hausse du salaire brut moyen par tête de 1% par an en sus de l'inflation, la hausse constatée entre 1990 et 2014 n'a été que de 0.7% par an. La question qui se pose alors est de savoir comment seront comblés les déficits. Si on choisit de baisser les pensions, la courbe peut rejoindre celle du scénario B. Par contre, si des hausses d'impôts sont privilégiées, la situation actuelle peut très bien perdurer à très long terme puisque ces augmentations d'impôts pèseraient sur le niveau de vie des actifs! On peut modestement constater que tous les plans visant à combler le déficit des régimes de retraites comptent un volet d'augmentations d'impôts, mais jamais de baisse directe des pensions.

Le reste du rapport apporte des éléments qui vont dans le sens du renforcement de la thèse de la situation favorable des retraités. Pages 83 et suivantes, le rapport s'intéresse à la consommation des retraités. Le constat principal est qu'à niveau de vie comparable, les retraités consomment moins (cf graphe p90). À mon sens, c'est d'abord lié au fait que les besoins sont moindres quand on n'a plus à travailler ni à s'occuper d'enfants au jour le jour. En conséquence (p129 et suivantes), les retraités ont la capacité non seulement d'épargner, mais aussi d'aider leurs descendants: le taux d'épargne constaté est similaire à celui du reste de la population (environ 15% du revenu), et il faut y ajouter des transferts des retraités vers les plus jeunes (environ 4%). Les retraités sont aussi propriétaires de leur logement dans leur très grande majorité (environ les 3/4) contre environ la moitié pour le reste de la population (p97 et 173). Ils ont souvent fini de rembourser leurs emprunts, ce qui leur apporte un surplus de niveau de vie par rapport au reste de la population, mais qui échappe aux statistiques. Seule ombre au tableau: comme leurs logements sont souvent dimensionnés pour accueillir leurs enfants, les coûts d'entretiens sont plus élevés que pour les ménages plus jeunes comparables. Pages 209 et suivantes, de façon cohérente avec leur moindre taux de pauvreté, les retraités sont moins pauvres en conditions de vie: parmi les retraités, il y a moins de ménages en permanence à découvert par exemple. La difficulté principale qu'ils semblent rencontrer est l'impossibilité d'accéder à des crédits après 75 ans, car les banques craignent les décès. Pages 159 et suivantes, le rapport s'intéresse à la santé des retraités. On constate que bien loin de ce que disent les Cassandre, l'espérance de vie en bonne santé augmente aussi — dès lors qu'on ne fait pas que demander aux gens s'ils se sentent bien. Quant à la perte d'autonomie, elle ne se produit en moyenne que 2 à 3 ans avant le décès. L'existence de l'APA permet d'estimer l'espérance de vie sans perte d'autonomie à 65 ans: elle est d'à peu près 18 ans (p171).

Enfin, le tableau de la page 152 mérite qu'on s'y attarde. On constate qu'entre 1996 et 2009, le taux d'imposition des retraités a fortement augmenté en passant de 9% à 13%. Les transferts sociaux ont, eux, diminué d'un tiers. Les revenus d'activité sont aussi moins présents. Tout ceci laisse penser que la situation des retraités s'est améliorée au-delà de ce que laissent penser les simples niveaux de vie. En effet, il est extraordinaire de constater que le niveau de vie relatif a augmenté alors qu'il y avait de forts freins! decomposition_niveau_vie.jpg

Quelques réflexions

Le première réflexion que m'inspire ce rapport ne porte pas tant sur son contenu que sur son impact. Mis à part le quotidien Les Échos, aucun journal n'a relayé la parution de ce rapport et de son contenu. Pourtant, ce qui y est relaté me semble apporter un éclairage important sur la structure de la société français aujourd'hui. On ne peut aussi que constater que ce rapport va à l'encontre des idées reçues sur les retraités qui seraient nécessairement plus pauvres que le reste de la population. Ces préjugés ne peuvent donc que perdurer, on y reviendra peut-être.

Quant au contenu du rapport, je pense qu'il apporte une clef de compréhension des enquêtes où les Français se montrent pessimistes et disent que les enfants vivront moins bien que leurs parents (voir ici et , par exemple). Une hypothèse est que les réponses à ces sondages dressent un constat sur la situation présente: aujourd'hui retraités comme actifs peuvent souvent constater en regardant la situation de leurs proches que le niveau de vie des retraités est plus élevé que celui des actifs. De plus, cette situation dure depuis 20 ans, alors même que les conditions des régimes de retraites se sont durcies. Les résultats de ces enquêtes deviennent compatibles avec la forte natalité française: les jeunes parents constatent que la société française est organisée de telle sorte que le niveau de vie est maximal après 50 ans, et plus élevé à la retraite que pendant la plupart de la vie active.

Sur un plan plus polémique, on voit divers hommes politiques, plus à droite qu'à gauche, railler contre ce que d'aucuns ont présenté comme le cancer de l'assistanat. En septembre 2015, il y avait ainsi 1.6 millions de ménages touchant le RSA socle. Suivant la composition des ménages au RSA, ça doit représenter entre 2.5 millions et 3 millions de personnes soit à peu près 4% de la population française. Certes, les retraités ne sont plus censés assumer de charge de travail contrairement aux gens dans la force de l'âge. Cependant, le minimum vieillesse est nettement plus élevé que le RSA, de nombreux retraités sont toujours largement assez en forme pour continuer à travailler et leur niveau de vie est plus élevé que la moyenne de la population alors qu'ils sont ce qu'autrefois on appelait des oisifs. On a donc d'un côté des hommes politiques qui se scandalisent de 4% de la population qui se complairait dans la perception d'aides sociales parce que le SMIC n'est pas assez élevé, mais de l'autre presque aucun ne préoccupe de ce que plus de 20% de la population française ait un meilleur niveau de vie moyen que les 80% restants sans travailler. On pourrait tout de même espérer que certains hommes politiques disent au moins que les impôts doivent être les mêmes pour les vieux, arrêter de privilégier le paiement des suppléments de retraites pour familles nombreuses à l'encontre des allocations familiales et enfin que les revenus des retraités cessent d'être sanctuarisés lorsque ceux des actifs souffrent de la crise. Mais force est de constater qu'il n'y en a que très peu, ce qui fait que, même s'ils le voulaient, les jeunes ne pourraient voter pour des gens ayant pour programme de ne plus favoriser les vieux!

En tout état de cause, même si certains continuent de prétendre que ce n'est pas le cas, ce rapport apporte une fois de plus un argument au soutien de la thèse de Louis Chauvel que la jeunesse française est maltraitée — et que c'est au bénéfice des retraités.

13 janvier 2016

Du débat sur la vaccination obligatoire

Ce mardi 12 janvier, des articles sont parus dans la presse pour annoncer un débat sur la vaccination obligatoire (Le Monde, Le Figaro). Cela fait suite à une baisse du taux de vaccination pour certaines affections alors que pour être pleinement efficace des taux de vaccination de l'ordre de 90% sont souvent nécessaires. L'article du Figaro mentionne ainsi que seuls 73% des nourrissons de 24 mois sont vaccinés contre la rougeole et que le taux parmi les moins de 30 ans est de 93% alors qu'un taux de 95% est estimé nécessaire pour protéger complètement la population.

L'article du Monde montre que la presse n'est peut-être pas pour rien dans la progression des théories fumeuses des anti-vaccins: il est très sérieusement dit que satisfaire à l'obligation vaccinale seule est impossible du fait de l'absence d'un vaccin trivalent. C'est bien sûr faux: pour satisfaire à l'obligation vaccinale, il suffit à un docteur de commander auprès de Sanofi un kit de 2 vaccins. Malgré les pénuries dues aux avanies de productions et à des épidémies qui se sont déclenchées suite à une baisse du taux de vaccination, des ruptures de stock ont eu lieu, mais il a toujours été possible de satisfaire à l'obligation vaccinale seule. De plus le kit de 2 vaccins est fourni gratuitement! Ce qui n'est pas possible est de disposer du confort de ne faire qu'une seule injection. On voit donc que Le Monde reprend sans les démentir les allégations de dangereux activistes. On peut aussi remarquer que la presse n'est pas pour rien dans la défiance qui s'est installée à propos du vaccin contre l'hépatite B: si les allégations sur un lien entre sclérose en plaque et ce vaccin ont bien été relayées, depuis qu'elles ont été infirmées — c'est à dire presque immédiatement — la confirmation du bénéfice apporté n'a pas fait l'objet de beaucoup d'attention.

On y lit aussi les propos renversants d'une député socialiste, auteur d'un rapport sur le sujet il y a peu:

« En cas de levée de l’obligation, il faudrait faire attention au message envoyé, trouver dans la langue française l’équivalent de “mandatory” en anglais, un terme qui voudrait dire “faites-le parce que c’est bon pour votre santé” »

Le problème, c'est qu'il suffit d'ouvrir un dictionnaire anglais-français pour s'apercevoir que mandatory se traduit par obligatoire! Bref, il est sidérant d'organiser un débat dont on laisse entendre qu'une issue possible est la fin de l'obligation vaccinale. Les propos de la député montrent un égarement certain: si la vaccination est obligatoire, c'est aussi parce qu'elle protège l'ensemble de la population et que des comportements de passagers clandestins peuvent miner son efficacité. Finasser en cherchant des termes nouveaux ne fait qu'insinuer l'idée que, finalement, ne pas faire vacciner ses enfants n'est pas si grave et qu'on peut s'en dispenser. Même la ministre Marisol Touraine le dit (cf l'article du Figaro): si l'obligation vaccinale est supprimée, le message envoyé est que c'est facultatif! En conséquence, le taux de vaccination ne pourra que baisser de ce fait.

Au fond, il n'y a guère que 2 issues à ce débat: soit l'obligation vaccinale est étendue — probablement au vaccin hexavalent — soit elle est maintenue en l'état. Ce qui doit décider de quel côté penche la balance est la dangerosité des maladies combattues ainsi que leur aspect contagieux. Au vu de la dangerosité de la rougeole, je pense qu'il est temps que la vaccination ROR devienne obligatoire, au minimum.

Mais qu'il soit jugé nécessaire d'organiser un tel débat est le signe du recul de la raison et du discours scientifique parmi la population, et surtout parmi la population dotée d'un certain niveau d'éducation. Malheureusement, cela s'accorde bien avec les réactions sur d'autres domaines, comme les ondes électro-magnétiques ou encore les OGMs. Le consensus scientifique sur leur innocuité y est souvent présenté comme une hypothèse surannée, les théories du complot comme crédibles si ce n'est comme étant la vérité.

28 novembre 2015

Qu'attendre de la conférence de Paris sur le climat?

La conférence de Paris sur le climat va bientôt s'ouvrir, et on peut se demander ce qui pourra bien en sortir. Dans le précédent billet, j'ai expliqué pourquoi l'objectif officiel des 2°C est intenable: pour le dire simplement, les émissions de CO₂ sont aujourd'hui trop élevées pour que le «reste à émettre» ne soit pas dépassé. Mais cela ne veut pas dire que rien ne peut être fait pour amoindrir les effets du réchauffement climatique. Je suis tout de même très circonspect sur les possibilités d'un changement rapide de tendance: il me semble que les combustibles fossiles seront encore longtemps la principale source d'énergie.

Les engagements d'émissions resteront volontaires

Le paramètre majeur de la lutte du changement climatique est la quantité de gaz à effet de serre qui seront émis au cours des décennies qui viennent. Plus les quantités émises, cumulées sur les décennies, seront importantes, plus l'élévation de température sera grande et plus la probabilité d'évènements catastrophiques augmentera. Dans le meilleur des mondes, les émissions mondiales maximales de gaz à effet de serre seraient l'objet des négociations: le lien étant direct avec l'élévation de température, on pourrait savoir où le curseur de la solution s'est arrêté. Dans le monde réel, la voie praticable est basée sur des engagements seulement volontaires de la part de l'ensemble des pays du monde, limités à l'horizon 2025 ou 2030. C'est un constat qui s'impose après un aperçu rapide de l'histoire des négociations climatiques.

Les USA n'ont jamais ratifié le protocole de Kyoto. D'une part, cela s'inscrit dans une attitude rétive du Congrès américain envers tous les traités contraignants au niveau mondial. Par exemple, les USA n'ont pas ratifié la Convention des Nations Unies sur le Droit de la Mer. Ça ne les empêche d'appliquer la dite convention et d'en être de fait les principaux garants, grâce à leur marine, la plus puissante au monde et qui est la seule à être présente partout dans le monde. D'autre part, les Républicains tiennent un langage climatosceptique ou ne comptent pas le réchauffement climatique parmi leurs priorités. En conséquence, ils s'opposent à tout traité contraignant sur les émissions et bloquent de ce fait toute ratification.

Les pays qui ont connu — ou connaissent — une forte croissance économique sont aussi opposés à des limitations imposées de l'extérieur, les voyant comme une entrave à leur développement économique. L'augmentation de leurs émissions n'est pas pour rien dans la difficulté à trouver un accord: en 1997, année de la signature du protocole de Kyoto, la Chine émettait 3Gt de CO₂ via la combustion des combustibles fossiles soit 14% du total mondial, en 2013, c'est passé à 9Gt soit 28% du total mondial (source AIE CO₂ Highlights 2015). Pendant ce temps-là les émissions mondiales sont passées de 22Gt à 32Gt; la totalité de la hausse des émissions sur la période est imputable aux pays hors OCDE.

De toute façon, les pays qui ne respectent pas leurs engagements ne font face à aucune sanction: le Canada s'est ainsi retiré du protocole de Kyoto juste avant que la période contraignante ne commence. Il faut dire que la cible était une baisse de 7% par rapport à 1990, on constate aujourd'hui une hausse de 28%… Beaucoup de pays n'ayant aucun espoir d'atteindre leur cible ont aussi refusé de prolonger pour la période supplémentaire jusqu'en 2020, comme le Japon. On peut donc considérer que l'aspect «contraignant» d'un traité est finalement faible, ce qui rend le désaccord entre Fabius et Kerry d'importance très relative.

La logique d'accord sur une cible mondiale contraignante a naturellement échoué à Copenhague par le rassemblement de toute ces causes. Les engagements ressemblent à des paris publics, les pays qui veulent réellement les tenir peuvent se retrouver les dindons de la farce. Les pays pauvres, qui émettaient déjà plus que les pays riches, ne voulaient pas de contraintes, de même que les États-Unis. Rien qu'avec la Chine et les États-Unis, on trouve là 44% des émissions mondiales: un accord sans ces 2 pays n'a pas grand sens. Les négociations se sont donc rabattues sur ce qui était encore praticable: les engagements volontaires des différents pays.

Les engagements proclamés par les différents pays sont en fait déjà connus, il est inutile d'espérer qu'aucun pays les révise pendant la conférence … et d'ailleurs des révisions importantes ne seraient pas très sérieuses. Une bonne partie des pays inscrits à l'ONU a déposé une contribution, à la suite de l'accord entre les USA et la Chine l'an dernier. Contrairement à la publicité positive du moment, il était déjà clair à l'époque que les pays s'engageaient à faire ce qu'ils avaient déjà décidé de faire, chacun de leur côté, c'est-à-dire pas grand chose d'autre que la prolongation des politiques actuelles. Un bilan de l'ensemble des engagements a été fait par l'UNFCCC, il en ressort principalement les 2 graphes suivants. indcs_2015_consequences.jpg indc_2015_emissions.jpg C'est le défaut de ces engagement non-contraignants: comme il n'y a personne vue comme un arbitre honnête ni ayant le pouvoir de faire respecter les engagements, la logique de la tragédie des communs joue à plein. Il n'y a pas vraiment de dynamique pour préserver le climat, ni de confiance réciproque, et ce d'autant qu'il n'y a pas de confiance, ni dans la tenue des engagements, ni dans la qualité de la vérification.

Les paramètres techniques

Un des problèmes qui se pose pour qu'un accord soit crédible est la capacité à vérifier son application. En effet, un moyen de respecter les engagements est de ne pas tout compter. Des erreurs dans le décompte des émissions masque aussi la réalité de la situation et donc trompe sur ce qui est possible et les conséquences des éventuels engagements pris. Or il s'avère que dans les pays en développement, la comptabilité des émissions n'est pas fiable: la Chine a ainsi annoncé réévaluer à la hausse sa consommation de charbon de 17% pour les années précédentes. Comme la Chine est le premier émetteur mondial et que la combustion du charbon représente plus de 80% de ses émissions, on voit que ce n'est pas une question mineure. Le problème est évidemment que mieux contrôler demande des moyens et risque de faire paraître certains pays sous un jour peu favorable. Les pays en développement, qui sont a priori les plus concernés par une sous-évaluation des émissions, y sont a priori peu favorables. Cependant, il me semble qu'il y a des chances d'amélioration sur ces points très techniques.

Ce qui a peu de chances de se réaliser sur ce point est plutôt un comptage plus sain des émissions dues à la «biomasse», essentiellement sur le bois. Les politiques favorisant la production d'énergie renouvelable sont des politiques qui encouragent l'utilisation du bois. À petite échelle, l'utilisation du bois est sans doute neutre sur le plan des émissions de CO₂. À grande échelle, c'est nettement plus douteux: cela implique de couper des arbres et donc un fort risque de contribuer à la déforestation. Cette dernière n'est pas incluse dans les statistiques énergétiques et donc pas incluse dans les classements généralement publiés. De plus, le pays qui brûle le bois n'ajoute rien à ses propres émissions: elles sont en fait ajoutées à celui d'où provient le bois. On voit qu'il y a une différence significative avec les combustibles fossiles où c'est toujours le consommateur qui se voit imputer les émissions. Le minimum serait d'exiger que les pays qui brûlent du bois importé justifient des plantations effectuées, via leurs propres actions, dans les pays exportateurs.

L'argent

Une des promesses faites aux pays pauvres est de les aider à hauteur de 100 milliards de dollars US par an. Un fonds a été créé pour recevoir les dons, principalement des états. Actuellement, les contributions atteignent royalement 10 milliards de dollars. Évidemment, cela ne veut pas dire que l'objectif ne sera pas atteint. En effet, il faut comprendre qu'il ne s'agit pas là uniquement de dons: l'aide au développement française inscrite en lois de finances est de l'ordre de 3G€, faire un don de 1G€ par est donc une réorientation importante de la politique d'aide aux pays pauvres. Le comptage effectué par l'OCDE pointe vers aussi vers les prêts bilatéraux, les prêts des banques de développement ainsi que vers les aides à l'export. En comptant tout ça, on arrive déjà à environ 60G$. Les banques de développement ayant promis de faire plus dernièrement, on devrait arriver au chiffre symbolique.

Pour conclure, inutile d'attendre ce qui serait un accord de long terme sur la question climatique à Paris. Cela supposerait de s'accorder sur une masse d'émissions pour le reste du 21ᵉ siècle ou alors sur un prix du carbone mondial, une méthode pour s'assurer de l'application des dispositions du traité. Cet objectif est totalement hors d'atteinte puisque les états sont logiquement jaloux de leur souveraineté. Il n'y aura donc pas de contrainte, ni réelle, ni écrite sur le papier en ce qui concerne les émissions de gaz à effet de serre. Par contre, il y a maintenant un grand nombre d'engagements nationaux et sans doute, au moins sur le papier, un mécanisme ne permettant que des objectifs plus ambitieux par pays pour les négociations qui suivront celles de Paris. Le freinage progressif des émissions peut potentiellement s'engager à partir de là. De l'autre côté, on peut espérer qu'il y aura sans doute quelques ajustements bienvenus sur la comptabilité, ce qui permet de dégager la voie pour des accords réellement plus contraignants. Les problèmes financiers sont plus ou moins résolus, ce qui devrait permettre aux pays les plus pauvres de signer.

12 novembre 2015

L'intenable objectif des 2°C

L'objectif officiel des négociations en cours sur le climat est de limiter le réchauffement climatique à moins de 2°C par rapport à l'époque pré-industrielle (cf par exemple les conclusions de la Conférence de Cancun en 2010). J'ai déjà exprimé ma conviction par deux fois que cet objectif était intenable. Cette année, on va y revenir, diverses voix de connaisseurs du domaine se sont clairement exprimées sur le sujet en disant en substance que les scénarios du GIEC qui annonçait réussir la quadrature du cercle ne faisaient que servir la soupe aux politiques pour leur permettre d'afficher une réussite de façade.

Mais d'abord, commençons par voir ce qui est nécessaire pour limiter le réchauffement à 2°C. Le GIEC se base pour cela sur divers modèles économétriques où les émissions de CO₂ sont une donnée de sortie qu'on met dans un modèle du climat. Un certain nombre de ces modélisations ont eu lieu, et le GIEC a établi des sortes de scénarios moyens qui donnent une idée générale de ce qu'il faut faire pour les respecter. Ils sont désignés sous le titre de Representative Concentration Pathways suivi du forçage radiatif (une mesure de l'effet de serre additionnel). 4 scénarios moyens sont donc pris par le GIEC: les RCP2.6, RCP4.5, RCP6 et RCP8.5. Le scénario RCP2.6 est celui correspond à l'objectif officiel de la limitation du réchauffement à moins de 2°C. AR5_syr_scenarios_synthese.jpg AR5_CO2_budgets.jpg

Comme expliqué dans le tableau ci-dessus, le scénario qui permet de limiter le réchauffement à 2°C implique que les émissions de CO₂ soient limitée à 1000Gt. Comme proposé dans cet éditorial originellement publié dans Nature Geoscience, on peut alors se livrer à un petit calcul:

  1. La déforestation représente 4 ou 5 Gt/an. Si on considère qu'elle va s'arrêter en 2050 avec une baisse linéaire, on obtient entre 80 et 100Gt
  2. La production de ciment et plus précisément la calcination du calcaire est le principal procédé émetteur de CO₂ non compté dans les statistiques énergétiques. En comptant qu'aujourd'hui, elles représentent entre 1.5 et 2Gt/an, on peut compter que d'ici 2100 environ 100Gt seront émises (l'éditorial parle de 150Gt).
  3. Depuis 2010, 5 ans ou presque se sont écoulés, et on peut penser que la situation en 2020 sera surtout la poursuite des tendances actuelles. Actuellement, la combustion des combustibles fossiles pour la production d'énergie émet grosso modo 32Gt/an. En 10 ans, on atteint 320Gt.
  4. Si on suppose qu'après 2020, il y a une baisse linéaire des émissions, pour ne pas dépasser les 480Gt qui restent, il faut que les émissions venant de la production d'énergie s'arrêtent en 30 ans, soit en 2050.

Comme l'hypothèse d'une baisse franche dès 2020 et l'élimination en 30 ans des industries des combustibles fossiles sont des hypothèses héroïques, on peut déjà se dire qu'atteindre l'objectif officiel va être très compliqué.

Mais ce n'est pas tout: le scénario RCP2.6 ne compte pas vraiment atteindre le zéro émission des combustibles fossiles en 2050. Par contre, des émissions négatives sont prévues à partir de 2070, que ce soit dans la production d'énergie ou dans l'extension des forêts. RCP_ff_AR5.jpg emissions_450ppm_AR5.jpg Pour cela, la plupart des modèles font appel au BECCS pour BioEnergy, Carbon Capture & Storage, en clair, on brûlerait du bois, activité supposée neutre en carbone et on capturerait le CO₂ produit grâce aux technologies de capture et séquestration du carbone. Sachant qu'il est douteux qu'à grande échelle, brûler du bois soit vraiment neutre en carbone et qu'il n'existe qu'une poignée d'usines pratiquant la capture et la séquestration du CO₂ de par le monde, cela paraît tout de même sacrément optimiste! Un autre petit détail: utiliser autant de biomasse nécessiterait d'y consacrer de l'ordre de 5 millions de km² de terres arables, soit un peu plus de la moitié de la superficie des USA… C'est pourquoi on peut affirmer que 2°C, c'est faisable … mais uniquement dans les modèles!

Ces modèles qui permettent d'atteindre l'objectif officiel ont tout de même un défaut: ils permettent de créer un écran de fumée devant la situation réelle des choses. En effet, écrire un scénario où on peut se permettre d'extraire massivement du CO₂ de l'atmosphère permet d'émettre plus au total, avant que la capture ne commence à faire son effet. Cela permet de conserver le discours politique sur les négociations: il faut toujours agir maintenant si on veut «sauver la planète», ce "maintenant" se déplaçant au gré des sommets sur le climat et des rapports du GIEC. Il est en quelque sorte toujours 5 minutes avant minuit. Pour illustrer le problème, en 2010, le programme des Nations Unies pour l'environnement a publié un document sur les efforts à faire pour combler entre les politiques menées ou annoncées et ce qu'il faudrait faire pour atteindre l'objectif des 2°C: l'objectif des émissions à l'horizon 2020 était de 44Gt d'équivalent CO₂ pour l'ensemble des gaz à effet de serre. En 2015, le résumé pour les décideurs de la nouvelle édition mentionne 42Gt pour … 2030! En 5 ans, on a gagné 10 ans d'émissions «gratuites»: c'est fort!

C'est pourquoi des voix se sont élevées pour dire qu'il fallait que les scientifiques cessent de tenir ces scénarios pour crédibles et de les maintenir en avant. Il faut remarquer que c'est déjà le cas pour l'objectif de limiter le réchauffement à 1.5°C: les scénarios n'étaient déjà pas très nombreux en 2010, ils ont disparu aujourd'hui. On pourrait certes penser qu'abandonner l'objectif plus ou moins présent depuis les années 90 dans les négociations risquerait d'en couper l'élan: si tout est perdu, à quoi bon? Mais en fait, les conséquences du réchauffement climatiques empirent progressivement avec son amplitude et signaler que l'objectif originel ne peut plus être atteint serait surtout un signe que la situation est hors de contrôle et que la détérioration est déjà bien engagée. Si on continue à apporter des bonnes nouvelles aux responsables politiques, ils sont en quelque sorte protégés des conséquences de la procrastination puisqu'ils peuvent toujours prétendre que l'objectif sera atteint pendant que les négociations piétinent.

Des échos clairs de la situation sont parus en langue anglaise, et dernièrement dans la presse en français. Mais à la fin de la COP21, il ne faudra pas se laisser abuser: si les engagements ne permettent pas de tenir l'objectif des 2°C ce n'est pas par manque de volonté politique aujourd'hui, mais parce que l'objectif est devenu inatteignable.

11 novembre 2015

Le réchauffement climatique

À l'occasion de la prochaine conférence sur le climat qui va se tenir à Paris, la COP21 selon son acronyme anglais, je vais écrire quelques billets pour en couvrir quelques aspects. Ce premier billet est consacré à la base scientifique du phénomène et des prévisions que font les modèles sur le futur du climat. Rien de novateur a priori, il s'agit surtout de fixer les idées en partant du dernier rapport du 1er groupe de travail du GIEC.

On peut définir le réchauffement climatique de façon générale par l'accumulation de chaleur par la Terre sur une longue durée. Cela se traduit par une hausse des températures moyennes à la surface du globe, de façon non uniforme: la répartition du stock de chaleur peut changer entre la surface des océans et les continents, par exemple. Mais cette accumulation peut se mesurer depuis l'espace: en effet, le seul moyen pour la Terre d'évacuer de la chaleur est de la rayonner et le principal apport — et de très loin — est la lumière du Soleil. Comme depuis les années 70, des satellites mesurent ces 2 données en permanence, il est désormais établi avec certitude que la Terre accumule de la chaleur. Cet apport est évalué à environ 0.45W/m² — en répartissant uniformément à la surface de la Terre — en moyenne entre 1971 et 2010 (p7 du résumé technique). En conséquence de quoi, les températures moyennes ont augmenté avec une tendance d'environ +0.12°C par décennie depuis les années 50 (p5) et sur les 10 années les plus chaudes jamais mesurées, 9 sont au 21ᵉ siècle et la manquante est 1998, année la plus chaude du 20ᵉ siècle.

Une fois les observations acquises, il reste à les expliquer. Comme la luminance du Soleil n'a pas beaucoup varié ces dernières décennies, il faut se tourner vers d'autres explications, et il s'avère que c'est bien l'accumulation de gaz à effet de serre qui expliquent le mieux les observations. RFs_AR5.jpg Il faut dire que l'effet de serre a une longue histoire tant théorique que pratique. Dès la fin du 19ᵉ siècle, on s'est aperçu que la température moyenne à la surface de la Terre était trop élevée par rapport à un bête calcul d'équilibre thermique. Il fallait donc expliquer la différence: rapidement, on s'est aperçu que divers gaz absorbaient dans l'infrarouge, comme la vapeur d'eau ou le gaz carbonique. D'où des tentatives de déterminer la variation de température moyenne si on augmentait la concentration de l'atmosphère en CO₂. Au fond, le modèle de l'effet de serre est assez simple à comprendre: en absorbant une partie du rayonnement émis par la surface de la Terre, l'atmosphère agit comme une couverture qui fait monter la température. Une partie de la chaleur est piégée et ce d'autant plus qu'une partie de l'énergie absorbée revient aussi à la surface de la Terre par des phénomènes de conduction thermique. Comme les bandes d'absorption du CO₂ ne sont pas confondues avec celles de l'eau, augmenter sa concentration provoque plus d'absorption et donc une hausse de la température.

Quant à l'origine de l'augmentation de CO₂, il n'y a aucun doute sur sa réalité et sur son origine. Cela vient de l'utilisation de combustibles fossiles, de la déforestation ainsi que de quelques procédés industriels. Le GIEC parle d'émissions depuis 1750, mais en fait, avant la Seconde Guerre Mondiale, les émissions étaient bien moins élevées. Ce n'est qu'avec l'exploitation massive du pétrole que les émissions ont véritablement décollé. fossil_fuels_AR5WG1.jpg Au total en 2010, les émissions de CO₂ dues aux activité industrielles (combustion de combustibles fossiles plus divers procédés) dépassent les 30 milliards de tonnes (Gt) par an, auxquelles il faut ajouter 5Gt/an pour la déforestation et l'équivalent d'un peu moins de 15Gt/an pour les autres gaz à effet de serre comme le méthane et le N₂O, pour un total d'à peu près 50Gt/an d'équivalent CO₂.

Ensuite, le GIEC détermine des scénarios moyens et lie des masses d'émissions à une probabilité de rester sous une certaine élévation de température. Il est important de noter que ces quantités sont données à partir de 2011: nous sommes en 2015 et ces budgets sont déjà entamés. AR5_CO2_budgets.jpg Pour accomplir l'objectif proclamé d'avoir plus de 2 chances sur 3 de limiter le réchauffement à moins de 2°C, il restait donc à peu près 1000 Gt de CO₂ possibles à émettre (les autres gaz à effet de serre ne sont pas comptés dans ce budget, mais modélisés à part).

Le premier effet du réchauffement climatique est la hausse du niveau des mers par 2 voies: la dilatation thermique et la fonte des glaciers terrestres. Ces 2 termes expliquent environ 80% de la hausse observée du niveau des mers; le reste est dû à la différence entre le pompage des nappes phréatiques et du stockage dans des barrages. La précision des observations de la hausse du niveau des mers s'est grandement améliorée à partir des années 90 quand le premier des satellites d'altimétrie radar a été lancé. Avec ses successeurs, on observe depuis plus de 20 ans une hausse d'environ 3mm/an du niveau moyen des mers. Au 21ᵉ siècle, la différence entre les situations où il y aurait un fort réchauffement et celui où il serait plus limité est relativement faible: si on limite le réchauffement à 2°C, on peut s'attendre à une hausse du niveau des mers de 40cm contre 75cm dans le cas de la prolongation tendancielle (grosso modo +4 ou +5°C). Mais une vraie différence apparaît à plus long terme: la fonte de la calotte du Groenland se produit vers un réchauffement de +1.5°C et une hausse du niveau des mers de 6m à l'échelle de plusieurs millénaires, et à l'échelle de plusieurs siècles, le cas du fort réchauffement conduit à une élévation de l'ordre de 4 à 5m en moyenne, contre moins d'un mètre s'il est contenu. Combiné aux autres changements annoncés dans la répartition des précipitations, de la hausse de la fréquence des épisodes de fortes précipitations, on comprend qu'il y a là motif à agir, ne serait-ce que pour limiter la vitesse des changements les plus néfastes.

28 octobre 2015

Tract ou journal?

Mardi après-midi, est paru sur le site du Monde un article intitulé Le nucléaire, une solution pour le climat ?, signé par Pierre Le Hir. A priori, on s'attendrait à une comparaison des émissions de CO₂ entre diverses technologies, mais en fait, il semble bien qu'il s'agit en fait de relayer la parution d'un argumentaire anti-nucléaire par diverses associations opposée à cette technologie. En effet, la structure de l'article est composée d'une introduction où on parle de la position d'EDF, puis un corps où l'argumentaire des opposants est développé, pour terminer pour citer le GIEC, mais surtout dans ses remarques les plus négatives.

Évidemment, le nucléaire ne règlera pas à lui tout seul le problème des émissions de CO₂ et du réchauffement climatique, mais comme personne ne prétend qu'une technologie peut y parvenir seule, la question est plutôt de savoir s'il peut apporter quelque chose. On peut alors se retourner vers quelques faits simples. Tous les ans, l'AIE publie un inventaire mondial des émissions de CO₂ venant de la production d'énergie, ainsi que son résumé, gratuit et accompagné d'un tableur. La dernière édition disponible aujourd'hui, celle de 2014, recense les émissions de 2012. On y constate une différence d'émissions de 4 tonnes de CO₂ par habitant entre la France et l'Allemagne, dont 3.3 pour le seul poste «production de chaleur & d'électricité». La source de cette différence est bien connue: en Allemagne, presque 50% de la production d'électricité est assurée par du charbon et les 2/3 à partir de combustibles fossiles, alors qu'en France, les moyens décarbonnés assurent plus de 90% de la production et le nucléaire entre 75 et 80%. Comme on peut le constater, cette expérience montre que le nucléaire a bien le potentiel de réduire substantiellement les émissions dans certains pays, et non des moindres! CO2_FRvsDE.jpg

Un autre argument avancé est que le nucléaire émet lui aussi du CO₂. Ce n'est pas faux: lors de la construction, on a besoin de ciment et d'acier, qui nécessitent d'émettre du CO₂ pour les produire. Afin de comparer tous les effets, le concept d'émissions sur le cycle de vie a été développé. Il s'agit de comptabiliser toutes les émissions qui ont servi à produire de l'énergie, du début de la construction à la démolition. Le GIEC fournit dans le résumé technique de la partie sur les solutions possibles au problème du réchauffement climatique le graphe suivant p41 (coupé pour ne tenir compte que des technologies actuellement disponibles). LCA_technos.jpg On constate que le nucléaire est parmi les moins émetteurs: la médiane des études le met à égalité ou presque avec l'éolien. On est donc bien en peine de trouver le moyen de production d'électricité qui produirait vraiment moins de CO₂ par unité d'énergie, ce qui est quand même l'essentiel pour lutter contre le réchauffement climatique. Le solaire phovoltaïque, par exemple, émet plus que le nucléaire, ce qui ne l'empêche pas d'être apprécié par les opposants au nucléaire. C'est à peine si l'auteur de l'article mentionne cela, tout au plus il mentionne que le GIEC classe le nucléaire parmi les sources à faibles émissions de carbone.

Les autres problèmes du nucléaire existent bien, mais aucun des problèmes des alternatives ne sont exposés. Par exemple, nulle mention du problème de l'intermittence de l'éolien ou du solaire. Le scénario de l'ADEME qui prévoit un mix électrique 100% renouvelable est mentionné, sans dire que certaines technologies nécessaires n'existent pas à l'heure actuelle. Enfin, quand on mentionne les problèmes d'acceptation par la population, c'est évident que tout dépend de la perception qu'en ont les gens … qui serait peut-être améliorée par une information impartiale qui éviterait de n'instruire qu'à charge.

Cet article semble donc être avant tout une reprise de la communication des associations anti-nucléaires. Même pour un «compte-rendu», on serait tout de même en droit d'attendre que les inexactitudes dans leurs positions ne soient pas relayées complaisamment. Et qu'à la question posée dans le titre, on apporte la véritable réponse que les faits appellent: Oui, le nucléaire est une solution pour le climat, mais seulement partielle et s'il devient mieux accepté et moins cher!

25 septembre 2015

Optimisation

Il est récemment apparu que le groupe Volkswagen, célèbre fabricant d'automobiles, avait inclus dans le logiciel embarqué dans certains de ses véhicules une fonction permettant de détecter qu'un test officiel était en cours et d'ajuster les paramètres du moteur pour s'assurer de respecter les réglementations anti-pollution. Lors d'essais en conditions réelles, une association s'est aperçue que les Volkswagen émettaient bien plus sur route que lors des tests, contrairement au véhicule tank d'une marque concurrente, BMW. Après quelques péripéties, Volkswagen a admis qu'un logiciel lui permettait d'adapter les émissions lors d'un test.

On comprend bien que ce type de manœuvre soit interdite: pour que les normes anti-pollution soient utiles, il faut que les tests soient représentatifs, dans une certaine mesure, du comportement réel des émissions de polluants. Utiliser un logiciel qui modifie les réglages du moteur quand un test est détecté ruine complètement cette représentativité puisqu'on peut alors faire des choses très différentes entre le test et l'utilisation réelle. Les mesures effectuées et répercutées dans la presse indiquent une multiplication par 30 et plus des émissions de NOx entre les tests et la conduite sur route de montagne (voir p62 du pdf). Que la production d'oxydes d'azote soit facilement modifiée n'est pas une surprise: cela résulte de la modification du mélange, où plus d'air injecté résulte dans une plus grande quantité d'oxydes d'azotes créés.

Le premier constat qu'on peut faire est que les automobiles sont désormais en grande partie contrôlées par leurs ordinateurs de bord qui sont capables de faire un certain nombre d'ajustements d'elle-mêmes. Avec l'augmentation de la puissance de calcul, on a non seulement droit au GPS, mais il est aussi possible d'essayer de deviner le comportement de l'automobiliste pour passer les rapports de vitesse, des boîtes automatiques avec de plus en plus de rapports, etc. Dans le cas présent, les ordinateurs de bords sont peut-être désormais capables d'ajuster les paramètres du moteur pour optimiser la puissance et la couple ou encore la consommation de carburant, comme le font les pilotes de F1 en piste. Avec les avancées en termes de machine learning, on peut construire des machines qui reconnaissent bien des situations et leur apprendre différents comportements suivant le situation. Bien sûr cela a des conséquences en termes de pollution, puisque le moteur ne passe sans doute pas les tests anti-pollution en dehors d'un mode de fonctionnement relativement étroit. Parmi les autres désagréments, on peut aussi maintenant pirater des voitures pour les mettre en carafe. C'est le revers de la médaille du surplus de confort et de l'optimisation des performances.

L'optimisation, justement: aujourd'hui, les produits complexes comme les automobiles sont le résultats de compromis et donc d'optimisations: on cherche à obtenir les meilleures performances, au meilleur prix. Les performances sont elle-mêmes très diverses: il faut que la voiture soit confortable, facile à conduire, performante, peu polluante: ces contraintes ne sont pas nécessairement toutes compatibles entre elles. D'où l'idée d'établir des comportements différents suivant la situation: avec la puissance de calcul actuelle, c'est envisageable! C'est même facilité par le côté stéréotypé des tests officiels, dont il est bien difficile de s'échapper. En effet, un test officiel a pour but d'être reproductible afin de donner une autorisation à la vente: le réaliser dans des conditions contrôlées et une procédure très idéalisée aide à atteindre ce but. Il se doit aussi de ne pas être trop long ou trop compliqué faute de quoi, il serait extrêmement cher et ouvrirait la porte à la contestation. Cette affaire Volkswagen va sans doute amener à ce que les tests d'homologation se déroulent dans des conditions plus proches de la réalité et pourquoi pas en situation réelle. On peut aussi noter que le fait d'établir des normes peut conduire à perdre de vue le but final de l'optimisation. C'est un peu ce qui s'est produit avant la crise des subprimes: un certain nombre de produits financiers ont été construits pour répondre à une spécification émise par les agences de notation. Les ingénieurs employés par les banques ont été chargés d'y répondre, avec pour seul but de passer le test des agences et non d'éviter le défaut de paiement. Pour Volkswagen, ceux qui ont décidé d'inclure la fonction «spécial test» ont perdu de vue le but global qui était fixé: atteindre de bonnes performances tout en polluant un minimum.

Enfin, cette histoire montre aussi qu'il est bien difficile de cacher éternellement des comportements peu recommandables lorsqu'on est une firme mondiale. Il y aura toujours quelqu'un pour tester les produits quelque part dans le monde! Et comme ils sont souvent motivés, on peut s'attendre à ce qu'ils arrivent à leurs fins. Le comportement dont il est question est bien difficile à discerner pour le commun des mortels: bien malin qui peut déterminer la composition des gaz d'échappements sans équipement perfectionner ou comparer tests officiels avec comportement routiers sans un minimum d'organisation. Alors de là à cacher une fonction qui ferait juste tomber un produit en panne après une certaine date, ce serait du pur délire tellement c'est un comportement facile à déceler: décidément, les tenants de la prétendue «obsolescence programmée» sont très proches des théoriciens du complot! Au fond, la meilleure garantie que les produits vendus aujourd'hui respectent bien la loi, c'est qu'ils soient vendus à grande échelle.

7 septembre 2015

Repli sur soi de la France

Depuis 2011, la guerre civile fait rage en Syrie et en Libye. Depuis 2014, une créature de la guerre civile syrienne, Daesh, s'est répandue en territoire irakien. Rien que pour la seule Syrie, la lecture du chapeau de la notice wikipedia nous apprend qu'il y a 11 millions de déplacés, soit à peu près la moitié de la population estimée avant la guerre. Fuyant les destruction, la brutalité des combats et des différentes force en présence, il y a bien sûr de nombreux réfugiés qui ont quitté le pays, d'abord pour les états voisins. Des camps y ont été installés. Mais comme la guerre dure depuis 4 ans et demi, l'espoir d'une solution quelconque au conflit semble toujours lointaine, l'afflux de réfugiés continue. De plus en plus de ces réfugiés cherchent donc des solutions définitives, plus loin de leur pays d'origine, vers des pays où ils espèrent pouvoir vivre en paix. Cela les amène naturellement à vouloir venir en Europe et particulièrement dans les pays les plus riches, en Europe de l'Ouest, où la paix civile règne, quoiqu'on puisse en penser, depuis 70 ans. Et c'est ainsi que les demandes d'asile sont en forte augmentation depuis 2011. demandes.jpg Quant aux demandes acceptées, on peut voir l'évolution sur les 2 graphes ci-dessous. La Suède ne figure pas sur le 2e graphe, du fait du grand nombre de demandes acceptées par rapport à la population: près de 3000 demandes acceptées par million d'habitant. Pour mémoire et permettre une comparaison, l'accroissement naturel de la population française est d'environ 0.4% soit 4000 par million d'habitants. The Economist propose aussi un graphe plus complet. On peut y constater que la France est le troisième pays qui accepte le moins facilement d'accorder l'asile, après la Hongrie, dirigée par un parti flirtant avec l'extrême-droite, et la Grèce, dont on connaît les difficultés actuelles. asile_prop.jpg asile_vs_pop.jpg Ces graphes semblent indiquer quelque chose d'assez logique: bien loin d'être le résultat d'un accroissement de la misère dans le monde, l'afflux actuel d'immigrants est dû aux guerres civiles et aux réfugiés qu'elles engendrent. Cela semble confirmé par les chiffres de l'ONU.

Pendant ce temps-là en France, la rhétorique des partis classiques se sert toujours des immigrants économiques — ou de ceux qui voudraient vivre des aides sociales — pour refuser autant que faire se peut d’accueillir ces réfugiés. La semaine dernière sur Europe 1, Laurent Fabius a disserté sur la nécessité de ne pas accueillir les migrants économiques. Ce dimanche, Alain Juppé a fait de même en rajoutant un agrandissement de la liste des «pays sûrs», cette fiction légale qui permet de déclarer sûrs des pays qui n'en sont pas vraiment. Cette semaine, j'ai pu entendre Christian Estrosi qui demandait peu ou prou qu'on coule à peu près tous les navires en dehors de l'Union Européenne poru éviter qu'ils ne servent aux passeurs tout en proclamant, bien sûr, son attachement au droit d'asile. François Hollande a finalement accepté le principe de quotas de réfugiés, qu'il refusait jusque là, mais c'est après la publication de la photo d'un enfant mort sur une plage.

Il faut dire que nos dirigeants sont assez représentatifs de la position moyenne des Français. La semaine dernière, un sondage rapportait que 56% étaient opposés à l’accueil des réfugiés. Ce dimanche, un autre sondage donnait à peu près les mêmes proportions. En prime, on voyait que les personnes interrogées affirmaient que la France était aussi voire plus accueillante que l'Allemagne! Comme on vient de le voir et même sans prendre en compte les évènement récents, ce n'est absolument pas le cas et la France est nettement plus restrictive. Cette perception est favorisée par les dirigeants qui ne manquent pas de jouer sur «la France, pays des Droits de l'Homme», mais en même temps, les dirigeants continuent à le dire sans doute parce qu'ils savent que ce préjugé de la France très accueillante est bien ancré dans la population.

L'impression qui se dégage est que les politiques modérés ont disparu, préfèrent se taire ou suivre la rhétorique dominante sur la question. Au fond, il semble quand même bien que les Français soient de plus en plus hostiles à l'immigration et c'est pour ça que des discours plus violents se rencontrent plus souvent de nos jours: il ne me semble pas que dans les années 90, un dirigeant de haut niveau au RPR ou à l'UDF aurait appelé à couler des bateaux. De la même façon, il semble bien qu'être opposé à l'immigration est un plus pour obtenir des voix de nos jours: on a donc de plus en plus d'élus clairement opposés à l'accueil d'étrangers en France, quelle qu'en puisse être la raison et quelle que puisse être la situation internationale, guerres civiles ou pas. C'est malheureusement cohérent avec un repli sur soi de la population française et avec une disparition progressive des discours rationnels dans la vie publique. Ce n'est pas un secret que ce blog se lamente régulièrement sur le manque de prise des arguments raisonnables sur des questions diverses comme les OGMs ou le nucléaire. Là encore, on a un exemple similaire: en dépit d'indices très concordants, il semble bien que les Français soient imperméables pour une bonne part à un discours de vérité qui lie l'arrivée actuelle d'étranger aux guerres civiles qui s'éternisent au Proche-Orient. Malheureusement, on pourrait être engagé dans une sorte de cercle vicieux, où un sentiment de déclin fait préférer des positions plus extrêmes et moins basées sur l'analyse des faits, ce qui n'aboutit qu'à des échecs et à une perpétuation du sentiment de déclin.

- page 1 de 9