Mot-clé - maljournalisme

Fil des billets - Fil des commentaires

5 janvier 2018

La plaie des intox dans les médias «sérieux»

Les médias traditionnels se plaignent souvent que les réseaux sociaux ou Internet en général répandent de fausses nouvelles, c'est même devenu un thème récurrent (exemple) depuis l'élection l'an dernier de Donald Trump comme Président des États-Unis. Malheureusement, il n'est pas bien difficile de trouver des articles dans ces mêmes médias traditionnels qui, eux aussi, répandent des fausses nouvelles. Le Monde, qu'on voit parfois qualifié de journal de référence, en a donné l'illustration lors du week-end de Noël avec un cahier «Idées» sur le sucre.

Une_Monde_Sucre_petit.jpg

Comme on peut le voir sur l'image, le sucre était qualifié de poison. Un article était consacré à cela à l'intérieur, où le sucre était qualifié d'aliment toxique et addictif. À moins de considérer tous les aliments comme des poisons potentiels, il est clair que le sucre n'en fait pas partie. Même s'il est vrai que l'OMS recommande de se limiter à 10% de l'apport énergétique pour les sucres simples, elle recommande aussi qu'entre 55 et 75% de l'apport énergétique vienne des glucides en général. Le simple fait d'accorder une place dans l'alimentation recommandée au sucre montre que ce n'est pas un poison dans le sens commun du mot. Qu'on soit attiré par une alimentation riche en sucre a une explication très logique: l'assimilation de l'énergie apportée est très rapide. Ça n'en fait pas pour autant du sucre l'équivalent d'une drogue ou de l'alcool. Enfin, on peut se rappeler que la mortalité n'augmente vraiment qu'à partir d'une obésité sévère, c'est-à-dire pour un indice de masse corporelle de 35 et plus: il y a une large plage de poids qui ne mettent pas en danger la santé!

Le cahier lie aussi le sucre à l'esclavage. Bien sûr, il est bien connu que la culture du sucre aux Antilles et au Brésil a recouru à l'esclavage à grande échelle. Cependant, l'utilisation du sucre n'est devenue réellement massive en Europe occidentale que progressivement au cours du 19e siècle, grâce à la betterave … et à la mécanisation du travail. En effet selon un article sur l'histoire de la betterave, avant le Blocus Continental, les importations françaises étaient de 25000 tonnes de sucre; la page wikipedia consacrée à l'histoire de la production de sucre laisse à penser qu'au début du 19e siècle, la production totale de sucre due à l'Amérique était inférieure à 200 000 tonnes. Au début du 20e siècle, par contre, la production venant de la betterave à sucre était devenue très importante: elle représentait environ 50% de la production mondiale selon le site de l'industrie et selon l'article lié plus haut, juste avant la 1ère Guerre Mondiale, la production est de 2.7 millions de tonnes pour l'Allemagne et environ 1 million de tonnes pour la France. On voit que l'apparition de la betterave à sucre d'abord de façon limitée sous Napoléon puis de façon réellement industrielle à partir de 1850 ainsi que la mécanisation des usines ont fait bien plus que l'esclavage pour répandre l'usage du sucre! Ainsi, il est sans doute faux de dire que en France, où il fallut attendre un décret de la ­IIe République, en 1848, pour que les Français goûtent à la douceur du sucre sans plus imposer à des centaines de milliers d’hommes les terribles souffrances de l’esclavage ou qu'il est entré massivement dans les cuisines aux temps sombres de l'esclavage.
Si aujourd'hui la canne domine à nouveau largement la production de sucre, c'est dû au défrichement de grandes zones, notamment au Brésil. Aujourd'hui, la production de sucre de canne est de 1.9 milliard de tonnes, contre 250 millions pour la betterave. Une nouvelle fois, ce développement n'a rien à voir avec l'esclavage… et le sucre n'est véritablement devenu un aliment disponible partout dans le monde en énormes quantités que dans la deuxième moitié du 20e siècle.

Bien sûr, on pourrait contester l'appartenance au journal du cahier «Idées», dévolu à des éditoriaux. Cependant, les articles dont il est question ici sont signés de journalistes du Monde. De plus, sélectionner un article pour impression montre que le contenu, fusse fût-ce celui d'une tribune, est considéré comme honnête et d'un assez haut niveau pour être connu de tous. Certains points de vue n'ont ainsi plus droit de cité, comme la négation du réchauffement climatique, sans doute tout simplement parce que le comité éditorial considère qu'on ne peut pas écrire des choses fausses dans le journal.

Je constate aussi que le sujet du sucre soit a priori non polémique n'a pas empêché qu'on y écrive ces «intox» dans le journal. Des techniques proches de celles dénoncées quand il s'agit des réseaux sociaux sont aussi utilisées, comme l'utilisation de phrases choc pour inciter à la lecture, au détriment de la véracité du contenu. On n'ose imaginer ce qui peut se produire sur des sujet plus polémiques, où les propositions de tribunes sont plus nombreuses et les biais des journalistes fatalement plus probables. Avant de chasser les intox sur le web, les rubriques de «vrai-faux» devraient sans doute s'attacher à chasser celles qui figurent dans leur propre journal!

8 janvier 2017

La post-vérité, c'est les autres

On parle en ce moment du concept de «post-vérité», qui consiste essentiellement à proférer des mensonges de façon à accréditer une alternative à la réalité, en niant des faits de base ou des raisonnements communément admis. Contrairement au mensonge classique, il ne s'agit pas seulement d'aller à l'encontre d'une partie de la réalité, mais de proposer une alternative complète des faits de base aux conclusions. Bien sûr, une difficulté peut apparaître très rapidement: à partir du moment où il existe un certain nombre d'alternatives qui se présentent comme la réalité, les partisans de chacune d'elles vont évidemment affirmer mordicus que c'est leur alternative qui est la réalité. Cela débouche forcément alors vers une accusation de «post-vérité» des partisans de l'erreur envers ceux qui ne sont pas d'accord et sont plutôt dans le vrai.

Une illustration de cela nous est donné par des articles récents de Stéphane Foucart, journaliste au Monde à la rubrique Planète et éditorialiste. Les lecteurs réguliers de ce blog savent que je ne suis pas spécialement convaincu, en général, par ses propos. Il est ainsi l'auteur d'un article intitulé L’évaluation de la toxicité des OGM remise en cause, daté du 19 décembre, et d'un éditorial, Aux racines (vertes) de la « post-vérité », daté du 26.

Le premier article est critiqué, avec l'étude qui lui sert de prétexte, de façon fort juste sur la blog de la théière cosmique. Pour résumé, un chercheur de la mouvance de Séralini a écrit un papier pour tenter de remettre en cause la notion d'équivalence en substance. L'idée de base de la notion est de voir si l'OGM, en dehors des effets prévus de la modification génétique, tombe bien dans la variabilité attendue des plantes non OGM comparables. Le papier scientifique échoue à démontrer une différence réelle entre OGM et non OGM, ce qui ne l'empêche pas de jeter le doute en conclusion sur la sécurité de la modification génétique. Repris dans l'article du Monde, l'auteur du papier peut exprimer sa position sans rencontrer d'opposition nette. L'article du Monde est donc l'occasion d'une énième remise en cause du processus d'évaluation des OGMs. Cependant, il existe un consensus sur la sécurité de ceux actuellement sur le marché: on pourrait donc penser que ce processus d'évaluation ne marche pas si mal que ça pour éviter les évènements nocifs. Plus généralement, cet article se situe donc dans la droite ligne des articles du Monde sur les OGMs, où ceux-ci sont toujours envisagés avec moult soupçons dans le meilleur des cas, à rebours du consensus scientifique. On est dans une sorte de réalité alternative où les OGMs sont mauvais, mais où on constate régulièrement qu'ils continuent à être utilisés, pour des raisons généralement inexpliquées dans ce journal…

L'éditorial a pour objet de signaler que les thèmes écologistes ont déjà vu les phénomènes désormais nommés «post-vérité» depuis longtemps et qu'ils resteront des domaines de prédilection de ce phénomène à cause de leur complexité. Il expose surtout le cas du réchauffement climatique, où les preuves sont purement et simplement niées dans certains média, surtout outre Atlantique, et où on accuse les scientifiques de tremper dans un complot imaginaire. Mais il finit sur une dénonciation des projets de la Commission Européenne sur les perturbateurs endocriniens qui iraient à l'encontre du consensus scientifique. Évidemment, rien de tel dans la communication de la Commission: il s'agit surtout de déterminer le niveau de preuve nécessaire pour mériter le titre de perturbateur endocrinien aux yeux de la loi. La polémique semble d'ailleurs surtout concerner le fait de savoir s'il existera une gradation dans le classement ou un classement binaire perturbateur / non perturbateur. Il ne s'agit donc pas d'un problème scientifique mais d'un problème juridique et politique. Le classement avec des paliers permettrait certainement d'incriminer plus de substances, avec des opportunités de polémiques comme ce fut le cas avec le glyphosate en 2016. On comprend donc le côté pratique de la proposition de la Commission pour un classement binaire, par essence nettement plus clair.

En procédant ainsi, Stéphane Foucart construit une petite aire d'alternative à la réalité. Ceux des lecteurs qui lui font confiance croiront que la Commission s'assoit sur des résultats scientifiques, alors qu'il n'en est rien, vu qu'il s'agit justement de créer un cadre juridique supplémentaire pour prendre en compte certains de ces résultats de façon spécifique. De la même façon, il se plaint qu'on ait trop souvent lu que les OGMs étaient des poisons violents, mais sur ce sujet, fort est de constater que le même Stéphane Foucart répand cette croyance erronée. Il a régulièrement rendu compte de façon positive des travaux de Gilles-Éric Séralini et d'autres personnes qui n'ont aucune crédibilité scientifique sur le sujet: ce fut le cas en 2007, ou en 2012 avec la fameuse affaire des rats, où systématiquement, les thèses des opposants aux OGMs ont été soutenues. Le papier qui a fait l'objet de l'article du 19 décembre entre tout à fait dans cette ligne éditoriale où le consensus scientifique sur la sécurité des OGMs est nié. Une justification à cette dénégation est souvent susurrée: les scientifiques seraient vendus à l'industrie! Le processus reflète celui dénoncé quand il s'agit de réchauffement climatique.

La seule explication à cette analogie, c'est qu'évidemment, une fois une croyance installée, il est difficile de l'abandonner. Les incroyants paraissent toujours dans le déni, les informations contraires à la croyance n'ont nécessairement qu'une importance somme toute marginale et doivent trouver une explication compatible avec la croyance. On voit donc bien l'utilité d'installer dans le public une croyance qui va dans le sens de certaines conceptions, notamment politiques. Ces croyances erronées peuvent d'ailleurs s'installer durablement, malgré des faits contraires rapportés dans les mêmes journaux qui diffusent la croyance, comme l'a montré le cas du nuage de Tchernobyl en France. À partir du moment où la conviction s'est forgée, l'hypothèse contraire ne peut qu'être fausse, à moins que des nouvelles extraordinaires n'adviennent. C'est pourquoi le terme de «post-vérité» va surtout connaître un destin de récupération par toutes sortes de croyants: la post-vérité, c'est les autres!

13 novembre 2016

Les contrevérités dans les médias: la faute à Internet?

La victoire du «Leave» au référendum sur le Brexit et la victoire de Donald Trump aux primaires des Républicains, puis à l'élection présidentielle aux USA ont suscité des commentaires sur la diminution de l'importance des faits dans les médias et dans le discours public en général. C'est ainsi, par exemple, que le Guardian a publié un article intitulé «How Technology disrupted the truth» — qu'on pourrait traduire par «Comment la technologie masque la vérité». La thèse en est qu'Internet et en particulier les réseaux sociaux empêchent les faits et la vérité d'apparaître aux yeux de tous, à cause de l'accélération du rythme qu'ils imposent et de l'émiettement de l'audience qu'ils engendrent. Cette thèse était aussi en partie énoncée dans le livre La démocratie des crédules où il était toutefois rappelé qu'Internet ne faisait que faciliter des tendances naturelles. Mais Gérald Bronner, l'auteur, prônait et prône toujours un essor de la «slow information» pour contrer ce qu'il appelle la démagogie cognitive.

L'immédiateté

Pour ma part, je trouve que mettre l'accent sur le versant de l'immédiateté, permise par les réseaux sociaux et Internet, n'est pas totalement mérité. En effet, on peut constater que les longues enquêtes ne sont pas une garantie contre les assertions fausses. Dans le passé en France, il y a eu quelques exemples de reportages, parfois portés au pinacle, qui de fait étaient basés sur des apparences et des mensonges.

  1. Le Cauchemar de Darwin dénonçait le commerce de la perche du Nil, pointant classiquement l'exploitation des travailleurs et la disparition de certaines espèces de poissons mais l'accusant aussi de favoriser la prostitution, le commerce des armes et par là les génocides ainsi que les guerres civiles de la région. L'imposture de ce film a été dénoncée par François Garçon, la réponse du réalisateur Hubert Sauper évite soigneusement d'apporter de quelconques éléments de preuve. Au contraire, on peut considérer qu'il n'en possède aucun. Il est toutefois notable qu'il fait état de 4 ans de travail. Plus de 10 ans après sa sortie, ce film est toujours cité dans les articles wikipedia sur la perche du Nil …
  2. Le documentaire Prêt à jeter dénonçait l'obsolescence programmée. Seul problème: ça n'existe pas. Ce qui, en apparence, paraît dû à un complot est en fait la conséquence de compromis économiques, de pannes aléatoires, d'innovations et d'effets de mode. Le reportage utilise à son avantage des histoires comme l'ampoule de Livermore ou la nostalgie pour les anciens pays communistes et la rusticité légendaire mais inexistante de leurs équipements. Au fond, ne pas vérifier les informations n'a pas posé de problème pour la diffusion de ce film: les apparences ont suffi.
  3. Cette année dans l'émission Cash Investigation, le reportage Produits chimiques : nos enfants en danger dénonçait les dangers supposés des pesticides, mais dès le départ faisait dire à un rapport de l'EFSA l'inverse de ce qu'il disait vraiment. Ainsi au lieu des 97% de fruits et légumes contenant des résidus de pesticides, 97% des tests étaient dans les limites de la réglementation et dans à peu près la moitié des cas, rien n'était détecté. D'autres contre-vérités parsemaient le reportage. On peut remarquer qu'une association militante s'est vantée d'avoir grandement aidé à produire cette émission, tout au long d'une année et qu'aucune rectification n'a été publiée ou diffusée par France2, malgré les articles des rubriques de vérification de certains médias traditionnels.

Ces exemples devraient amener à se méfier aussi des enquêtes de long terme, menées sans forcément que les sujets sous-jacents fassent les gros titres. Dans ces 3 cas, seuls les pesticides faisaient l'objet d'articles récurrents dans les médias traditionnels. Après quelques années à l'affiche au cinéma puis à la télévision, le cas de la perche du Nil a de nouveau rejoint la cohorte des non-sujets. Il y a de bonnes raisons à cela. Pour expliquer les effets de meute, la victoire du biais de confirmation ou, plus généralement, de toutes les formes de paresse intellectuelle, on avance souvent que c'est l'intérêt économique qui fait que l'emballement se produit: il faut publier vite, les autres vont le faire, ça confirme ce qu'on pensait et c'est ce qu'attendent les lecteurs. Mais pour une enquête longue, certains de ces problèmes se posent toujours. D'abord, ces enquêtes sont d'une façon ou d'une autre préfinancées et il faut donc sans doute que le producteur vende le sujet à une chaîne de télévision avant que le reportage ne soit fini. Savoir ce qu'on va dire à l'avance est donc une bonne idée économique. On peut aussi recruter l'aide de gens prêts à abonder dans votre sens. Orienter l'émission dans le sens d'un grand scandale à l'œuvre dans l'ombre est un plus qui peut attirer de l'audience, etc. Une chose est certaine: ce type de système ne peut contrer le biais de confirmation. Si jamais il s'avère que les faits vont directement à l'encontre de la thèse du reportage, ça peut se solder sur un reportage impossible à montrer … Ça peut même dériver sur des comportements malhonnêtes: les seules explications disponibles du contre-sens de Cash Investigation sont une mauvaise connaissance du français, un aveuglement dû aux convictions des auteurs et la pure malhonnêteté.

Un autre exemple montre jusqu'à la caricature ce qui peut se passer avec ces reportages. Il y a quelques années, M6 avait diffusé une émission intitulée Au secours mon mari est un macho!. Bien sûr avec un titre et un sujet pareils, il avait fallu recruter un pigeon. Et donc l'équipe de tournage avait dit au couple sujet principal de l'émission que celle-ci porterait sur la passion du tuning. Grâce à un montage astucieux des discussions tenues tout au long de la journée avec eux, M6 a pu diffuser le sujet qu'elle souhaitait, flouant ainsi les gens enrôlés pour l'occasion. Bien sûr, on est là en face de pure malhonnêteté. Mais il reste qu'en tant que spectateur ne connaissant pas un sujet, on ne sait pas qui a été interrogé, combien de temps, ce qui a été conservé au montage, à quel point le reportage est orienté à l'appui d'une thèse particulière. On doit entièrement se reposer sur l'honnêteté et le sens du jugement des auteurs.

C'est pourquoi je pense que le problème de l'immédiateté se pose toujours du point de vue du spectateur, fût-il journaliste, qui tombe sur une information nouvelle. Il doit juger rapidement, parce qu'il a généralement autre chose à faire, si cette information est vraie. Et il a plus ou moins de chances de le faire selon qu'il ait été conditionné par la forme de l'annonce et des évènements passés ou selon que la nouvelle confirme, ou pas, ses croyances. Il est assez naturel que les gens qui font des annonces nouvelles travaillent au sujet en amont: leur élaboration requiert du travail qui ne se fait pas en un jour. La plupart des informations récurrentes sont dans ce cas. Par exemple, l'annonce des chiffres de la croissance économique requiert le travail des services de l'INSEE qui élaborent ensuite un communiqué pour présenter divers faits saillants. Mais on peut utiliser cette phase de travail pour préparer une opération médiatique. C'est ainsi que la présentation par Gilles-Éric Séralini de ses résultats bidons s'est accompagnée de publications simultanées ou presque de livres et reportages. C'est aussi le cas pour le premier exemple cité dans l'article du Guardian: si les frasques supposées de David Cameron avec une tête de cochon ont été diffusées, c'est pour faire la publicité d'un livre.

Pour espérer contrer cela, il faudrait que les rectificatifs des fausses nouvelles aient la même exposition que les annonces initiales et qu'ils soient systématiques. Malheureusement, ce n'est jamais le cas. Et, comme dans le cas du reportage de Cash Investigation, la réprimande des collègues est dans le meilleur des cas modérée: le premier Désintox de Libé se termine sur un dernier paragraphe où l'auteur se refuse à invalider l'ensemble du reportage sur cette base, alors que l'erreur est grossière et que toute l'émission semble basée là-dessus. Il s'est même trouvé au moins un journaliste pour pratiquement justifier le procédé. La suggestion de Gérald Bronner d'une sorte de Conseil de l'Ordre pour les journalistes pourrait être une solution, mais on se demande comment il trouverait tous les experts nécessaires ou comment il pourrait obliger les médias incriminés à faire amende honorable.

L'émiettement de l'offre

Par contre, là où Internet aide clairement les croyances, c'est dans l'émiettement de l'offre d'information. Depuis l'apparition d'Internet, des sites d'information nouveaux sont apparus dont la caractéristique est de s'adresser aux gens suivant leurs opinions (Contrepoints pour les libéraux, Fdesouche pour l'extrême droite, etc.). Internet sert aussi de répertoire d'arguments: c'est à cette fonction que le site d'Étienne Chouard dut sa renommée lors de la campagne référendaire de 2005. Mais je constate qu'en fait, Internet ne fait que prolonger une tendance déjà à l'œuvre, même si la perfection est presque atteinte.

Tout d'abord, il y a toujours eu une coloration politique à certains médias. Il est bien connu que Le Figaro est par exemple plus réceptif aux thèses de la droite française que ne l'est Le Monde, L'Humanité est le quotidien historique du Parti Communiste. Mais jusque vers les années 80-90, la concurrence idéologique semblait limitée aux médias écrits. La libéralisation qui s'est produite depuis a d'abord révélé que beaucoup de gens souhaitaient écouter de la musique à la radio, mais en 1996 Fox News s'est lancée. L'argument de vente n°1 de Fox News est son point de vue ouvertement pro-Républicain, comme celui de CNBC est d'être pro-Démocrate. L'émiettement ne date donc pas simplement de la diffusion massive d'Internet ou des réseaux sociaux, elle démarre sans doute avant avec la libéralisation des médias audiovisuels.

Ensuite il est vrai que dans ce domaine, Internet aide énormément. Internet diminue grandement les coûts de publication. Plus besoin d'imprimerie, d'émetteur radio. Internet a aussi changé le marché de la publicité, au moins pour les médias écrits. Les médias anciens comme nouveaux cherchent donc des financements, mais comme les informations en elles-mêmes sont disponibles partout, il faut proposer quelque chose d'autre: en l'occurrence, on peut leur proposer un point de vue sur le monde. Un business model possible est que les médias trouvent une clientèle en jouant sur les biais de confirmation d'une partie de la population, ou inversement, que la population se trie d'elle-même en se répartissant sur l'offre disponible suivant les différentes croyances. On peut voir ça sous un angle optimiste, mais évidemment le risque est que les fausses croyances ne s'implantent, sous l'effet d'une segmentation des médias suivant les groupes de population. Chaque groupe dans la population développerait alors ses propres croyances. C'est d'autant plus facile que les réseaux sociaux comme Facebook ont des algorithmes pour nous proposer principalement des choses proches de ce qu'on a déjà aimé, masquant le reste.

Enfin, cela relativise le pouvoir des médias en tant que tels. Une telle segmentation se produit surtout parce que la population se sélectionne sur des lignes éditoriales, les titres de presse essayant de nouvelles lignes éditoriales quand ils se sentent en perte de vitesse ou qu'ils sentent une opportunité. Il semble que Valeurs Actuelles ait fait évoluer sa ligne éditoriale ces dernières années. Il y a sans doute une lien avec les progrès électoraux du Front National et la disparition progressive des centristes du champ électoral. Les gens semblent se méfier des médias, mais est-ce parce que ces derniers ne disent pas la vérité ou parce qu'ils ne collent pas assez aux croyances des lecteurs? On peut aussi regarder dans le passé: au début de la IIIe République, il y avait de nombreux petits journaux d'opinion. Si Zola a publié son J'accuse…! dans L'Aurore, c'est parce que Le Figaro avait reçu de nombreuses protestations de lecteurs pour ses 3 premiers articles défendant Dreyfus. Cette affaire va d'ailleurs voir une partie non négligeable de la population continuer à croire en la culpabilité de Dreyfus malgré la révélation et la confirmation de faits accablants sur ceux qui l'ont envoyé au bagne. Une partie des positions de la presse reflètent donc les goûts du public, pas forcément une réflexion poussée sur un problème. Inversement, la population ne suit pas toujours les recommandations de la presse, comme le montrent les exemples du référendum sur le traité européen de 2005, le Brexit ou encore l'élection de Donald Trump. Quand les médias amplifient une rumeur, c'est souvent qu'il y a rencontre des croyances des journalistes et de celles de la population en général.

Comme la presse a pour but de relater des faits nouveaux, elle peut faire connaître largement des rumeurs qui sont encore largement ignorées par le plus grand nombre. Cela peut être relativement bénin quand on révèle les relations sentimentales de personnalités politiques. C'est bénéfique quand on révèle de vrais scandales publics. C'est par contre clairement néfaste quand on diffuse de pseudo reportages sur les dangers de la vaccination, ou un faux témoignage dans une affaire criminelle. Le problème est que la véracité n'est pas le premier déterminant de l'impact que peuvent avoir ces nouvelles, c'est plutôt l'accord qu'il y a entre ce qui est annoncé et les croyances des spectateurs et lecteurs. Pour que des faits réels mais qui s'insèrent mal dans le système de croyances de beaucoup de gens, il faut sans doute répéter de nombreuses fois et insister sur les preuves. Malheureusement, l'émiettement fait que les spectateurs peuvent fuir dès que le message ne plaît plus.

Cela rend plus difficile d'arrêter les démagogues qui mentent en jouant sur les croyances populaires. En effet, les médias sont parfois obligés de traiter certains sujets, ce qui donne une tribune à ceux-ci, même si les journalistes contredisent directement le tribun. Impossible par exemple de passer sous silence qu'il y a des gens qui appellent à voter «non» à un référendum! Le public ne répondant en partie que suivant ses croyances, la contradiction du journaliste tombe à plat: c'est pourquoi les rubriques de vrai/faux ne peuvent avoir qu'un impact limité sur certaines personnalités publiques. Une autre tactique est de profiter de l'émiettement des médias pour parler successivement à plusieurs audiences et leur dire ce qu'elles veulent entendre, que ce soit vrai ou faux, d'ailleurs! Évidemment, plus il y a d'émiettement et plus il y a de «silos» d'opinion, plus c'est facile.

En conclusion, il semble qu'incriminer Internet pour les contre-vérités dans les médias, c'est se tromper assez largement. Le problème de l'immédiateté dans les reprises et buzz n'est pas le seul problème, et on ne peut pas le contrer simplement en suscitant plus d'enquêtes de long terme: au fond on peut préparer un buzz de longue date! Là où la responsabilité d'Internet est claire, c'est dans la tendance à l'émiettement. Cela donne inévitablement des occasions supplémentaires pour les démagogues, mais c'est un mouvement qui avait commencé avant qu'Internet ne soit massivement utilisé. Cependant, vu le niveau de perfectionnement de plateformes comme Facebook, la segmentation de l'auditoire est sans précédent. Par ses actions sur Facebook, on peut signaler au fur et à mesure l'ensemble de ses propres croyances, ce qui permet ensuite de relayer surtout les contenu reflétant ces croyances. Même s'il n'y a pas plus de fausses nouvelles qu'hier dans les journaux, la faculté d'entendre et de lire uniquement ce qui confirme ce qu'on croit déjà devrait pousser à chercher leur élimination.

16 février 2016

Éradication

Il n'est pas très courant de voir pousser une logique philosophique à son terme, et c'est pourquoi il me semble intéressant de lire le billet d'Audrey Garric, journaliste au Monde, a publié sur son blog à propos de l'éradication des moustiques. Chacun sait que ces dernières années, le moustique tigre a agrandi son aire de répartition et a amené avec lui les maladies qui l'accompagnent, la dengue, le chikungunya et le zika. Cette dernière maladie est actuellement l'objet d'une attention particulière car de nombreux cas sont apparus au Brésil — avec comme conséquence de nombreux cas de microcéphalie. Une des voies de lutte contre ces maladies est de chercher à développer des vaccins — qui deviennent potentiellement rentables maintenant que ces maladies touchent nettement plus de monde et que la clientèle est plus solvable. Une autre est aussi de lutter contre le vecteur de la maladie: le moustique. Le paludisme, véhiculé par les anophèles, soulève des questions très similaires et on peut soit chercher un remède contre le parasite responsable, soit lutter contre le vecteur.

Le post donne la parole a des entomologistes qui disent carrément qu'on peut se passer des espèces de moustiques qui véhiculent des maladies, parce qu'ils seront soit remplacés par d'autres espèces de moustiques moins dangereuses pour l'homme, soit remplacés par d'autres types d'insectes. Mais en fin de billet on voit apparaître la raison pour laquelle la question n'est pas évacuée comme impossible: il y a de nouvelles techniques pour essayer de diminuer les populations de moustiques. 3 méthodes sont apparues:

  1. Infecter les anophèles avec une bactérie qui rend impossible la transmission du paludisme.
  2. L'utilisation de moustiques transgéniques mâles dont la descendance meurt au stade larvaire, fabriqués grâce à une technique qui a le vent en poupe.
  3. Utiliser des moustiques transgéniques pour rendre impossible la transmission du paludisme, gêne qui se répand grâce à une variante de la même technique.

La deuxième technique a de très bon taux de succès puisque des tests ont montré une chute de 80% de la population de moustiques tigre. Vu la voie d'action du procédé — par lâcher de moustiques mâles qui iront s'accoupler avec des femelles —, il est peu probable qu'une résistance se développe à court terme contrairement aux insecticides. Ce type de technique a d'ailleurs déjà été utilisé avec succès dans la cas de la lucilie bouchère.

La réponse finalement apportée par Audrey Garric est à mon sens résumée dans la dernière phrase du billet: peut-on supprimer des espèces entières, aussi meurtrières soient-elles, quand les humains eux-mêmes constituent un danger pour la nature dans son ensemble ?. Elle paraît donc essentiellement négative; finalement l'homme n'aurait pas le droit d'éradiquer les moustiques vecteurs de maladies parce qu'il est lui même corrompu et fondamentalement mauvais, car il passe son temps à rompre l'équilibre naturel des choses. L'impression qui se dégage est que l'espèce humaine — enfin, pour l'instant, la partie qui vit sous les tropiques — doit accepter la malédiction que sont les maladies véhiculées par les moustiques un peu comme un châtiment pour les destructions qu'il provoque par son activité. Souvent, la biodiversité est présentée par ses défenseurs comme un but en soi, n'ayant pas besoin d'autre justification, ce qui peut amener à se poser la question de savoir si la défense de la biodiversité s'étend aussi à des organismes clairement nuisibles tels que le virus de variole. La réponse suggérée dans le billet s'approche très près d'une telle affirmation.

Qu'on puisse préférer des espèces nuisibles au bien-être de l'homme me dépasse. Surtout dans le cas où, comme ici, il n'y aura sans doute aucune conséquence notable de la disparition de ces espèces de moustiques dangereuses pour l'homme autre qu'un plus grand bien-être pour ce dernier. Les personnes interrogées sont claires sur ce point: les moustiques dangereux seront remplacés par des insectes remplissant des niches écologiques équivalentes. De plus, aujourd'hui, les maladies véhiculées par les moustiques sont absentes de France métropolitaine, ce qui rend confortable de se poser des questions de la sorte. Pendant ce temps-là, on estime qu'il y a 200 millions de malades, et 600 000 morts par an, du paludisme. Pendant ce temps-là, deux théories du complot se sont développées sur le virus zika: la première incriminait les moustiques transgéniques, l'autre sur un produit de traitement de l'eau visant à tuer les larves de moustique. Dans les 2 cas, on incrimine une solution potentielle contre ces maladies en utilisant des arguments dans la droite ligne de ceux des militants écologistes: dénigrer les OGMs et les insecticides. Remettre le bien-être des hommes au centre des préoccupations serait donc sans doute une meilleure idée, à mon avis.

13 janvier 2016

Du débat sur la vaccination obligatoire

Ce mardi 12 janvier, des articles sont parus dans la presse pour annoncer un débat sur la vaccination obligatoire (Le Monde, Le Figaro). Cela fait suite à une baisse du taux de vaccination pour certaines affections alors que pour être pleinement efficace des taux de vaccination de l'ordre de 90% sont souvent nécessaires. L'article du Figaro mentionne ainsi que seuls 73% des nourrissons de 24 mois sont vaccinés contre la rougeole et que le taux parmi les moins de 30 ans est de 93% alors qu'un taux de 95% est estimé nécessaire pour protéger complètement la population.

L'article du Monde montre que la presse n'est peut-être pas pour rien dans la progression des théories fumeuses des anti-vaccins: il est très sérieusement dit que satisfaire à l'obligation vaccinale seule est impossible du fait de l'absence d'un vaccin trivalent. C'est bien sûr faux: pour satisfaire à l'obligation vaccinale, il suffit à un docteur de commander auprès de Sanofi un kit de 2 vaccins. Malgré les pénuries dues aux avanies de productions et à des épidémies qui se sont déclenchées suite à une baisse du taux de vaccination, des ruptures de stock ont eu lieu, mais il a toujours été possible de satisfaire à l'obligation vaccinale seule. De plus le kit de 2 vaccins est fourni gratuitement! Ce qui n'est pas possible est de disposer du confort de ne faire qu'une seule injection. On voit donc que Le Monde reprend sans les démentir les allégations de dangereux activistes. On peut aussi remarquer que la presse n'est pas pour rien dans la défiance qui s'est installée à propos du vaccin contre l'hépatite B: si les allégations sur un lien entre sclérose en plaque et ce vaccin ont bien été relayées, depuis qu'elles ont été infirmées — c'est à dire presque immédiatement — la confirmation du bénéfice apporté n'a pas fait l'objet de beaucoup d'attention.

On y lit aussi les propos renversants d'une député socialiste, auteur d'un rapport sur le sujet il y a peu:

« En cas de levée de l’obligation, il faudrait faire attention au message envoyé, trouver dans la langue française l’équivalent de “mandatory” en anglais, un terme qui voudrait dire “faites-le parce que c’est bon pour votre santé” »

Le problème, c'est qu'il suffit d'ouvrir un dictionnaire anglais-français pour s'apercevoir que mandatory se traduit par obligatoire! Bref, il est sidérant d'organiser un débat dont on laisse entendre qu'une issue possible est la fin de l'obligation vaccinale. Les propos de la député montrent un égarement certain: si la vaccination est obligatoire, c'est aussi parce qu'elle protège l'ensemble de la population et que des comportements de passagers clandestins peuvent miner son efficacité. Finasser en cherchant des termes nouveaux ne fait qu'insinuer l'idée que, finalement, ne pas faire vacciner ses enfants n'est pas si grave et qu'on peut s'en dispenser. Même la ministre Marisol Touraine le dit (cf l'article du Figaro): si l'obligation vaccinale est supprimée, le message envoyé est que c'est facultatif! En conséquence, le taux de vaccination ne pourra que baisser de ce fait.

Au fond, il n'y a guère que 2 issues à ce débat: soit l'obligation vaccinale est étendue — probablement au vaccin hexavalent — soit elle est maintenue en l'état. Ce qui doit décider de quel côté penche la balance est la dangerosité des maladies combattues ainsi que leur aspect contagieux. Au vu de la dangerosité de la rougeole, je pense qu'il est temps que la vaccination ROR devienne obligatoire, au minimum.

Mais qu'il soit jugé nécessaire d'organiser un tel débat est le signe du recul de la raison et du discours scientifique parmi la population, et surtout parmi la population dotée d'un certain niveau d'éducation. Malheureusement, cela s'accorde bien avec les réactions sur d'autres domaines, comme les ondes électro-magnétiques ou encore les OGMs. Le consensus scientifique sur leur innocuité y est souvent présenté comme une hypothèse surannée, les théories du complot comme crédibles si ce n'est comme étant la vérité.

28 octobre 2015

Tract ou journal?

Mardi après-midi, est paru sur le site du Monde un article intitulé Le nucléaire, une solution pour le climat ?, signé par Pierre Le Hir. A priori, on s'attendrait à une comparaison des émissions de CO₂ entre diverses technologies, mais en fait, il semble bien qu'il s'agit en fait de relayer la parution d'un argumentaire anti-nucléaire par diverses associations opposée à cette technologie. En effet, la structure de l'article est composée d'une introduction où on parle de la position d'EDF, puis un corps où l'argumentaire des opposants est développé, pour terminer pour citer le GIEC, mais surtout dans ses remarques les plus négatives.

Évidemment, le nucléaire ne règlera pas à lui tout seul le problème des émissions de CO₂ et du réchauffement climatique, mais comme personne ne prétend qu'une technologie peut y parvenir seule, la question est plutôt de savoir s'il peut apporter quelque chose. On peut alors se retourner vers quelques faits simples. Tous les ans, l'AIE publie un inventaire mondial des émissions de CO₂ venant de la production d'énergie, ainsi que son résumé, gratuit et accompagné d'un tableur. La dernière édition disponible aujourd'hui, celle de 2014, recense les émissions de 2012. On y constate une différence d'émissions de 4 tonnes de CO₂ par habitant entre la France et l'Allemagne, dont 3.3 pour le seul poste «production de chaleur & d'électricité». La source de cette différence est bien connue: en Allemagne, presque 50% de la production d'électricité est assurée par du charbon et les 2/3 à partir de combustibles fossiles, alors qu'en France, les moyens décarbonnés assurent plus de 90% de la production et le nucléaire entre 75 et 80%. Comme on peut le constater, cette expérience montre que le nucléaire a bien le potentiel de réduire substantiellement les émissions dans certains pays, et non des moindres! CO2_FRvsDE.jpg

Un autre argument avancé est que le nucléaire émet lui aussi du CO₂. Ce n'est pas faux: lors de la construction, on a besoin de ciment et d'acier, qui nécessitent d'émettre du CO₂ pour les produire. Afin de comparer tous les effets, le concept d'émissions sur le cycle de vie a été développé. Il s'agit de comptabiliser toutes les émissions qui ont servi à produire de l'énergie, du début de la construction à la démolition. Le GIEC fournit dans le résumé technique de la partie sur les solutions possibles au problème du réchauffement climatique le graphe suivant p41 (coupé pour ne tenir compte que des technologies actuellement disponibles). LCA_technos.jpg On constate que le nucléaire est parmi les moins émetteurs: la médiane des études le met à égalité ou presque avec l'éolien. On est donc bien en peine de trouver le moyen de production d'électricité qui produirait vraiment moins de CO₂ par unité d'énergie, ce qui est quand même l'essentiel pour lutter contre le réchauffement climatique. Le solaire phovoltaïque, par exemple, émet plus que le nucléaire, ce qui ne l'empêche pas d'être apprécié par les opposants au nucléaire. C'est à peine si l'auteur de l'article mentionne cela, tout au plus il mentionne que le GIEC classe le nucléaire parmi les sources à faibles émissions de carbone.

Les autres problèmes du nucléaire existent bien, mais aucun des problèmes des alternatives ne sont exposés. Par exemple, nulle mention du problème de l'intermittence de l'éolien ou du solaire. Le scénario de l'ADEME qui prévoit un mix électrique 100% renouvelable est mentionné, sans dire que certaines technologies nécessaires n'existent pas à l'heure actuelle. Enfin, quand on mentionne les problèmes d'acceptation par la population, c'est évident que tout dépend de la perception qu'en ont les gens … qui serait peut-être améliorée par une information impartiale qui éviterait de n'instruire qu'à charge.

Cet article semble donc être avant tout une reprise de la communication des associations anti-nucléaires. Même pour un «compte-rendu», on serait tout de même en droit d'attendre que les inexactitudes dans leurs positions ne soient pas relayées complaisamment. Et qu'à la question posée dans le titre, on apporte la véritable réponse que les faits appellent: Oui, le nucléaire est une solution pour le climat, mais seulement partielle et s'il devient mieux accepté et moins cher!

30 novembre 2014

Du dieselisme passif

Mardi 25 novembre, les particules fines et le diesel ont refait surface dans les médias, toujours pour dénoncer l'ampleur scandaleuse de la pollution. Cela faisait suite à une présentation à la presse des résultats de mesures effectuées à l'aide d'un instrument embarqué à bord du ballon Generali qui flotte au-dessus du parc André Citroën, dans le 15ᵉ arrondissement de Paris. Cette fois-ci, la comparaison choc est que la pollution aux particules de moins de 1µm de diamètre équivalait aux dommages causés par le tabagisme passif.

Si on se rend sur le site de l'Institut National du Cancer, on constate que 1100 décès sont attribués chaque année au tabagisme passif sur l'ensemble de la France. Pourtant, il n'y a pas si longtemps, on nous annonçait que la pollution aux particules était responsable de 42000 morts par an en France, ce qui avait suscité mon premier billet sur le sujet. Les articles et la présentation affirment que les particules d'un diamètre de moins de 1µm sont les plus nocives. En conséquence, on ne peut que s'émerveiller des progrès rapides de la lutte contre la pollution aux particules, puisqu'en seulement 2 ans et demi, le nombre de décès a été divisé par un facteur 40. Malheureusement, il semble que personne n'ait remarqué ces progrès dans la presse, puisque les articles sont toujours aussi négatifs et appellent toujours à pourchasser le diesel. Cette estimation est même inférieure à celle à laquelle je m'étais risqué dans mes billets précédents.

De plus, le seul jour du 13 décembre 2013 semble concentrer le feu des critiques, alors que les mesures ont été effectuées entre septembre 2013 et août 2014 et qu'un autre épisode de pollution aux particules a eu lieu en mars 2014. Ce n'est guère étonnant: il s'est avéré par la suite que plus de la moitié des particules n'étaient pas dues à la combustion, mais aux activités agricoles, puisque 51% étaient composées de nitrate d'ammonium et seulement 11% dérivaient de l'usage de combustibles fossiles. En conséquence de quoi, il y a dû y avoir relativement peu de particules de moins de 1µm, car la combustion de matières — dérivés du pétrole, bois — provoque essentiellement l'émission de ces particules. Si d'autres causes sont responsables d'un pic de pollution, la proportion de particules de moins de 1µm est moindre. En mars dernier, le diesel était le premier accusé; qu'il soit apparu après coup que le diesel n'ait joué qu'un rôle marginal dans le pic de pollution n'a pas suscité de retour dans la presse.

Avec les diagrammes publiés sur le blog {sciences²} de Libération, on s'aperçoit que les concentrations varient d'un facteur 30 sur l'année de mesures. En moyenne sur l'année, les concentrations sont plus proches du minimum que du maximum constaté lors d'un pic de pollution: les pics de pollution sont de courte durée et ils comptent relativement peu dans la moyenne. Si on regarde le cas des particules de moins de 10µm, on s'aperçoit que la moyenne est de l'ordre de 2 fois le minimum (cf graphe ci-dessous) PM10_201309_201408.jpg Si on applique la même règle aux particules de moins de 1µm, au lieu d'un studio où on a brûlé 8 clopes, on trouve qu'en moyenne sur l'année, il y a autant de particules que si on avait brûlé 0.5 cigarette. Comme bien sûr on ne peut jamais atteindre le zéro équivalent-clope, il faut bien constater qu'on ne peut pas vraiment dire que la pollution à Paris est équivalente au tabagisme passif.

On peut aussi constater qu'une fois de plus, ce qui a été relayé dans la presse portait sur l'aspect négatif: rapporter la concentration de particules de moins de 1µm en termes de nombre est assez révélateur. En effet, les organismes de mesure de la pollution parlent plutôt en termes de masse globale des particules. Bien évidemment, une grosse particule va peser bien plus lourd qu'une petite: si la masse est proportionnelle au volume, une particule de 2.5µm pèse 15 fois plus qu'une particule de 1µm. On voit que le nombre de petites particules peut rapidement devenir proprement astronomique. Est-ce cela signifie qu'elles sont dangereuses à proportion de leur nombre? Pas forcément! Dans ce cadre, l'affirmation qu'aucun seuil réglementaire d’émissions n’a été encore fixé pour les nanoparticules relève du mensonge pur et simple: comme les normes anti-pollution s'attaquent à la masse de toutes les particules émises lors du test, quelque qu'en soient leurs tailles, les particules de moins de 1µm sont bien évidemment incluses. De plus, la norme Euro 6 impose une limite en nombre, dans le but de s'attaquer directement aux émissions de particules de moins de 0.1µm!

Comme d'habitude, cet évènement a été rapidement récupéré par les opposants au diesel. Il n'est besoin que d'observer que le fioul domestique, qui n'est rien d'autre du diesel auquel on a ajouté un colorant rouge, ne fait l'objet d'aucune mention. Or, l'usage du fioul pour se chauffer en hiver est bien mieux corrélé aux pics de pollution que la consommation de gazole! Inutile donc de rappeler aussi que la combustion du bois est le premier émetteur de particules de moins de 1µm, qu'en moyenne les 2/3 des particules en Île de France viennent d'ailleurs, que les normes anti-pollution mettent les voitures neuves essence et diesel au même niveau ou presque. Le mal est forcément le trafic parisien fortement diésélisé et il faut bannir les voitures diesel. Même si je considère que le diesel bénéficie d'un avantage fiscal infondé et que je suis favorable à l'alignement de la fiscalité du diesel sur celle du super 95, je remarque que la campagne de diabolisation du diesel est mensongère et s'attaque surtout à des problèmes qui se posaient il y a 20 ans.

25 février 2014

La démocratie des crédules

Gérald Bronner, professeur de sociologie, a publié son ouvrage La démocratie des crédules l'an dernier. En conséquence, il a déjà été commenté ailleurs (critiques favorables sur contrepoints, sur le site de l'AFIS, chez Christophe Ginisty, un professionnel de la communication; critiques défavorables sur Slate et ) et l'auteur a eu l'occasion de s'exprimer dans les médias à diverses reprises (interview aux Échos, une vidéo là, passage à l'Esprit Public sur France Culture). Le domaine de prédilection de Gérald Bronner est celui de l'étude des croyances, définies comme l'ensemble de ce qu'un individu tient pour vrai. La thèse de La démocratie des crédules est que les biais cognitifs commun à l'ensemble du genre humain, l'apparition d'Internet et de ses capacités à diffuser et agréger des opinions, l'intensification de la concurrence entre médias ouvrent la porte à la diffusion de croyances fausses, dégradant fortement le débat démocratique et la rationalité des décisions.

Avant d'aborder le fond, ce livre recèle un nombre surprenant de coquilles. C'est aussi le type de livre qui se prêterait à merveille à une édition numérique spéciale: l'auteur y décrit un certain nombre de travaux de sociologie — dont bon nombre des siens — et renvoie à un certain nombre de sites web tout au long du texte.

La crédulité humaine, ses origines et ses conséquences

Le livre est traversé par l'exposé de limitations de l'esprit humain quand il s'agit de déterminer la véracité de certaines assertions. En effet, l'esprit humain utilise un certain nombre de raccourcis dans la vie courante. Le premier biais est le biais de confirmation qui conduit dans la plupart des cas à préférer les argumentations qui confirment ce qu'on pense déjà vrai, ne pas chercher s'il pourrait exister une preuve inverse ou à ignorer les effets dus aux hasard sur des grands nombres. Ensuite, même si l'être humain est assez doué pour le raisonnement logique, certains aspects lui sont plus difficiles: c'est le cas de l'appréhension de l'implication ou de la manipulation des probabilités conditionnelles. Il est aussi connu que si l'esprit humain appréhende bien les probabilités proches de ½, il appréhende très mal les probabilités proches de 0 ou de 1 en donnant plus d'importance qu'il ne faudrait aux évènements peu probables. Le point commun de ces biais est qu'il faut produire un effort pour appréhender correctement la situation: en temps normal, pour gagner du temps, nous préférons le moindre effort intellectuel. Ces biais sont importants pour le débat public: en général les tenants d'une thèse ne vont exposer que les éléments qui leur sont favorables. On peut aussi remarquer que bon nombre d'assertions en débat sont en fait des énoncés probabilistes ou statistiques. C'est particulièrement vrai quand il s'agit de traiter de risques: au problème de l'appréhension des probabilités, vient s'ajouter le problème de la dissymétrie dans l'appréhension des bénéfices et des risques, à l'avantage de ces derniers.

Gérald Bronner voit Internet comme un outil qui sert les croyances, y compris les plus farfelues. Internet permet en effet de disposer d'une mémoire latente d'une taille extraordinaire et de pouvoir communiquer avec ceux qui partagent les mêmes préoccupations, fussent-elles extrêmement confidentielles. Cela permet à des groupes marginaux de regrouper rapidement leurs arguments et de les faire connaître. Le livre s'attarde sur des phénomènes de constitution de rumeurs, comme suite à la mort de Michael Jackson ou aux attentats du 11 septembre 2001, pour constater qu'Internet permet d'accumuler un grand nombre d'arguments, pas forcément tous compatibles entre eux d'ailleurs, en faveur de l'existence d'un complot en un temps réduit. Tout ce qui est nécessaire est de la motivation. Cette motivation, caractéristique essentielle des militants, se traduit par le fait qu'une vision rationnelle du monde n'est pas forcément majoritaire lorsqu'on fait une recherche sur Internet. L'auteur prend 5 exemples: l'astrologie où on peut constater l'importance de l'exploitation commerciale, les crop circles, l'aspartame, le monstre du Loch Ness et la télékinésie. Il a effectué courant 2010 des recherches sur Google sur ces thèmes et a constaté que les sites répandant des croyances fondées sur rien de scientifique étaient de loin majoritaires! Les recherches menées pour l'écriture de ce billet montrent que ce n'est plus toujours le cas, comme dans le cas de l'aspartame, où la communication des agences de sécurité sanitaire a pris le dessus à l'aide d'articles de presse. La motivation des croyants et leur maîtrise technique leur permet d'obtenir une exposition tout à fait correcte. De plus, les résultats des recherches sont influencées par la requête: ajouter «complot» à toute recherche comme cet auditeur de radio cité dans le livre va évidemment donner un grand nombre de résultats penchant dans ce sens!

Le livre s'intéresse ensuite à l'influence de la concurrence entre média dans la diffusion des croyances. Pour Gérald Bronner, le mouvement de libéralisation des fréquences et l'apparition d'Internet ont provoqué un trop-plein de concurrence. En voulant toujours aller plus vite que le voisin, il est tentant de ne plus vérifier. En voulant attirer le chaland avec des nouvelles fracassantes, il est tentant de relayer des rumeurs farfelues. Le point de l'auteur n'est pas que le milieu médiatique soit malhonnête mais que la logique concurrentielle pousse à relayer des croyances. La vitesse de publication en particulier oblige les journaliste à prendre les raccourcis intellectuels qui donnent une perception faussée de la réalité.

Enfin, la combinaison de ces trois éléments met en danger la démocratie. La démocratie repose sur des décisions prises en commun et elles sont sujettes aux biais de raisonnement lorsque ceux-ci poussent toujours dans le même sens de décision. Les erreurs de raisonnement peuvent être corrigées au cours du temps nécessaire à l'élaboration de la décision: voter une loi y prend du temps. Mais comme les croyances ont de plus en plus d'exposition, notamment dans les média, il est de plus en plus difficile de prévaloir sur les biais cognitifs. Si, auparavant, la correction des erreurs de raisonnement n'avait rien d'obligatoire, elle devient de plus en plus difficile, car la voix des croyants motivés a de plus en plus de résonnance. Gérald Bronner s'attarde sur deux processus apparus plus ou moins récemment dont l'idée était de faire apparaître un consensus rationnel grâce à la délibération ou la publication d'éléments de fait, ce qu'on appelle la transparence. La délibération est illustrée par les débats publics pour la construction d'infrastructures. Le problème est que ne participent à ces débats que les gens motivés. Ce sont pratiquement toujours des opposants. En conséquence, ils sont surtout l'occasion pour les opposants d'exprimer leur point de vue sans relâche. La transparence est illustrée par la publication de toutes sortes de statistiques sur des sites web dépendant de l'état. Le problème est une nouvelle fois qu'on peut en faire un usage biaisé: dans une telle masse de données, on peut faire apparaître des choses qui ont l'odeur du scandale en n'en regardant qu'une partie, mais qui le sont nettement moins quand on regarde un ensemble plus grand. L'auteur prend l'exemple de la soi-disant vague de suicides à France Télécom où le taux de suicide était en fait très comparable au reste du pays.

Quels remèdes?

À l'opposé ce qu'on entend souvent sur la question, Gérald Bronner ne plaide pas pour plus d’éducation pour lutter contre cette progression des croyances farfelues. Il constate en effet que l'irrationalité ne disparaît pas avec la hausse du niveau d'éducation. C'est par exemple ce qu'on peut constater dans le domaine de l'énergie. Par contre, ce qui est constaté, c'est que statistiquement, avoir un diplôme du supérieur scientifique réduit cette proportion. En conséquence, Gérald Bronner suggère d'insister sur des enseignements qui vont à l'encontre des pentes naturelles de l'esprit — et qui ont souvent une coloration scientifique.

Il demande aussi que les journalistes soient mieux formés à ces mêmes biais cognitifs et aux formes usuelles de légendes urbaines. Il appelle aussi à la formation d'un organe professionnel pouvant sanctionner les errements les plus graves de la profession. Enfin, il recommande une modification de la communication de la part des scientifiques, tant dans la forme que dans l'engagement.

Ce que j'en ai pensé

Je trouve que la lecture de ce livre est tout à fait recommandée. J'ai particulièrement apprécié la description des nombreux biais de l'esprit qui nuisent à une compréhension rationnelle du monde par l'ensemble d'entre nous. Ces biais sont utilisés, consciemment ou pas, par les tenants des croyances. La position de l'auteur sur le danger pour la démocratie, ou plus exactement sur la possibilité de prendre des décisions rationnelles en démocratie, est aussi largement fondée. Sur beaucoup de sujets où la technique est fort présente, on peut constater que ce n'est pas le consensus scientifique sur la question qui borne l'univers des possibles.

Les deux types biais qui m'ont semblé très pertinents. La première catégorie est celle liée à la logique mathématique et notamment aux probabilité conditionnelles. Ayant dans ma prime jeunesse suivi des cours de maths, je peux confirmer que les réflexes en la matière ne s'acquièrent qu'avec une certaine pratique et que même alors, ce n'est pas aussi naturel qu'on pourrait le penser. Ce cursus m'a aussi permis de m'apercevoir que les énoncés probabilistes étaient le meilleur exemple de l'énoncé pourri, celui qui vous induit en erreur. L'entrainement en la matière n'est certainement pas inutile, puisque j'ai trouvé que certains énoncés donnés dans le livre étaient incomplets pour qu'on puisse apporter une réponse. Il faut cependant remarquer une nouvelle fois que nombre d'exposés actuels sont en termes de probabilités ou de statistiques et qu'ils sont donc intrinsèquement difficiles à appréhender. On ne peut pas non plus facilement modifier l'énoncé d'un problème qui fait polémique pour le sortir de l'ambiguïté!

La deuxième catégorie est celle du biais que Gérald Bronner nomme «effet Fort» où l'argumentation procède par une logique d'accumulation et où tout ce qui est avancé en faveur d'une thèse n'a en fait même pas besoin de l'être. Je trouve que l'exposé de ce biais, dont la logique est celle de «il n'y a pas de fumée sans feu», trouve de nombreux échos dans le débat public actuel. Cela explique aussi la grande difficulté des contradicteurs «rationalistes»: pour répliquer il faut bien connaître les arguments de ses adversaires, ce qui est nettement plus difficile quand il y en a beaucoup! Les experts qui voudraient contredire se trouvent aussi parfois en position de concéder des points à ceux dont ils contestent les thèses. Ce faisant, ils renforcent la validité de la thèse adverse, même si le point concédé ne devrait pas logiquement venir en soutien de cette thèse. Pour contester efficacement une thèse farfelue, on conçoit alors que la motivation devient primordiale. Or cette motivation est un des aspects fondamentaux du prosélyte qui cherche à répandre sa croyance.

Ce qui m'amène à la critique principale du livre: les solutions proposées ne semblent pas à la hauteur du problème. Commençons par l'évolution de la communication de la part des scientifiques et experts. Outre que ceux-ci sont souvent mal préparés à intervenir dans les médias, en partie faute de la motivation propre aux prosélytes, il faut bien constater que recourir aux biais de l'esprit amène sur une pente glissante et à pouvoir répandre des croyances. Pour prendre un exemple, je vais partir d'un élément contenu dans le livre: un sondage a trouvé que 65% des français pensent que respirer l'air des villes est aussi dangereux que fumer du tabac (figure 12, p19). Il m'est difficile de ne pas rapprocher cela des fameux 42000 morts des particules, qui sortent tout droit de la communication qui a entouré une étude scientifique sur la question, et dont j'ai tenté de montrer, tant bien que mal, que ces morts n'avaient rien de comparable aux morts du tabac. User des biais de l'esprit emporte donc à mon sens un certain nombre de risques que les tenants de la rationalité peuvent à bon droit rechigner à prendre.

L'enseignement de la logique mathématique aux journalistes me semble se heurter à un obstacle de taille: le manque de goût qu'ont sans doute ceux-ci pour les maths! En effet, s'ils ont choisi une autre voie d'enseignement, c'est sans doute que les maths n'étaient pas leur matière préférée. Et on voit là que statistiquement le fait que les journalistes soient de formation littéraire les rend plus sensibles aux croyances, notamment dans les domaines techniques. Toujours sur le sujet des journalistes, si on peut certainement blâmer la situation du marché de l'information pour la qualité du traitement, ce ne peut être le seul élément. La malhonnêteté de certains ou leur idéologie les conduit à privilégier et répandre des croyances. Le cas du témoignage de Djamel, jeune homme qui prétendait avoir été violé par Dominique Baudis mais dont on avait coupé au montage les déclarations comme quoi il se disait aussi fils de Michael Jackson et violé par Sarkozy, est exemplaire à ce sujet: c'est là un acte qu'il est difficile de qualifier autrement que de malveillant. Quant à espérer un virage vers un journalisme de qualité tombant moins dans le piège de l'urgence, on risque de prolonger la tendance à la segmentation du marché par préférences politiques … et on risquerait alors de voir plus de reportages du type de celui où on va à la rencontre des électro-hypersensibles sans aucune distance critique.

Au final, ce livre me semble salutaire en ce qu'il expose clairement un certain nombre de biais dont nous pouvons tous être victimes, ce qui est un premier pas pour essayer de s'en prémunir. Le livre est aussi convaincant dans l'enchainement qui cause la piètre qualité du débat public sur nombre de question à forte composante technique. Mais, même si l'auteur se veut optimiste en présentant ses solutions, il est difficile de ne pas finir la lecture de ce livre plus pessimiste qu'on ne l'a commencée.

6 septembre 2013

Dimitris

Ce dimanche, le Monde nous a gratifié d'un article sur ceux qui se nomment électro-hypersensibles. On nous présente le cas de plusieurs personnes. Une femme se dit intolérante à diverses fréquences allant du 50Hz du courant électrique aux micro-ondes, elle semble vivre en permanence avec un bracelet anti-statique. Elle l'utilise pour se mettre à la terre, alors que, marchant pieds nus, sa conductivité électrique, que sous-entend la prise au premier degré de son affection, devrait lui permettre se décharger automatiquement. Un homme est aussi atteint après avoir eu une vie frénétique en travaillant sur plusieurs continents. Un autre se dit aussi atteint, de plus, il ne supporterait aucun produit chimique. À première vue, il s'agit d'un rassemblement de personnes souffrant effectivement d'une ou plusieurs affections handicapantes, puisque, par exemple, l'électricité est devenue omniprésente dans le monde moderne. Cela dit, rien ne dit que le diagnostic que ces personnes portent sur elles-mêmes soit le bon.

On s'aperçoit que la journaliste a tout de même une intime conviction: les téléphones portables sont bien responsables. Elle nous dit que ce sont des symptômes que nombre de médecins, démunis, attribuent encore régulièrement à des troubles psychiatriques ou psychosomatiques et que la controverse est loin d'être tranchée chez les scientifiques et divise la classe politique. Ainsi donc, il semble qu'il ait encore des médecins qui n'ont pas vu la lumière et qui osent encore attribuer ces symptômes à des causes psychiatriques. Il y aurait aussi une controverse scientifique. Les lecteurs réguliers de ce blog se rappelleront sans doute que j'ai déjà abordé ce thème par deux fois. On peut résumer le consensus scientifique en signalant que l'ANSES rappelait que les seuls résultats positifs obtenus à ce jour sur le plan thérapeutique sont ceux obtenus par des thérapies comportementales ou des prises en charge globales et qu'un article scientifique a montré que ces personnes étaient bien incapables de détecter les ondes auxquelles elles imputaient leurs maux. Il est aussi très étonnant qu'aucune explication ne soient apportée au fait qu'après plus d'un siècle d'utilisation du courant alternatif et des techniques utilisant les ondes radio, ce n'est qu'avec le téléphone portable que sont apparus ces électro-sensibles.

On se trouve ainsi dans un cas où la situation est présentée sous un jour tout à fait particulier et on ne peut s'empêcher de remarquer qu'on nous avait déjà fait le coup en 2008. La dispute politique, par contre, est bien réelle; elle est portée par les écologistes. Par une coïncidence extraordinaire, cet article est publié juste après la publication d'un rapport concluant à la multiplication par 3 du nombre d'antennes si on voulait passer en deçà du seuil arbitraire et sans justification de 0.6V/m en gardant une bonne qualité de service. En attendant, dans certains immeubles, on a du mal à capter le signal, alors que le téléphone portable est aujourd'hui le seul téléphone pour un certain nombre de ménages, grâce notamment à son faible coût puisque pour 2€ par mois et un appareil à 20€ on peut appeler de partout, alors qu'un ligne fixe réclame de l'ordre de 15€/mois d'abonnement et oblige à payer un raccordement de 50€.

La revendication qui est porté par le rassemblement qui nous est décrit mérite aussi le détour: la création de zones sans ondes. Cette revendication est impossible à satisfaire depuis que Marconi a inventé la radio, notamment à ondes courtes, que le courant alternatif alimente tous les équipements du confort moderne et que le téléphone satellite a fait son apparition. Elle est directement inverse à celle des élus et de la plupart des habitants qui ont réclamé à cor et à cri une bonne couverture par le téléphone portable, non sans succès puisqu'on a rapporté des cas de personnes sauvées par des messages envoyés depuis un endroit autrefois improbable. Cette revendication s'accompagne d'une menace d'utilisation de la violence puisque la zone blanche, on la prendra s'il le faut. Cette revendication a donc pour principal intérêt de faire passer ceux qui veulent limiter l'exposition pour des modérés préférant la paix.

Cette semaine, un journaliste a aussi fait part des raisons qui l'ont amené à quitter le journal qui l'employait. Son employeur le soupçonnait en fait de n'être guère impartial quand il voulait couvrir les évènements entourant la contestation de la construction de l'aéroport de Notre-Dame-des-Landes. Il faut dire qu'il qualifie de magnifiques 3 jours sur place en compagnie des contestataires. Pourtant d'autres échos laissent entendre un quotidien de racket et de vols dans les supermarchés pour les habitants, priés d'être contre l'aéroport sous peine de rétorsions bien réelles. On le voit, la réalité montrée dépend fortement du point de vue de celui qui tient le stylo ou, de nos jours, le clavier. Sans surprise, la vision relayée reflète les opinions politiques de l'auteur, sans que le lecteur n'ait de moyens rapides de vérifier quels faits auraient pu être occultés, voire même qu'on lui raconte en fait n'importe quoi. Autrefois, des puissants accréditèrent le récit d'un homme sans qu'il ne fût nécessaire qu'ils y crussent, car c'était expédient pour leur cause politique. Aujourd'hui, les choses n'ont peut être pas tant changé; si la cause politique a des chances de remporter un succès, il est loin d'être sûr que les malades qu'on nous montre bénéficient vraiment, à terme, d'un relais sans critique de leur croyances.

15 mai 2013

Téléphone GM

Lundi dernier, La Cour Suprême des États-Unis a rendu sa décision sur le cas d'un fermier américain qui avait semé du soja GM sans payer de subsides à Monsanto. Elle a condamné à l'unanimité le fermier. C'est l'occasion de s'apercevoir que la presse français souffre parfois d'une mauvaise compréhension de l'anglais.

À la lecture du jugement, on comprend que le fermier en question semait du soja génétiquement modifié tous les ans. Pour la première récolte de l'année, il achetait des semences via le circuit traditionnel. De ce fait, il signait un contrat qui l'obligeait à vendre l'ensemble de sa production et à ne pas garder de graines pour semer ultérieurement. Cette manœuvre est possible avec le soja, car contrairement à d'autres plantes comme le maïs, mais de façon semblable à d'autre comme le colza, les rendements se maintiennent de génération en génération. Pour la deuxième récolte, il jugeait le prix des semences de Monsanto excessif. Il s'est alors tourné vers un silo pour lui acheter des graines de soja, originellement prévues pour être mangées, et les semer. Ce silo était rempli de la récolte des fermiers de la région. La Cour remarque alors (p3):

And because most of those farmers also used Roundup Ready seed, Bowman could anticipate that many of the purchased soybeans would contain Monsanto’s patented technology. When he applied a glyphosate-based herbicide to his fields, he confirmed that this was so; a significant proportion of the new plants survived the treatment, and produced in their turn a new crop of soybeans with the Roundup Ready trait.

Autrement dit, le fermier ne pouvait ignorer qu'il y aurait une bonne partie des semences qui auraient le trait de résistance au glyphosate, l'herbicide honni de Monsanto. Le fermier en était suffisamment sûr pour en asperger ses plants. Cela lui permettait aussi de sélectionner les plants contenant bien ce trait et d'éliminer les autres. De cette récolte, il gardait une partie pour semer à la même époque l'année suivante, en complétant son stock avec de nouvelles graines issues de silos.

Pour sa défense, le fermier affirmait qu'il avait le droit de semer des graines achetées à un silo, car ces graines n'étaient plus sous l'empire du monopole procuré par le brevet à Monsanto. C'est cette doctrine de l’extinction qui nous permet de revendre des produits brevetés sous la forme de biens d'occasions. Cependant, la Cour lui rétorque que cette doctrine ne lui permet pas de produire des copies supplémentaires (p5). Le fermier argue en réponse que les graines germent d'elles-mêmes et donc qu'il ne peut être tenu pour responsable du cours naturel des choses. Ce à quoi la Cour lui rétorque que cultiver du soja n'est pas seulement laisser faire la nature et impliquait du travail de sa part (p9).

Bowman was not a passive observer of his soybeans’ multiplication; or put another way, the seeds he purchased (miraculous though they might be in other respects) did not spontaneously create eight successive soybean crops. As we have explained, supra at 2–3, Bowman devised and executed a novel way to harvest crops from Roundup Ready seeds without paying the usual premium. He purchased beans from a grain elevator anticipating that many would be Roundup Ready; applied a glyphosate-based herbicide in a way that culled any plants without the patented trait; and saved beans from the rest for the next season.

En clair, le fermier a sciemment exécuté une stratégie lui permettant de ne pas payer de subside à Monsanto, alors qu'il connaissait le brevet et la protection qu'il apportait — puisqu'il achetait aussi tous les ans des semences par le canal légal.

La nouvelle est arrivée jusque dans notre beau pays. L'AFP a, comme il se doit, écrit une dépêche sur le sujet. On peut y lire le paragraphe suivant:

Le cultivateur affirmait avoir toujours respecté son contrat avec Monsanto, en achetant de nouvelles semences OGM chaque année pour sa culture primaire. Mais à partir de 1999, pour faire des économies, il avait acheté d'autres semences auprès d'un producteur local et les avait plantées pour une moisson distincte. S'apercevant que ces semences avaient développé une résistance à l'herbicide par contamination avec le champ de graines transgéniques, il avait alors répété l'opération de 2000 à 2007.

On peut donc y lire 2 choses qui sont présentées comme des faits mais qui sont en fait fausses. Tout d'abord, le fermier n'a pas acheté les semences pour sa deuxième récolte auprès d'un producteur local mais auprès d'un silo à grain qui en vendait pour qu'elles soient mangées ou transformées et non pour être plantées. Ensuite, nulle contamination à l'horizon: selon la Cour, le fermier savait que le silo contenait principalement des graines de soja GM puisqu'une bonne part des fermiers locaux — y compris lui-même — en cultivait pour leur première récolte. Enfin, même si ce n'est pas faux, dire que le fermier s'aperçoit que les plants sont résistants au Round Up est une façon particulière de faire savoir qu'il a sciemment déversé cet herbicide sur ses cultures alors que toute plante non génétiquement modifiée en meurt. On peut aussi remarquer que les 2 assertions fausses sont complètement inventées, nulle part dans le jugement de la Cour Suprême, y compris lorsqu'il reprend la position du fermier, on n'en trouve trace. Évidemment, cette partie de la dépêche a été reprise telle qu'elle par un suspect habituel.

On peut évidemment lire dans une presse plus sérieuse un compte rendu nettement plus fidèle du jugement et des faits. Cependant, on peut voir une fois de plus pourquoi la presse souffre d'un certain désamour. Les sources primaires d'information sont maintenant accessibles directement à tout un chacun, ce qui fait que les gens peuvent s'apercevoir qu'il y a des différences entre les faits et ce qui est écrit dans la presse, non seulement sur les sujets dont ils sont spécialistes mais aussi sur les sujets qui les intéressent. Dans le cas présent, on peut s'apercevoir que des dépêches sont romancées alors qu'elles sont censées rapporter des faits. La confiance du lecteur pour ce qui est raconté sur d'autres sujets s'en trouve forcément diminuée.

23 avril 2013

L'obsolescence programmée et la saucisse médiatique

Pour ceux qui l'auraient manquée, il y a en ce moment une offensive médiatique des tenants de l'obsolescence programmée. Une association de consommateurs a publié une brochure prétendant dénoncer cette nouvelle plaie d'Égypte. L'information est relayée sur le blog d'une journaliste consommation du Monde où on apprend que la brochure est largement basé sur un mémoire réalisé dans le cadre d'un Master. L'auteur de ce mémoire était invitée ce matin sur Europe1. Par le plus grand des hasards, c'est aujourd'hui que l'inénarrable Jean-Vincent Placé, auteur d'une proposition de loi sur ce sujet, a posé une question orale accompagnée d'un débat.

Qu'importe apparemment qu'il ait déjà été brillamment démontré que l'obsolescence programmée était un mythe complet, basé au fond sur une théorie du complot, sa propagation est apparemment inarrêtable, les médias en considérant les tenants comme suffisamment crédible pour mériter une large audience. On peut tout de même remarquer une nouveauté: les tenants du concept ne prennent même pas le temps de nous démontrer que les exemples qu'ils prennent relèvent de ce qu'ils dénoncent. Aucune trace d'un tel lien dans la brochure, aucun des exemples ne fait l'objet d'une démonstration pour essayer de démontrer qu'il s'agit d'un acte de conception qui ne fait que réduire la durée de vie du produit. On répertorie juste des pièces d'usure ou pouvant casser et on nous assène quelles ont été placées là de façon à réduire la durée de vie du produit. Même chose dans le mémoire: l'argumentation du billet d'Alexandre Delaigue est rappelée … mais l'auteur s'arrête là. Elle ne tente même pas de réfuter la thèse adverse.

C'est encore plus éclatant lors de l'interview à la radio: elle affirme notamment qu'il est pratiquement impossible de prouver qu'un produit a été conçu pour ne plus fonctionner avant la fin de sa durée de vie «normale». Autrement dit, pour elle, il est impossible de prouver une quelconque application de concept en réalité. C'est fort pratique et c'est une tactique qui relève clairement de la théorie du complot: on ne peut rien prouver puisque c'est un complot très bien organisé. Bien sûr aucun mot sur les nombreuses personnes qu'il faut embaucher pour développer un produit qui se taisent toutes ou n'arrivent jamais à publier une spécification interne où une telle intention est mentionnée. Plus loin, elle prend l'exemple des batteries d'un célèbre smartphone et elle affirme qu'au bout de 400 cycles de charge, elles ne fonctionnent plus. Or le site du fabricant mentionne tout autre chose: au bout de 400 cycles, la capacité de la batterie est réduite de 20%. Elle affirme aussi que le besoin de recharger plus souvent un smartphone qu'un un simple combiné portable, combiné à la limite du nombre de cycles de charge est un exemple de l'obsolescence programmée. Aucun mot sur le fait que la taille de l'écran a augmenté, que la puissance de calcul des smartphones est bien supérieure à celle des simples téléphones. Il est d'ailleurs remarquable que les simples téléphones coûtent nettement moins cher que le célèbre smartphone dénoncé … mais semblent moins populaires. À part cela, on entend Bruce Toussaint introduire l'interview avec tous les poncifs du genre: les appareils modernes qui ne tiendraient que 4 ans alors que ceux de nos ancêtres duraient 10 ans, etc. Aucune mention, bien sûr, de l'augmentation continue de l'âge moyen de certains produits, comme les automobiles. On voit donc la fabrique des nouvelles à l'œuvre: une association fait du lobbying, qui a miraculeusement lieu concomitamment à une offensive politique, elle est reprise par divers média. Si le locuteur est considéré comme crédible ou sympathique, il ne risque guère la contradiction. On imagine bien par contre qu'un quelconque industriel venant se défendre se verrait assaillir de questions et sommé de se justifier. Bref, on nous raconte une histoire avec des bons et des méchants.

Tout ceci ne serait pas très grave si, en agissant de la sorte, les médias ne favorisaient pas de fait une tendance politique qui va dans le sens exactement contraire au but officiellement poursuivi, la satisfaction des consommateurs. En effet, les consommateurs cherchent des produits qui ont un bon rapport qualité/prix et non un produit indestructible. D'ailleurs, les tenants de l'obsolescence programmée ne cessent de prôner un certain nombre de remèdes à implémenter. Il faut que les produits durent longtemps, soient longtemps disponibles dans le commerce, qu'il y ait peu de nouveautés pour éviter l'«obsolescence esthétique» et que les produits soient facilement réparables — par exemple, en remplaçant un simple condensateur pour rallumer sa TV. Le revers accepté est que peu d'innovations technologiques sont introduites. Force est de constater que de tels produits ont déjà existé; l'archétype en est sans doute la Trabant.

21 septembre 2012

NK603, l'information écologiquement modifiée

Ce mercredi, le Nouvel Observateur nous a gratifié d'un dossier sur les OGMs selon lesquels ce seraient des poisons, basé sur la publication d'un papier de G.E. Séralini, scientifique favori du CRIIGEN et déjà connu pour ses papiers prétendant démontrer la nocivité de divers OGMs et celle du Round Up. Il n'aura sans doute pas échappé aux lecteurs habituels de ce blog que je trouve que l'argumentation déployée par les opposants aux OGMs particulièrement insuffisante. Cette étude, comme on va le voir, ne change pas ma façon de penser, mais elle est aussi révélatrice des tactiques des écologistes dans ce domaine ainsi que d'insuffisances graves de la part d'une partie de la presse, en l'occurrence ici de la part du Nouvel Observateur.

Le papier de Séralini

Séralini était déjà connu pour quelques aventures, car il a déjà essayé de prouver que le MON810 était nocif en bidouillant les données de l'étude Monsanto et essayé de montrer qu'un produit homopathique annulait les effets néfastes du glyphosate, le principe actif du Round Up. Il s'est donc bâti une solide réputation d'absence de sérieux qui lui vaut quelques déboires quand il se risque hors de nos frontières.

On peut trouver le papier de Séralini sur les sites des organismes qui sponsorisé son étude, ce qui n'est pas si courant et est à mettre à leur actif. Il prétend démontrer la toxicité du maïs NK603, autorisé depuis 12 ans aux USA, ainsi que celle du Round Up. La disponibilité du papier en ligne a permis d'avoir nombre de critiques au sujet de cet article, parmi laquelle celle de Marcel Kuntz. On peut faire la liste des griefs principaux:

  1. Pas assez de rats dans chaque groupe: le groupe de contrôle ne compte que 10 mâles et 10 femelles, ce qui le rend très sensible au bruit de fond statistique
  2. Le traitement statistique est mystérieux.
  3. L'étude n'est pas menée en aveugle, tous les expérimentateurs savent à quel groupe les rats appartiennent, ce qui rend l'étude sujette à divers biais.
  4. Les rats utilisés sont susceptibles de développer des tumeurs: les taux de prévalence donnés par les études s'étagent en gros de 50 à 80% pour des rats vivant jusqu'à 2 ans! On voit aussi qu'il y a des lignées qui sont nettement moins sujettes à ce problème et où il est donc plus facile de distinguer un effet conduisant à l'augmentation d’apparition des tumeurs.

Pour bien montrer que ces critiques ne sont pas là que pour la forme, on peut regarder la figure 1 du papier. seralini_fig_1.jpg Les traits continus sont les groupes avec les produits à tester, l'épaisseur croissant avec la dose administrée. On distingue le comportement pour les mâles et les femelles. Successivement de haut en bas, nourriture avec le maïs OGM seul, maïs OGM saupoudré de Round Up, eau mélangée au Round Up. Les traits pointillés représente le groupe de contrôle: c'est donc la même courbe qui se succède de haut en bas. On constate que pour la consommation d'OGM seul et pour les rats mâles (graphe en haut à gauche), il vaut mieux consommer le plus possible d'OGM: c'est le cas où les rats vivent le plus vieux! Quel dommage que Séralini n'en fasse pas ses conclusions! On constate aussi que les évolutions ne sont pas vraiment celles attendues quand on connaît la conclusion qui en est tirée: il n'y a pas de croissance de la toxicité quand la dose augmente ou quand on ajoute un produit a priori toxique. C'est ainsi que consommer de la nourriture avec juste un peu d'OGM apparaît dangereux pour les mâles et que l'ajout de Round Up dans les OGMs est bénéfique aux femelles. Par rapport aux autres études regardant la prévalence chez les rats vieux des tumeurs, on voit qu'en fait c'est le contrôle qui est exceptionnel, et non les groupes avec lesquels on veut tester les produits. On se trouve donc en face d'une étude qui nous montre qu'avec des échantillons de petite taille, on a énormément de bruit. On peut même lui faire dire l'inverse des conclusions des auteurs puisque certains résultats favorisent en fait l'OGM.

À ce stade, on ne voit donc que quelqu'un qui s'est fait à juste titre rembarrer sur ses méthodes tant statistique qu'expérimentale se faire de nouveau rembarrer à juste titre pour les mêmes raisons. C'est certes un militant anti-OGM, financé par des associations sur la même ligne que lui, mais cela ne fait qu'obliger à regarder avec un œil critique ses publications: être engagé ne veut pas dire en soi qu'il ait forcément tort. Simplement, Séralini n'aura certainement pas amélioré sa réputation auprès de ses pairs grâce au contenu de son papier.

L'exploitation dudit papier

Par contre, l'utilisation de ladite publication est nettement plus contestable. Le principal article du Nouvel Observateur est sensationnaliste. On nous dit que la publication pulvérise une vérité officielle, dans un pays où le seul OGM qui y ait jamais été autorisé est interdit, parce que le gouvernement le soupçonne de nuire à l'environnement. Par contre, il est vrai que toutes les instances d'évaluation des risques existant de par le monde jugent les OGMs actuellement sur le marché comme sûrs, suite à un grand nombre d'études et maintenant un certain nombre d'années d'utilisation. On nous décrit ensuite le mode opératoire de l'équipe de Séralini: on apprend qu'ils ont crypté leurs emails comme au Pentagone, qu'ils se sont interdit toute discussion téléphonique, qu'ils ont trouvé l'achat de semences OGMs très difficile et enfin qu'ils se sont procuré 200 rats. Il faut dire que l'équipe de Séralini craignaient un coup fourré de Monsanto, qui ne doit se doute en aucune façon que des opposants cherchent depuis des années à monter des études visant à discréditer ses productions.

L'article nous informe aussi que Séralini publie prochainement un livre sur le même sujet, de même que Corinne Lepage, présidente d'honneur du CRIIGEN, sponsor de cette étude. On nous informe aussi qu'un film portant le même titre que le livre de Séralini et portant sur le même sujet va bientôt être diffusé sur une chaîne publique. On croirait presque que l'étude sert de caution à une tournée promotionnelle comme l'industrie du divertissement nous a habitués à en voir et très similaires à leurs sœurs jumelles destinées à faire vendre des livres ou des documentaires vantant une certaine opinion, le plus souvent en criant au scandale. Heureusement, Séralini a pris soin de nous rassurer dans sa publication: il ne déclare aucun conflit d'intérêt, ce qui est bien le moins pour quelqu'un qui agit pour le compte d'une association militante qui ne cesse de dénoncer ceux qui mineraient les études concurrentes. Le Nouvel Observateur, non plus, ne sert aucunement de support à une quelconque tournée promotionnelle, et c'est dans un but purement informatif qu'il a interrogé Mme Lepage Corinne qui nous affirme que tout est organisé pour qu'il n'y ait pas de recherches.

L'article est aussi titré comme étant exclusif. En lisant ce qui se dit ailleurs, on s'aperçoit que Séralini et le Nouvel Observateur ont signé un accord de confidentialité. Cet accord empêchait de s'enquérir de l'avis d'autres personnes spécialistes des OGMs et de recueillir leur opinion de façon à recouper les informations. Ceci est aussi particulièrement indiqué pour une publication scientifique. En effet, qu'une étude donne lieu à publication ne veut pas dire que ses conclusions sont certaines. C'est plutôt le point de départ de la critique et de la possibilité d'essayer de répliquer les résultats. Et vue la vitesse où les critiques sont apparues, il eut sans doute été préférable de recueillir des avis d'autres scientifiques, non militants cette fois-ci. À moins bien sûr que les journalistes ne soient victimes du biais de confirmation: en fait, ils étaient déjà acquis aux idées qu'on leur a exposées, il leur paraît impossible que ce soit l'inverse qui soit vrai. Mais force est de constater que si le Nouvel Observateur avait fait de même dans l'autre sens, on aurait traité ça de manipulation et dénoncé le manque criant de déontologie journalistique. C'est le cas ici: on voit bien que le Nouvel Observateur sert de faire-valoir à des personnes qui ont aussi un net intérêt commercial à ce qu'on sache ce qu'ils font, il ne recoupe pas ses informations.

Ce n'est pas la première fois que ça se produit dans la presse française. Il y a quelques mois sur ce blog, je critiquais un article du Monde qui recopiait servilement le tract d'une association anti-OGM à propos du coton Bt en Inde, déformation des propos des défenseurs de la technique inclus, alors qu'un mois plus tôt un journal indien, traitant le même sujet, mentionnait le point de vue inverse. Mais le manquement du Nouvel Observateur est encore plus flagrant et cette fois-ci on a un aperçu d'une bonne partie des techniques des militants écologistes pour faire prévaloir leur point de vue.

Les militants écologistes dominent de la tête et des épaules leurs opposants sur la maîtrise de la chaîne de production médiatique. Ce n'est pas un fait nouveau, il suffit de regarder ce qui se passe depuis de nombreuses années sur le nucléaire. On trouve ainsi des traces de ceci dans un article sur les évènements ayant entouré l'usine de La Hague (p175sq). Les militants y sont décrits utilisant divers artifices, comme le fait d'envoyer leur contribution au dernier moment, empêchant toute modification de celle-ci et toute recherche de contradiction. L'accord de confidentialité trouve toute sa place dans ce cadre: les médias importuns qui veulent un avis extérieurs sont exclus, ils n'auront pas le scoop et ils ne pourront publier une réfutation. Celle-ci ne peut venir que plus tard, alors que la machine médiatique est lancée et inarrêtable ou bien que l'agitation est retombée.

Les militants écologistes se posent aussi de façon permanente en David devant affronter Goliath, même lorsqu'ils dominent largement le champ de la polémique. Dans le cas des OGMs, le cas est clair: en France, la cultures des OGMs est interdite, tout essai est devenu impossible — alors même qu'il y avait des essais de plantes transgéniques en France à la fin des années 80. On trouve cet angle dans l'interview de Jouanno: elle nous dit que Monsanto s'est montré menaçant dans son bureau à propos de l'invocation de la clause de sauvegarde sur le MON810, mais elle se garde bien de dire que Monsanto a gagné au Conseil d'État sur ce sujet. Ils ne cessent aussi de dénoncer les conflits d'intérêts de leurs opposants afin de les décrédibiliser, rien que d'aller à des conférences où des industriels sont présents suffit pour devenir irrecevable. Par contre, comme on l'a vu dans le cas d'espèce, cela ne les dérange pas de se trouver aussi dans des situations de conflits d'intérêts flagrantes. Bien sûr, ils argueront sans nul doute que la publication est dévoilée par hasard juste avant la sortie de divers livres et autres reportages, uniquement là pour propager leur message. Mais le fait est qu'ils ont un intérêt financier, autre que leur salaire, à faire publier leur papier dans une revue scientifique. Cela ne les gêne pas non plus d'être financés par des multinationales.

Les militants écologistes cherchent aussi à pirater le processus d'évaluation par les experts ainsi que les canaux scientifiques. J'en ai déjà parlé en regardant l'utilisation qui était faite du principe de précaution en relation avec les OGMs. Arriver à publier de nouveau une étude, peu importe sa qualité, leur permet de faire parler de leur cause. Comme les journalistes à qui ils s'adressent sont probablement ignorants du consensus scientifique, ils peuvent recevoir un bon accueil. Peu importe le nombre d'études publiées: il n'y en a jamais assez, tout est toujours organisé pour empêcher leurs convictions d'émerger comme le consensus scientifique. Or, en l'occurrence, de très nombreuses études ont été réalisées et le consensus scientifique est que les modifications génétiques ne constituent pas en elles-mêmes une technique dangereuse: c'est par exemple la conclusion qui figure dans ce rapport européen résumant les études menées grâce à l'UE. Le fait que le consensus scientifique dans le domaine soit aussi peu souvent exposé montre le succès de leurs tactiques: on n'en parle guère, à titre d'exemple, le rapport européen est passé totalement inaperçu dans la presse.

De fait, le plus énorme scandale des OGMs est que des journalistes gobent tout ce que leur disent les écologistes dans ce domaine. On ne peut que constater que le Nouvel Observateur est soit complice, soit se laisse manipuler par une association écologiste, alors même qu'elle ne fait qu'utiliser des tactiques qu'on peut observer depuis de très nombreuses années. Ils se sont eux-mêmes interdit de recouper les informations et de rechercher quel était le consensus scientifique sur la question. Que les auteurs de l'étude et des membres éminents de l'association qui la sponsorise soient aussi dans une démarche mercantile ne leur pose aucun problème, ils leur font même de la publicité. Il faut aussi noter que le Nouvel Observateur s'est distingué en relayant une entreprise de désinformation menée par des anti-nucléaires. Une fois de plus, je constate qu'on ne peut pas faire confiance à la presse dans certains domaines, dans des matières techniques ou scientifiques, un article de presse est à prendre avec les plus grandes précautions. On trouve aussi souvent de nombreuses interrogations de la part de la presse sur son avenir. Fournir aux lecteurs l'occasion de s'apercevoir que, dans ces matières, la qualité de l'information fournie est mauvaise, c'est aussi l'occasion pour eux de s'interroger sur la qualité de l'information fournie, tout court.

edit du 22/9: corrigé un oubli de mots dans le paragraphe sous le graphique extrait du papier edit du 19/10: correction d'erreurs variés mais criantes d'orthographe, de syntaxe, etc.

15 juin 2012

Le diesel cause-t-il 42000 morts en France chaque année?

Nota bene: ce billet connait une suite depuis mars 2013.

Depuis quelques temps circule l'idée selon laquelle le diesel ferait 42000 morts par an en France. On en retrouve la trace par exemple dans cet article de l'Express ou cet autre du Parisien. Tout cela accompagne la publication d'une nouvelle monographie du CIRC confirmant le caractère cancérogène des gaz d'échappements des moteurs diesel: ils provoquent des cancers du poumon.

En fait, la véritable estimation semble être que ce sont les émissions de particules fines — de moins de 10µm — dans leur ensemble qui sont à l'origine des 42000 morts. C'est ce qu'on comprend à la lecture de cet article du Figaro. L'indispensable site du CITEPA fournit des données sur les émissions de particules, ventilées par secteurs responsables. On trouve dans le rapport de 2012 ce graphe: Émissions de particules de moins de 2.5µm en France On s'aperçoit que les transports routiers ne sont responsables que de 19% des émissions de particules, derrière par exemple le chauffage des bâtiments — à cause du fioul et du bois — avec 39%. On peut en déduire que le diesel ne peut être impliqué que pour environ 8000 morts, soit 5 fois moins que ce donne à penser la presse.

L'autre question est de savoir si l'estimation de 42000 morts pour l'ensemble des émissions de particules fines est crédible. On peut commencer par consulter le site de l'OMS qui nous offre une superbe carte de la mortalité due à la pollution de l'air extérieur. On y voit que l'estimation est de 7500 morts pour l'année 2008, réparti entre un quart de cancers du poumon et le reste sur les autres maladies non infectieuses. Les particules fines constituant un sous-ensemble de la pollution atmosphérique, le nombre de morts causé par les particules devrait logiquement être inférieur. On peut aussi constater qu'en France, on constate 550k décès par an environ: 42k morts, c'est presque 8% du total, c'est-à-dire une cause particulièrement importante. Pour comparer, on estime souvent que le tabagisme provoque 60k morts chaque année, avec cette fois-ci des cancers bien identifiés, puisqu'on estime qu'environ 80% des décès par cancer du poumon y sont liés. Comme dit dans la brochure de l'Institut National du Cancer et comme on peut le vérifier dans la base du CépiDc, il y a environ 30k décès des suites du cancer du poumon en France, ce qui laisse 6000 cancers du poumon causés par autre chose, ce qui est compatible avec l'estimation de l'OMS citée plus haut.

Ces considérations sur le cancer du poumon rendent déjà peu crédible le chiffre de 42k morts à cause des particules. Même en comptant que tous les cancers du poumon qu'on ne peut pas attribuer au tabac soient dus aux particules, cela laisse plus de 85% des décès à trouver dans d'autres maladies. Les conséquences de l'exposition aux particules doivent pourtant être similaire à l'amiante par exemple: des petites particules qui s'enfoncent profondément dans les bronches et y restent. Les cancers devraient représenter une part relativement importante des décès. On peut aussi additionner les décès des catégories qui semblent se rapporter au problème des particules. Si on additionne les décès dus aux maladies cardiovasculaires, aux maladies respiratoires et aux cancers des voies respiratoires, on obtient environ 200k décès: les particules représenteraient 20% de ces décès, alors même que d'autres causes comme le tabac, l'alcool ou encore les régimes alimentaires (cholestérol) sont des causes connues et très répandues de ces maladies. Bref, il semble peu probable qu'il y ait vraiment 42k morts.

Reste donc à se tourner vers la source de l'information. Apparemment, le ministère de l'Écologie donne ce chiffre comme résultant de la pollution aux particules de moins de 2.5µm ainsi que sa source. Cette donnée trouverait donc sa source dans un rapport d'un programme européen chargé entre autres d'établir des seuils en vue de l'élaboration des règles européennes. On trouve effectivement ce nombre dans un tableau excel, il résulte donc d'un modèle mathématique, c'est la donnée des morts prématurées chez les plus de 30 ans, pour l'année 2000. On note que cette donnée est plus grande que le total des admissions dans les hôpitaux, ce qui me semble surprenant. Depuis les émissions ont baissé, donc même en admettant ce chiffrage, le nombre de morts est environ 1/3 plus bas aujourd'hui. Par ailleurs, si on regarde dans le document de référence de l'OMS sur le sujet de la pollution atmosphérique, les ordres de grandeurs sont de l'ordre de 1% de morts en plus pour une augmentation de la concentration moyenne de particules de 10µg/m³ (p257). L'ordre de grandeur de la concentration moyenne en particules à Paris est de 20µg/m³ d'après Airparif. On peut supposer que l'agglomération parisienne est fortement touchée par le phénomène vue la densité de population. Ce qui amène à penser que la pollution aux particules est la cause de moins de 1% des morts en France: en gros, il y aurait un 0 en trop dans le chiffre de l'étude mandatée par la Commission européenne ... qui s'est donc retrouvé dans les média ces derniers jours.

Pour conclure, non, le diesel ne cause pas 42000 morts par an en France. Il est en fait plus probable que toute la pollution aux particules provoque moins de 5000 morts par an. Le diesel en représente en gros 20%, soit mettons 1000 morts par an. Et si on veut vraiment réduire les effets de la pollution aux particules, le mieux serait sans doute de faire la chasse au chauffage au fioul ... et au bois!

29 avril 2012

Les promesses tenues du Monde sur les OGMs

Le Monde a publié jeudi dernier un article sur les affres supposés du coton Bt en Inde, intitulé Les promesses non tenues du coton OGM en Inde. Comme le titre le laisse penser, le fond de l'article est essentiellement négatif envers le coton Bt, en ce qu'il est un OGM.

Les mauvais rendements

On nous dit d'abord que la hausse des rendements est moins élevée que prévue. Évidemment, on ne nous dit pas quelle était la prévision, mais on nous entretient d'une baisse des rendements cette année dans l'état d'Andhra Pradesh. L'article mentionne quand même que depuis l'introduction, en 2002, du coton génétiquement modifié en Inde, les récoltes ont doublé, chose qui n'a sans doute jamais été mentionnée dans un article du Monde auparavant.

Et effectivement, on peut constater grâce aux statistiques rassemblées par l'état indien que les rendements ont fortement augmenté depuis le début des années 2000, et que cette hausse s'est produite brutalement à partir de 2003. On constate que les rendements ont augmenté de 60 à 80% par rapport à ce qui existait jusqu'alors. Rendement des cultures de coton en Inde

On constate aussi que la saison 2011-2012 est celle qui a les plus mauvais résultats depuis la saison 2005-2006, avec à peine 60% de rendement en plus par rapport à 2003. Il est vrai aussi qu'il est impossible d'attribuer toute la hausse des rendements au trait OGM Bt: si on regarde la progression du coton Bt en Inde, telle que donnée (p4) par l'association industrielle idoine, on s'aperçoit que l'explosion des rendements démarre avant que le coton Bt ait une présence significative. Autrement dit, le trait Bt n'est pas le seul contributeur à l'augmentation des rendements. Par contre, le trait Bt a un autre intérêt: on a besoin de moins d'insecticides puisqu'une partie des insectes ravageurs — en l'occurrence certaines chenilles — sont combattus par le biais de la modification génétique. Le document de l'ISAAA nous dit que la consommation d'insecticides contre ces ravageurs a baissé de 59% en valeur entre 1998 et 2009 (p9). On voit là qu'il y a un choix économique fait par les agriculteurs: l'intérêt de la semence Bt ne dépend pas seulement d'un surcroît de rendement, mais aussi d'une économie de pesticides et de temps passé à les épandre.

La rédaction de l'article du Monde est aussi clairement malhonnête: elle prend un seul état indien en exemple pour étendre la conclusion au pays entier. Comme on peut le constater sur le graphique des rendements, la chute n'a certainement pas été de cette ampleur dans d'autres états. Par ailleurs, il laisse lourdement entendre que les explications de Bayer sont fausses, alors qu'elles sont corroborées par d'autres spécialistes, par exemple, du Département de l'Agriculture US (p2). Pour le journaliste, la pluviométrie ne joue sans doute aucun rôle dans le rendement des production agricoles. Ce document contredit aussi l'affirmation selon laquelle la hausse des rendements serait due aux progrès de l'irrigation, puisqu'il dit que 75% du coton en Inde n'est pas irrigué.

La menace des «bactéries»

Le journaliste nous apprend ensuite que des bactéries menacent la production dans le nord de l'Inde. Le spécialiste intervenant ensuite nous informe qu'il s'agit en fait d'un virus, celui de la frisolée. On nous dit que le coton transgénique y serait plus sensible. En fait, il semble que la réalité soit quelque peu différente. L'institut de recherche indien sur le coton a publié un article sur cette question. Il s'avère qu'en fait, le virus en question se propage grâce à un vecteur et que la maladie paraît bien corrélée à la présence de cet insecte (p3). Ce papier nous dit aussi que ce virus s'est déjà répandu parmi les cultures de coton, au milieu des années 90. La réponse à l'apparition de cette maladie a été le développement d'hybrides. Ces hybrides, auxquels le trait Bt a sans doute été ajouté par la suite, ont vu leur efficacité contre la maladie diminuer à cause de mutations du virus. Le fait que ces hybrides soient transgéniques ou pas n'a donc pas d'importance; d'ailleurs, le trait Bt n'a jamais été promu comme une solution aux maladies virales des plantes, mais comme un moyen de lutter contre certains insectes — des papillons — seulement. Les anti-OGMs font souvent toute une montagne de la simple possibilité que le trait Bt puisse porter atteinte à d'autres insectes. En quelque sorte, il faudrait que le trait Bt combatte toutes sortes de menaces pour les plantes qui en sont dotées, tout en restant strictement dans les limites de l'action qui lui a été confiée par ses concepteurs, la luttre contre certaines chenilles bien déterminées.

Les affres de l'agriculture moderne

Le journaliste fait aussi montre de son ignorance des pratiques agricoles: l'arrivée d'hybrides s'accompagne de la nécessité d'employer engrais, pesticides et plus d'eau pour qu'ils atteignent leur plein potentiel. C'était déjà le cas pour la Révolution Verte, qui, il est vrai, n'a guère que 60 ans d'âge. On retrouve donc là la contestation habituelle de l'agriculture industrielle par les anti-OGMs. Cette contestation comprend aussi celle de sa transformation en activité capitalistique: les hybrides nécessitent souvent des achats réguliers de semences, la culture nécessite d'engager des frais en intrants plus importants, montants qui ne peuvent être recouvrés qu'après la récolte en un court laps de temps. C'est pourtant une réalité qui n'est qu'amplifiée par le besoin d'intrants et de semences mais qui existe aussi pour l'agriculture vivrière: l'agriculteur a besoin là aussi de maintenir un stock de graines et d'intrants s'il veut obtenir les meilleurs résultats. Dans le cas du coton indien, cela sert aussi à rappeler la légende urbaine selon laquelle les OGMs provoqueraient des suicides par la suite d'une déchéance économique — alors même que les rendements et les prix du coton augmentent! Peu importe que cette légende ait été démontée depuis longtemps ailleurs qu'en France, personne ne semble s'en soucier au Monde.

L'article mentionne la supposée disparition des semences locales. Or, un tour rapide sur le site d'une compagnie indienne de semences montre qu'en fait la plupart de la production de semences est effectuée par des firmes locales, sous licence de Monsanto. On y trouve aussi l'habituel appel à un moratoire sur les OGMs, revendication habituelle des activistes anti-OGMs. On a donc furieusement l'impression de lire un tract anti-OGM. Une petite recherche montre aussi qu'un article au contenu similaire a été publié dans The Hindu, voilà un mois. Sauf que cet article mentionne qu'il s'agit de la publication d'un rapport d'une association anti-OGMs et que les paysans ont gagné avec les semences Bt, notamment grâce aux économies de pesticides. Le Monde ne se comporte donc qu'en porte-voix des anti-OGMs, comme à l'habitude. En quelque sorte, le Monde tient toujours toutes ses promesses, lui.

6 janvier 2012

Le principe de réalité et les éditoriaux du Monde

La publication par l'ASN de son rapport d'évaluation de la sûreté des centrales nucléaire française est de nouveau l'occasion de reparler dans la presse de la fabrication d'électricité à partir de la fission de l'uranium. Sans réelle surprise, l'ASN a annoncé qu'aucune centrale ne devait être fermée, mais que toutes devraient voir leur dispositifs de sûreté renforcés, ce qui va entraîner des dépenses d'investissement de la part d'EDF que l'entreprise évalue à environ 10G€.

Le Monde profite de l'occasion pour publier diverses tribunes sur le sujet. La première, quelque peu fouillis, écrite par un ancien vice-président de la Commission internationale des grands barrages et dont on peut donc subodorer qu'il est un ancien employé d'EDF, tente tant bien que mal de nous expliquer que le nucléaire est la seule énergie qui permet actuellement de fournir du courant de façon compatible avec la vie moderne tout en minimisant les rejets de gaz à effet de serre et les volumes de produits importés. La seconde, écrite par des opposants, tente de nous expliquer qu'on peut se passer du nucléaire sans se reposer sur les énergies fossiles. Les auteurs affirment qu'il n'est pas vraisemblable de penser qu'on remplacerait le nucléaire par du charbon, alors que c'est ce qu'on constate ailleurs, en Allemagne, par exemple: lorsque le couple nucléaire et hydroélectricité ne représente pas la plupart de la production, ce sont les diverses formes de charbon qui dominent ou, plus rarement, comme en Espagne, le gaz. Ils s'extasient aussi devant les performances de l'Allemagne en terme de consommation d'électricité: 27% de moins pour les usages spécifiques, sans nous dire que pour cela, il faut que le prix facturé aux particuliers soit 2 fois plus élevé. Enfin, l'électricité serait fournie par les inévitables énergies renouvelables intermittentes, le solaire et l'éolien, qui bénéficient apparemment pour l'occasion de dispositifs magiques de stockage qui ne coûtent rien ni en argent ni en énergie, un peu à la façon du scénario négaWatt dont on a déjà dénoncé l'irréalisme. La dernière, la plus sérieuse, tente une évaluation des coûts entraînés par la sortie du nucléaire. L'auteur, ancien directeur adjoint de la direction de l'environnement à l'OCDE, ce qui explique sans doute sa sympathie pour les données de sa filiale pour l'énergie, l'AIE. À partir d'hypothèses claires, il démontre que continuer à faire fonctionner les installations existantes, qui fournissent de l'électricité de façon fiable pour un coût marginal faible est le moyen le plus économique et, par là, le meilleur en termes de niveau de vie et d'emplois.

Mais surtout, en première page, le Monde publie un éditorial, titré Du culte de l'atome au principe de réalité. Le titre donne le ton: finalement, il y aurait eu un culte du nucléaire, mais ce seraient les opposants qui avaient raison, les technocrates nous cachaient tout, les risques étaient élevés et il y avait des coûts négligés. Cependant, il y a tout lieu d'en douter.

Tout d'abord, ces fameux X-Mines qui contrôleraient en secret le destin de la France ne sont que des ingénieurs sélectionnés pour l'encadrement. À la fin des années 60, puis à la suite du choc pétrolier, la France est confrontée à un dilemme: les réserves de charbon sont en voie d'épuisement rapide alors que la fabrication d'électricité reposait dessus, le pétrole est devenu subitement plus cher et surtout la fiabilité de son approvisionnement apparaît douteuse. Les responsables politiques ont donc demandé à ce qu'une solution technique soit apportée. Loin de vouer un culte à l'atome, les ingénieurs chargé de trouver des solutions ont passé en revue ce qui existait et ils ont constaté que la fabrication de l'électricité à partir de la fission d'uranium présentait d'excellentes caractéristiques: faible volume de combustible, ce qui permet de le stocker sur de longues durées, prévisibilité du prix à long terme puisque les coûts sont déterminés essentiellement par les investissement de départ et la masse salariale du site, faibles émissions de polluants et surtout alors de dioxyde de soufre, faible usage de terrains. Pour couronner le tout, la France maîtrisait déjà les techniques d'enrichissement, et une entreprise américaine était prête à nous vendre les plans d'une centrale. C'est ce qui explique le consensus pour s'équiper de réacteurs à une échelle industrielle et non une quelconque resucée du culte du veau d'or.

L'éditorial voit aussi les investissements pour améliorer la sûreté comme énormes. Cela montre surtout que les journalistes ont de graves difficultés avec les ordres de grandeur. En effet, un tel programme s'amortit au moins sur 10 ans. Les centrales nucléaires françaises produisent au moins 400TWh par an. En escomptant qu'un tel investissement de 10G€ doit rapporter 8% par an en plus de se rembourser, on peut calculer le surcoût par MWh: 4.5€. Ce type d'estimation permet de savoir de quels ordres de grandeur on parle, et force est de constater que cela représente bien quelques pourcents d'augmentation du prix de l'électricité.

Quant au démantèlement, peut-être auraient-ils pu consulter avec profit le site de la NRC, le régulateur américain de l'industrie nucléaire, et ses questions/réponses sur le sujet. Ils y auraient lu que le démantèlement d'un REP de 900MW coûte grosso modo 400M€ d'après les démantèlements menés à bien, ce qui après une utilisation de 40 ans représente un coût de 2€/MWh produit et encore moins après 60 ans. Cela n'empêchera pas ce même journal de s'étrangler lorsque la Cour des Comptes donnera le total pour les réacteurs français — sans doute de l'ordre de 30G€ si on compte les réacteurs de 1.3GW coûteront plus cher à démolir.

Plus généralement, on ne peut que constater que les données sur la plupart des problèmes que posent l'industrie nucléaire, l'information est disponible publiquement, sur le web. C'est ainsi que tous les réacteurs sont répertoriés dans une base de données où figure par exemple la production effectuée, RTE donne un historique horaire de la production pour les 6 dernières années, Eurostat fait le point tous les 6 mois sur les prix de l'électricité dans l'UE, l'AIE publie tous les ans des statistiques sur les émissions de gaz à effet de serre, l'UNSCEAR a publié des rapports de plusieurs centaines de pages sur les effets de la radioactivité sur la santé humaine en général, et sur l'accident de Tchernobyl en particulier. Toutes ces données pointent dans une seule direction: l'énergie nucléaire est une source d'électricité fiable, aux coûts tout à fait raisonnables qui ne rejette que des quantités infimes de déchets dans la nature en temps normal et dont les conséquences des accidents sur la santé, imputables aux radiations, sont mineures. Pour le dire autrement, c'est la meilleure façon de produire de l'électricité, à l'exception de l'hydraulique.

De tout ceci, on trouve des traces dans la presse. L'éditorial est bien obligé de remarquer que l'électricité est bien moins chère en France qu'en Allemagne pour les particuliers. Mais les conclusions sont toujours les mêmes: il faut tout remettre à plat alors que toutes les données sont disponibles pour qui veut bien prendre la peine de les chercher. L'éditorial dit vouloir un débat sur des bases rationnelles et en appelle au principe de réalité, mais fait l'impasse sur la masse de données accumulées et refuse de se livrer ne serait-ce qu'à des calculs d'ordre de grandeur. Parfois, il me semble que les mots n'ont pas le même sens dans la presse que dans le dictionnaire.

29 novembre 2011

Retour du boomerang MON810

Le cas des OGMs et du MON810 a déjà été évoqué sur ce blog, pour montrer que c'est un exemple de l'application dévoyée du principe de précaution et pour dire qu'en la matière, l'action du gouvernement durant le mandat de Nicolas Sarkozy est tout simplement désastreuse. En activant la clause de sauvegarde pour interdire la culture du MON810 début 2008, le gouvernement a provoqué une plainte de Monsanto pour faire annuler cette décision. Comme il n'y avait strictement aucune raison d'invoquer la clause de sauvegarde, sauf, bien sûr, des motifs d'opportunité politique, la réponse de la CJUE puis celle du conseil d'État ne faisaient guère de doute. Il est donc de nouveau possible de semer du MON810.

Cette décision, que même les écologistes de Greenpeace attendaient, donne lieu à une intéressante expérience sur le niveau du débat public en France. Rappelons en effet qu'il n'y a guère que 28000 publications scientifiques à propos des OGMs, dont 5000 sur les plantes résistantes aux insectes, cette catégorie concernant certainement pour une part très importante les plantes Bt comme le MON810. Les effets de ces plantes sont ainsi parmi les mieux documentés qui soient. Quant à la décision elle-même, elle ne laisse aucun espoir sur la légalité d'un nouveau moratoire. Ce n'est pas tant l'illégalité qui va gêner le gouvernement, mais plutôt le fait que le Conseil d'État l'ait déjà reconnu, ce qui ouvre la porte à une censure express.

Quelle a donc été la réaction des hommes politiques? Comme on pouvait s'y attendre, on a entendu un chœur incluant l'ensemble de la classe politique pour vouloir un nouveau moratoire. Les Verts, accompagnés de toutes les associations écologistes, ne pouvaient pas passer à côté de cela, l'opposition farouche aux OGMs étant une des bases idéologiques du mouvement. Le PS et son candidat, François Hollande, ne furent pas en reste. Quant au gouvernement, profitant d'un déplacement à vocation agricole, il disait qu'il reste encore trop d'incertitudes sur les conséquences pour l'environnement — on aurait aimé savoir lesquelles — et Nathalie Kosciusko-Morizet se disait plus déterminée encore qu'en 2008 à activer la clause de sauvegarde — on aimerait savoir sur quels éléments. Les politiques ont donc choisi, dans la plus pure tradition française, d'ignorer une décision de justice limitant l'arbitraire gouvernemental. Ils ont aussi choisi d'ignorer l'ensemble des études scientifiques sur le MON810 et ont invoqué de mystérieuses incertitudes, un homme politique ne s'abaissant pas à détailler ces points techniques, les faits recelant un grand potentiel de dangerosité pour leur crédibilité. Cependant, on peut parier avec les représentants du secteur que ces menaces seront efficaces.

Quant à la presse, et plus particulièrement le journal dit de référence, Le Monde, nous gratifie d'un article étudiant la possibilité d'un nouveau moratoire. Comme d'habitude sur ces sujets, la possibilité que le maïs MON810 ne soit pas dangereux n'est pas évoquée. On se contente de citer les attendus du jugement et sa formulation négative selon laquelle le ministre n'a pas apporté la preuve de l'existence d'un niveau de risque particulièrement élevé pour la santé ou l'environnement. Au contraire, une large place est laissée aux membres des associations d'opposants aux OGMs, pour lesquels cette dangerosité ne fait aucun doute, réclamant encore et toujours que les études soient faites et refaites. Ils sont toutefois bien embêtés, car il est évident qu'aucune évaluation des risques, même totalement bidon, ne pourra être menée dans les temps et que la consultation de la Commission européenne va encore rallonger les délais. Pour dire les choses clairement, ce journal fait l'économie de rapporter complètement les faits pour donner une perspective totalement biaisée. Aucune question n'a été posée à un homme politique sur la façon de procéder pour activer correctement la clause de sauvegarde et sur quels faits elle va se baser. Les ministres se sont aussi vus épargner la peine de répondre à une question sur l'indigence de la justification de l'activation de la clause de sauvegarde de 2008, qui rendait inéluctable la décision du Conseil d'État.

Une fois de plus, on ne peut que constater le manque de sincérité des politiques et l'absence de tout rapport honnête aux faits dans la presse. Il a été dit que la France était une société de défiance. Vraiment, on se demande pourquoi.

7 septembre 2011

La logique victime du nuage de Tchernobyl

L'actualité nous donne avec le non-lieu prononcé par la Cour d'Appel de Paris d'étudier les effets des retombées du nuage de Tchernobyl sur la presse et le sens logique des journalistes. La Cour a donc au moins estimé qu'il n'y avait pas assez de preuves contre le Pr Pellerin, seul mis en examen dans cette affaire pour tromperie aggravée car il dirigeait le SCPRI lors de la catastrophe de Tchernobyl. En fait, en faisant quelques recherches, on voit mal comment il aurait pu vouloir tromper qui que ce soit. Cela n'empêche pas divers articles de presse de reprendre en chœur l'argumentation de ses détracteurs selon lesquels on est là en présence d'un complot.

D'abord, il faut rappeler que contrairement à une légende tenace, ni le gouvernement français, ni le SCPRI, ni le Pr Pellerin n'ont affirmé que le nuage de Tchernobyl s'était arrêté à la frontière. Ce mythe est démonté consciencieusement sur cette page où les évènements sont décrits pas à pas. S'il semble saugrenu qu'un organisme publiant jour après jour des cartes montrant le survol du territoire français par le nuage radioactif puisse vouloir cacher quoi que ce soit, cela n'a pas gêné certaines personnes. Il faut dire qu'en plus de publier les mesures de rayonnement, le SCPRI les reliait au consensus scientifique de l'époque, à savoir que les risques pour la santé étaient infinitésimaux. Ce consensus a depuis été confirmé par les faits, puisqu'on a bien été incapable de détecter une quelconque influence du nuage de Tchernobyl sur la santé. Les habitudes ont la vie dure, puisque, cette année, le CRIIRAD a tenté de faire croire que l'IRSN — successeur du SCPRI — avait caché le survol du territoire français par les rejets dus à l'accident de la centrale de Fukushima, alors même que les relevés sont tous disponibles en ligne. Cependant, les références à un quelconque mensonge du Pr Pellerin ne se sont plus produites que mezzo voce, la condamnation de Noël Mamère pour diffamation n'y étant sans doute pas étrangère.

Partant du fait que les informations communiquées par le SCPRI étaient exactes et reflétaient le consensus scientifique de l'époque, il est normal que toute poursuite pour tromperie ou coups et blessures ne mène à rien. Une action a tout de même été tentée par une association de malades de la thyroïde qui allègue notamment de l'augmentation du nombre de cancers de la thyroïde. Une petite recherche sur le sujet des cancers de la thyroïde livre des documents intéressants.

  • Un livret décrivant les cancers de la thyroïde édité par la Ligue contre le cancer nous informe qu'il y a peu de chances que l'augmentation du nombre de cancers soit lié au nuage de Tchernobyl (p18).

Le nombre des cancers de la thyroïde découverts chaque année en France est d’environ 4 000. Ce nombre augmente régulièrement depuis 1970. Cette augmentation, observée dans de nombreux pays, notamment aux États-Unis, est liée essentiellement à l’amélioration des pratiques médicales qui permet le dépistage de petites tumeurs. (...) En France, la contamination a été beaucoup plus faible, la dose d’irradiation à la thyroïde des enfants ayant très rarement dépassé une dizaine de mGy, aucun effet sanitaire (n')est attribué (au nuage de Tchernobyl).

  • Un article dans une revue médicale nous apprend que l'augmentation du nombre de cancers est liée à l'amélioration de la technique et qu'en prime on n'est même pas sûr que cette amélioration de la technique ait de réels bénéfices (p2)

L’augmentation de l’incidence des cancers de la thyroïde observée depuis plusieurs décennies est liée à une augmentation du diagnostic des petits cancers papillaires, permise par l’amélioration des pratiques. D’un point de vue médical, ces petits cancers de la thyroïde ont un excellent pronostic, et les bénéfices de leur détection précoce ne sont pas démontrés.

En effet, l’augmentation de l’ensemble des cancers thyroïdiens vient pour une grande part de l’augmentation des cancers de petites tailles (micros cancers papillaires) et de stade précoce, qui n’évoluent pas toujours vers une expression clinique. (...) Les études d’évaluation quantitatives de risque sanitaire, associées à la surveillance des évolutions temporelles et des répartitions spatiale du cancer de la thyroïde, ont permis d’exclure un impact important des retombées de Tchernobyl en France.

Pour dire les choses simplement, non seulement il n'y a eu aucune tromperie, mais en plus le consensus scientifique de l'époque a été confirmé par les études, ce qui fait que les plaignants ne peuvent même pas se prévaloir des effets du nuage de Tchernobyl. La lecture des documents laisse même à penser que l'amélioration des techniques de détection n'a servi à rien du point de vue de la santé publique!

Passons maintenant à ce qu'en dit la presse. Le Monde se contente d'un court article dont on peut retirer que le Pr Pellerin s'en est tiré grâce à ses puissants appuis malgré une augmentation significative des affections thyroïdiennes. Libération nous gratifie d'un article recopié d'une dépêche AFP donnant une large place à la parole des plaignants qui font appel au mensonge d'état. Mais c'est dans le Figaro qu'on trouve une perle où le sommet est atteint:

Monique Séné, présidente du Groupement des scientifiques pour l'information sur l'énergie nucléaire (GSIEN) au moment de l'accident, partage cette analyse. «Le docteur Fauconnier a bien mis en évidence les conséquences du nuage sur la santé des bergers corses, explique-t-elle. Mais il est quasiment impossible, si longtemps après les faits, de faire la part des choses entre un cancer lié à l'influence du nuage ou un cancer venant d'ailleurs.»

Pour résumer, des conséquences sur la santé ont été mises en évidence: l'inexistence de l'effet du nuage. C'est pour cet effet d'ampleur colossale qu'il faut condamner le Pr Pellerin.

Dans aucun article, je n'ai trouvé de référence même courte au fait que l'augmentation des cancers de la thyroïde était due à l'amélioration de la technique, alors qu'on peut sans peine trouver cette information sur le web. La presse laisse donc le champ libre au post hoc ergo propter hoc et reproduit même une déclaration qui réussit l'exploit de se contredire en 2 phrases. D'une certaine façon, si le nuage de Tchernobyl a eu des retombées néfastes en France, la recherche documentaire et le respect de la logique par la presse figurent sans nul doute parmi les victimes.

15 juillet 2011

Énergie solaire et militantisme journalistique

Dans son édition datée du 16 juillet, Le Monde nous gratifie d'un éditorial intitulé Pousser le jacobinisme jusqu'à contrôler le soleil où l'auteur s'offusque de la décision du gouvernement de limiter l'expansion de la production d'électricité solaire à 500MW (crête) par an. Selon cet éditorial, c'est une filière porteuse d'avenir, à peine nous fait-on remarquer qu'elle n'est pas du tout rentable sans soutien public — pour le moment nous dit-on — et que cette décision limitera les dépenses publiques. On nous fait remarquer que l'horrible moratoire imposé par le gouvernement fait perdre des emplois. Les coupables sont rapidement trouvés: la volonté pour l'état de favorise(r) les grand groupes et l'influence néfaste des ingénieurs des Mines. En pages intérieures, on peut trouver un article nous comptant les avanies vécues par le secteur: après un départ en trombe suite à des crédits d'impôts, des tarifs et des conditions d'achat généreux, le gouvernement a mis un grand coup de frein car il allait atteindre ses objectifs avec 8 ans d'avance. On s'y offusque que les parkings des grandes surfaces ne soient pas concernés par les appels d'offre, de la baisse des tarifs de rachat et enfin que les entreprises du secteurs souffrent de la politique de gribouille du gouvernement français. Un paragraphe est consacré aux explications du ministère de l'industrie: ce serait cher.

Et en effet, on voit là une bonne raison. Comme noté dans l'article, une partie du coût est payé par des crédits d'impôts — qu'on n'étudiera pas ici — et par la fameuse CSPE, contribution au service public de l'électricité. C'est une taxe d'accise que chacun paie sur sa consommation d'électricité, elle sert à subventionner l'électricité dans les îles sous administration française, le tarif social de l'électricité et le surcoût des énergies renouvelables. Sur le site de la Commission de Régulation de l'Électricité, on s'aperçoit que le gouvernement a du retard: la CSPE ne couvre pas les coûts réels des énergies renouvelables et le système a donc commencé à accumuler une dette envers EDF, principal producteur d'électricité en France. En 2010, la charge pour EDF s'est élevée à 1G€, la CRE prévoit un déficit de 2G€ pour 2011. Ce déficit a tendance à se creuser sous l'impact de 2 facteurs: les tarifs de rachat très généreux qui incitent à se précipiter pour installer des panneaux solaires et le plafonnement de la hausse de la CSPE à 3€/MWh chaque année. Le gouvernement avait jugé dans sa grande sagesse que, malgré son enthousiasme débordant, le grand public n'était pas prêt à voir bondir sa facture d'électricité au motif que les énergies renouvelables, c'est sympa. Pour éviter que cette dette ne devienne trop importante et aussi éviter les inévitables protestations que provoque toute hausse du prix de l'électricité, particulièrement gênantes à l'orée d'une campagne présidentielle qui s'annonce de haute tenue, on se doute que le gouvernement se devait de prendre des mesures.

À la lecture des calculs de la CRE, on se rend compte à quel point le photovoltaïque coûte cher. CRE_CSPE_2011.jpg Le tableau ci-dessus reprend les prévisions de la CRE concernant la production d'énergie en métropole à partir des moyens éligibles à la CSPE, à savoir les moyens de secours et les énergies renouvelables. Le photovoltaïque n'est suivi que des moyens «dispatchables», c'est-à-dire de secours et est 5 fois plus cher que l'énergie suivante. Un MWh solaire coûte plus de 500€! Même si la CSPE ne prend en charge que le surcoût par rapport au prix moyen de l'électricité, la différence n'est pas mince. À titre de comparaison, on peut mentionner que l'ARENH, prix de l'électricité nucléaire dicté par le gouvernement, sera de 42€/MWh en janvier 2012. Un calcul sur les surcoûts à la charge de la CSPE montre que le prix de base est d'environ 55€/MWh. C'est ainsi que la CRE s'attendait à un débours de 820M€ pour une production à partir du solaire de 1.7TWh — royalement 0.3% de la production d'électricité en France —, contre 376M€ et 12.3TWh pour l'éolien. Sans même discuter des mérites de ces énergies dans le cas français, on ne peut que constater que c'est là une véritable gabegie.

On entend généralement justifier une telle politique par le prix rapidement décroissant de l'énergie solaire. Cependant, vu l'écart de prix, il faudra une vingtaine d'années avant que cela ne devienne véritablement intéressant. Or les fabricants donnent une garantie de puissance de 25 ans, certains éléments étant sans doute à remplacer plus souvent. Autrement dit, l'énergie solaire deviendrait compétitive — en espérant que les projections se vérifient — lors du renouvèlement des panneaux installés actuellement. Sans doute vaut-il mieux attendre, et consacrer cet argent à autre chose comme la subvention de plus d'économies d'énergie ou l'installation de modes de production d'électricité au bilan carbone plus favorable mais plus compétitif!

Force est de constater que Le Monde ne s'est fait là que le porte-voix de la filière photo-voltaïque et que la décision du gouvernement est justifiée. Quand on en vient à dénoncer la grande industrie mais dans le même temps à se désoler du sort terrible des grandes surfaces qui ne pourront bénéficier d'un effet d'aubaine aux dépens de leurs clients, on a quitté depuis longtemps le terrain du compte-rendu objectif ou du raisonnement pour être sur celui de la pure idéologie qui confine à la forfaiture. Certains s'interrogent gravement sur les problèmes de la presse écrite française. Peut-être devrait-elle commencer par informer honnêtement ses lecteurs et baser ses éditoriaux sur des comptes-rendus objectifs.