5 janvier 2018

La plaie des intox dans les médias «sérieux»

Les médias traditionnels se plaignent souvent que les réseaux sociaux ou Internet en général répandent de fausses nouvelles, c'est même devenu un thème récurrent (exemple) depuis l'élection l'an dernier de Donald Trump comme Président des États-Unis. Malheureusement, il n'est pas bien difficile de trouver des articles dans ces mêmes médias traditionnels qui, eux aussi, répandent des fausses nouvelles. Le Monde, qu'on voit parfois qualifié de journal de référence, en a donné l'illustration lors du week-end de Noël avec un cahier «Idées» sur le sucre.

Une_Monde_Sucre_petit.jpg

Comme on peut le voir sur l'image, le sucre était qualifié de poison. Un article était consacré à cela à l'intérieur, où le sucre était qualifié d'aliment toxique et addictif. À moins de considérer tous les aliments comme des poisons potentiels, il est clair que le sucre n'en fait pas partie. Même s'il est vrai que l'OMS recommande de se limiter à 10% de l'apport énergétique pour les sucres simples, elle recommande aussi qu'entre 55 et 75% de l'apport énergétique vienne des glucides en général. Le simple fait d'accorder une place dans l'alimentation recommandée au sucre montre que ce n'est pas un poison dans le sens commun du mot. Qu'on soit attiré par une alimentation riche en sucre a une explication très logique: l'assimilation de l'énergie apportée est très rapide. Ça n'en fait pas pour autant du sucre l'équivalent d'une drogue ou de l'alcool. Enfin, on peut se rappeler que la mortalité n'augmente vraiment qu'à partir d'une obésité sévère, c'est-à-dire pour un indice de masse corporelle de 35 et plus: il y a une large plage de poids qui ne mettent pas en danger la santé!

Le cahier lie aussi le sucre à l'esclavage. Bien sûr, il est bien connu que la culture du sucre aux Antilles et au Brésil a recouru à l'esclavage à grande échelle. Cependant, l'utilisation du sucre n'est devenue réellement massive en Europe occidentale que progressivement au cours du 19e siècle, grâce à la betterave … et à la mécanisation du travail. En effet selon un article sur l'histoire de la betterave, avant le Blocus Continental, les importations françaises étaient de 25000 tonnes de sucre; la page wikipedia consacrée à l'histoire de la production de sucre laisse à penser qu'au début du 19e siècle, la production totale de sucre due à l'Amérique était inférieure à 200 000 tonnes. Au début du 20e siècle, par contre, la production venant de la betterave à sucre était devenue très importante: elle représentait environ 50% de la production mondiale selon le site de l'industrie et selon l'article lié plus haut, juste avant la 1ère Guerre Mondiale, la production est de 2.7 millions de tonnes pour l'Allemagne et environ 1 million de tonnes pour la France. On voit que l'apparition de la betterave à sucre d'abord de façon limitée sous Napoléon puis de façon réellement industrielle à partir de 1850 ainsi que la mécanisation des usines ont fait bien plus que l'esclavage pour répandre l'usage du sucre! Ainsi, il est sans doute faux de dire que en France, où il fallut attendre un décret de la ­IIe République, en 1848, pour que les Français goûtent à la douceur du sucre sans plus imposer à des centaines de milliers d’hommes les terribles souffrances de l’esclavage ou qu'il est entré massivement dans les cuisines aux temps sombres de l'esclavage.
Si aujourd'hui la canne domine à nouveau largement la production de sucre, c'est dû au défrichement de grandes zones, notamment au Brésil. Aujourd'hui, la production de sucre de canne est de 1.9 milliard de tonnes, contre 250 millions pour la betterave. Une nouvelle fois, ce développement n'a rien à voir avec l'esclavage… et le sucre n'est véritablement devenu un aliment disponible partout dans le monde en énormes quantités que dans la deuxième moitié du 20e siècle.

Bien sûr, on pourrait contester l'appartenance au journal du cahier «Idées», dévolu à des éditoriaux. Cependant, les articles dont il est question ici sont signés de journalistes du Monde. De plus, sélectionner un article pour impression montre que le contenu, fusse fût-ce celui d'une tribune, est considéré comme honnête et d'un assez haut niveau pour être connu de tous. Certains points de vue n'ont ainsi plus droit de cité, comme la négation du réchauffement climatique, sans doute tout simplement parce que le comité éditorial considère qu'on ne peut pas écrire des choses fausses dans le journal.

Je constate aussi que le sujet du sucre soit a priori non polémique n'a pas empêché qu'on y écrive ces «intox» dans le journal. Des techniques proches de celles dénoncées quand il s'agit des réseaux sociaux sont aussi utilisées, comme l'utilisation de phrases choc pour inciter à la lecture, au détriment de la véracité du contenu. On n'ose imaginer ce qui peut se produire sur des sujet plus polémiques, où les propositions de tribunes sont plus nombreuses et les biais des journalistes fatalement plus probables. Avant de chasser les intox sur le web, les rubriques de «vrai-faux» devraient sans doute s'attacher à chasser celles qui figurent dans leur propre journal!

13 novembre 2016

Les contrevérités dans les médias: la faute à Internet?

La victoire du «Leave» au référendum sur le Brexit et la victoire de Donald Trump aux primaires des Républicains, puis à l'élection présidentielle aux USA ont suscité des commentaires sur la diminution de l'importance des faits dans les médias et dans le discours public en général. C'est ainsi, par exemple, que le Guardian a publié un article intitulé «How Technology disrupted the truth» — qu'on pourrait traduire par «Comment la technologie masque la vérité». La thèse en est qu'Internet et en particulier les réseaux sociaux empêchent les faits et la vérité d'apparaître aux yeux de tous, à cause de l'accélération du rythme qu'ils imposent et de l'émiettement de l'audience qu'ils engendrent. Cette thèse était aussi en partie énoncée dans le livre La démocratie des crédules où il était toutefois rappelé qu'Internet ne faisait que faciliter des tendances naturelles. Mais Gérald Bronner, l'auteur, prônait et prône toujours un essor de la «slow information» pour contrer ce qu'il appelle la démagogie cognitive.

L'immédiateté

Pour ma part, je trouve que mettre l'accent sur le versant de l'immédiateté, permise par les réseaux sociaux et Internet, n'est pas totalement mérité. En effet, on peut constater que les longues enquêtes ne sont pas une garantie contre les assertions fausses. Dans le passé en France, il y a eu quelques exemples de reportages, parfois portés au pinacle, qui de fait étaient basés sur des apparences et des mensonges.

  1. Le Cauchemar de Darwin dénonçait le commerce de la perche du Nil, pointant classiquement l'exploitation des travailleurs et la disparition de certaines espèces de poissons mais l'accusant aussi de favoriser la prostitution, le commerce des armes et par là les génocides ainsi que les guerres civiles de la région. L'imposture de ce film a été dénoncée par François Garçon, la réponse du réalisateur Hubert Sauper évite soigneusement d'apporter de quelconques éléments de preuve. Au contraire, on peut considérer qu'il n'en possède aucun. Il est toutefois notable qu'il fait état de 4 ans de travail. Plus de 10 ans après sa sortie, ce film est toujours cité dans les articles wikipedia sur la perche du Nil …
  2. Le documentaire Prêt à jeter dénonçait l'obsolescence programmée. Seul problème: ça n'existe pas. Ce qui, en apparence, paraît dû à un complot est en fait la conséquence de compromis économiques, de pannes aléatoires, d'innovations et d'effets de mode. Le reportage utilise à son avantage des histoires comme l'ampoule de Livermore ou la nostalgie pour les anciens pays communistes et la rusticité légendaire mais inexistante de leurs équipements. Au fond, ne pas vérifier les informations n'a pas posé de problème pour la diffusion de ce film: les apparences ont suffi.
  3. Cette année dans l'émission Cash Investigation, le reportage Produits chimiques : nos enfants en danger dénonçait les dangers supposés des pesticides, mais dès le départ faisait dire à un rapport de l'EFSA l'inverse de ce qu'il disait vraiment. Ainsi au lieu des 97% de fruits et légumes contenant des résidus de pesticides, 97% des tests étaient dans les limites de la réglementation et dans à peu près la moitié des cas, rien n'était détecté. D'autres contre-vérités parsemaient le reportage. On peut remarquer qu'une association militante s'est vantée d'avoir grandement aidé à produire cette émission, tout au long d'une année et qu'aucune rectification n'a été publiée ou diffusée par France2, malgré les articles des rubriques de vérification de certains médias traditionnels.

Ces exemples devraient amener à se méfier aussi des enquêtes de long terme, menées sans forcément que les sujets sous-jacents fassent les gros titres. Dans ces 3 cas, seuls les pesticides faisaient l'objet d'articles récurrents dans les médias traditionnels. Après quelques années à l'affiche au cinéma puis à la télévision, le cas de la perche du Nil a de nouveau rejoint la cohorte des non-sujets. Il y a de bonnes raisons à cela. Pour expliquer les effets de meute, la victoire du biais de confirmation ou, plus généralement, de toutes les formes de paresse intellectuelle, on avance souvent que c'est l'intérêt économique qui fait que l'emballement se produit: il faut publier vite, les autres vont le faire, ça confirme ce qu'on pensait et c'est ce qu'attendent les lecteurs. Mais pour une enquête longue, certains de ces problèmes se posent toujours. D'abord, ces enquêtes sont d'une façon ou d'une autre préfinancées et il faut donc sans doute que le producteur vende le sujet à une chaîne de télévision avant que le reportage ne soit fini. Savoir ce qu'on va dire à l'avance est donc une bonne idée économique. On peut aussi recruter l'aide de gens prêts à abonder dans votre sens. Orienter l'émission dans le sens d'un grand scandale à l'œuvre dans l'ombre est un plus qui peut attirer de l'audience, etc. Une chose est certaine: ce type de système ne peut contrer le biais de confirmation. Si jamais il s'avère que les faits vont directement à l'encontre de la thèse du reportage, ça peut se solder sur un reportage impossible à montrer … Ça peut même dériver sur des comportements malhonnêtes: les seules explications disponibles du contre-sens de Cash Investigation sont une mauvaise connaissance du français, un aveuglement dû aux convictions des auteurs et la pure malhonnêteté.

Un autre exemple montre jusqu'à la caricature ce qui peut se passer avec ces reportages. Il y a quelques années, M6 avait diffusé une émission intitulée Au secours mon mari est un macho!. Bien sûr avec un titre et un sujet pareils, il avait fallu recruter un pigeon. Et donc l'équipe de tournage avait dit au couple sujet principal de l'émission que celle-ci porterait sur la passion du tuning. Grâce à un montage astucieux des discussions tenues tout au long de la journée avec eux, M6 a pu diffuser le sujet qu'elle souhaitait, flouant ainsi les gens enrôlés pour l'occasion. Bien sûr, on est là en face de pure malhonnêteté. Mais il reste qu'en tant que spectateur ne connaissant pas un sujet, on ne sait pas qui a été interrogé, combien de temps, ce qui a été conservé au montage, à quel point le reportage est orienté à l'appui d'une thèse particulière. On doit entièrement se reposer sur l'honnêteté et le sens du jugement des auteurs.

C'est pourquoi je pense que le problème de l'immédiateté se pose toujours du point de vue du spectateur, fût-il journaliste, qui tombe sur une information nouvelle. Il doit juger rapidement, parce qu'il a généralement autre chose à faire, si cette information est vraie. Et il a plus ou moins de chances de le faire selon qu'il ait été conditionné par la forme de l'annonce et des évènements passés ou selon que la nouvelle confirme, ou pas, ses croyances. Il est assez naturel que les gens qui font des annonces nouvelles travaillent au sujet en amont: leur élaboration requiert du travail qui ne se fait pas en un jour. La plupart des informations récurrentes sont dans ce cas. Par exemple, l'annonce des chiffres de la croissance économique requiert le travail des services de l'INSEE qui élaborent ensuite un communiqué pour présenter divers faits saillants. Mais on peut utiliser cette phase de travail pour préparer une opération médiatique. C'est ainsi que la présentation par Gilles-Éric Séralini de ses résultats bidons s'est accompagnée de publications simultanées ou presque de livres et reportages. C'est aussi le cas pour le premier exemple cité dans l'article du Guardian: si les frasques supposées de David Cameron avec une tête de cochon ont été diffusées, c'est pour faire la publicité d'un livre.

Pour espérer contrer cela, il faudrait que les rectificatifs des fausses nouvelles aient la même exposition que les annonces initiales et qu'ils soient systématiques. Malheureusement, ce n'est jamais le cas. Et, comme dans le cas du reportage de Cash Investigation, la réprimande des collègues est dans le meilleur des cas modérée: le premier Désintox de Libé se termine sur un dernier paragraphe où l'auteur se refuse à invalider l'ensemble du reportage sur cette base, alors que l'erreur est grossière et que toute l'émission semble basée là-dessus. Il s'est même trouvé au moins un journaliste pour pratiquement justifier le procédé. La suggestion de Gérald Bronner d'une sorte de Conseil de l'Ordre pour les journalistes pourrait être une solution, mais on se demande comment il trouverait tous les experts nécessaires ou comment il pourrait obliger les médias incriminés à faire amende honorable.

L'émiettement de l'offre

Par contre, là où Internet aide clairement les croyances, c'est dans l'émiettement de l'offre d'information. Depuis l'apparition d'Internet, des sites d'information nouveaux sont apparus dont la caractéristique est de s'adresser aux gens suivant leurs opinions (Contrepoints pour les libéraux, Fdesouche pour l'extrême droite, etc.). Internet sert aussi de répertoire d'arguments: c'est à cette fonction que le site d'Étienne Chouard dut sa renommée lors de la campagne référendaire de 2005. Mais je constate qu'en fait, Internet ne fait que prolonger une tendance déjà à l'œuvre, même si la perfection est presque atteinte.

Tout d'abord, il y a toujours eu une coloration politique à certains médias. Il est bien connu que Le Figaro est par exemple plus réceptif aux thèses de la droite française que ne l'est Le Monde, L'Humanité est le quotidien historique du Parti Communiste. Mais jusque vers les années 80-90, la concurrence idéologique semblait limitée aux médias écrits. La libéralisation qui s'est produite depuis a d'abord révélé que beaucoup de gens souhaitaient écouter de la musique à la radio, mais en 1996 Fox News s'est lancée. L'argument de vente n°1 de Fox News est son point de vue ouvertement pro-Républicain, comme celui de CNBC est d'être pro-Démocrate. L'émiettement ne date donc pas simplement de la diffusion massive d'Internet ou des réseaux sociaux, elle démarre sans doute avant avec la libéralisation des médias audiovisuels.

Ensuite il est vrai que dans ce domaine, Internet aide énormément. Internet diminue grandement les coûts de publication. Plus besoin d'imprimerie, d'émetteur radio. Internet a aussi changé le marché de la publicité, au moins pour les médias écrits. Les médias anciens comme nouveaux cherchent donc des financements, mais comme les informations en elles-mêmes sont disponibles partout, il faut proposer quelque chose d'autre: en l'occurrence, on peut leur proposer un point de vue sur le monde. Un business model possible est que les médias trouvent une clientèle en jouant sur les biais de confirmation d'une partie de la population, ou inversement, que la population se trie d'elle-même en se répartissant sur l'offre disponible suivant les différentes croyances. On peut voir ça sous un angle optimiste, mais évidemment le risque est que les fausses croyances ne s'implantent, sous l'effet d'une segmentation des médias suivant les groupes de population. Chaque groupe dans la population développerait alors ses propres croyances. C'est d'autant plus facile que les réseaux sociaux comme Facebook ont des algorithmes pour nous proposer principalement des choses proches de ce qu'on a déjà aimé, masquant le reste.

Enfin, cela relativise le pouvoir des médias en tant que tels. Une telle segmentation se produit surtout parce que la population se sélectionne sur des lignes éditoriales, les titres de presse essayant de nouvelles lignes éditoriales quand ils se sentent en perte de vitesse ou qu'ils sentent une opportunité. Il semble que Valeurs Actuelles ait fait évoluer sa ligne éditoriale ces dernières années. Il y a sans doute une lien avec les progrès électoraux du Front National et la disparition progressive des centristes du champ électoral. Les gens semblent se méfier des médias, mais est-ce parce que ces derniers ne disent pas la vérité ou parce qu'ils ne collent pas assez aux croyances des lecteurs? On peut aussi regarder dans le passé: au début de la IIIe République, il y avait de nombreux petits journaux d'opinion. Si Zola a publié son J'accuse…! dans L'Aurore, c'est parce que Le Figaro avait reçu de nombreuses protestations de lecteurs pour ses 3 premiers articles défendant Dreyfus. Cette affaire va d'ailleurs voir une partie non négligeable de la population continuer à croire en la culpabilité de Dreyfus malgré la révélation et la confirmation de faits accablants sur ceux qui l'ont envoyé au bagne. Une partie des positions de la presse reflètent donc les goûts du public, pas forcément une réflexion poussée sur un problème. Inversement, la population ne suit pas toujours les recommandations de la presse, comme le montrent les exemples du référendum sur le traité européen de 2005, le Brexit ou encore l'élection de Donald Trump. Quand les médias amplifient une rumeur, c'est souvent qu'il y a rencontre des croyances des journalistes et de celles de la population en général.

Comme la presse a pour but de relater des faits nouveaux, elle peut faire connaître largement des rumeurs qui sont encore largement ignorées par le plus grand nombre. Cela peut être relativement bénin quand on révèle les relations sentimentales de personnalités politiques. C'est bénéfique quand on révèle de vrais scandales publics. C'est par contre clairement néfaste quand on diffuse de pseudo reportages sur les dangers de la vaccination, ou un faux témoignage dans une affaire criminelle. Le problème est que la véracité n'est pas le premier déterminant de l'impact que peuvent avoir ces nouvelles, c'est plutôt l'accord qu'il y a entre ce qui est annoncé et les croyances des spectateurs et lecteurs. Pour que des faits réels mais qui s'insèrent mal dans le système de croyances de beaucoup de gens, il faut sans doute répéter de nombreuses fois et insister sur les preuves. Malheureusement, l'émiettement fait que les spectateurs peuvent fuir dès que le message ne plaît plus.

Cela rend plus difficile d'arrêter les démagogues qui mentent en jouant sur les croyances populaires. En effet, les médias sont parfois obligés de traiter certains sujets, ce qui donne une tribune à ceux-ci, même si les journalistes contredisent directement le tribun. Impossible par exemple de passer sous silence qu'il y a des gens qui appellent à voter «non» à un référendum! Le public ne répondant en partie que suivant ses croyances, la contradiction du journaliste tombe à plat: c'est pourquoi les rubriques de vrai/faux ne peuvent avoir qu'un impact limité sur certaines personnalités publiques. Une autre tactique est de profiter de l'émiettement des médias pour parler successivement à plusieurs audiences et leur dire ce qu'elles veulent entendre, que ce soit vrai ou faux, d'ailleurs! Évidemment, plus il y a d'émiettement et plus il y a de «silos» d'opinion, plus c'est facile.

En conclusion, il semble qu'incriminer Internet pour les contre-vérités dans les médias, c'est se tromper assez largement. Le problème de l'immédiateté dans les reprises et buzz n'est pas le seul problème, et on ne peut pas le contrer simplement en suscitant plus d'enquêtes de long terme: au fond on peut préparer un buzz de longue date! Là où la responsabilité d'Internet est claire, c'est dans la tendance à l'émiettement. Cela donne inévitablement des occasions supplémentaires pour les démagogues, mais c'est un mouvement qui avait commencé avant qu'Internet ne soit massivement utilisé. Cependant, vu le niveau de perfectionnement de plateformes comme Facebook, la segmentation de l'auditoire est sans précédent. Par ses actions sur Facebook, on peut signaler au fur et à mesure l'ensemble de ses propres croyances, ce qui permet ensuite de relayer surtout les contenu reflétant ces croyances. Même s'il n'y a pas plus de fausses nouvelles qu'hier dans les journaux, la faculté d'entendre et de lire uniquement ce qui confirme ce qu'on croit déjà devrait pousser à chercher leur élimination.

9 avril 2016

Les ondes radio sont sans danger

Les ondes électromagnétiques constituent un domaine très vaste puisque le spectre électromagnétique ne connaît pas de limite de fréquence. Il s’étend des rayons gamma aux ondes radio en passant par le visible. En ce sens, elles sont présentes partout autour de nous.

800px-Domaines_du_spectre_e_lectromagne_tique.svg.png Le spectre électromagnétique (par Benjamin ABEL — Wikimedia Commons)

Mais ce qui est souvent affirmé publiquement de nos jours c’est que la partie du spectre utilisée pour les télécommunications ― une partie des micro-ondes ― est dangereuse pour la santé. Remarquant en quelque sorte la proximité entre la fréquence utilisée dans les fours à micro-ondes (2.45GHz) et celle utilisée par le WiFi (autour de 2.4GHz), on pourrait certes se demander si le WiFi ne nous cuisinerait pas à feu doux.

Quelques ordres de grandeur

Commençons par quelques remarques sur le spectre électromagnétique dont les ondes radio sont une partie, tout comme la lumière visible ou les rayons X (voir la figure ci-dessus).

Il est classiquement découpé suivant les fréquences des ondes qui se propagent, qui leur donne des caractéristiques bien différentes. En effet, toute onde électromagnétique représente le déplacement de photons. Plus la fréquence est élevée, plus l’énergie d’un photon est élevée. Les photons de la lumière visible ont ainsi chacun une énergie environ 500 000 fois plus élevée qu’un photon d’une onde radio à 1GHz.

Les photons dans le domaine des Ultra-Violets peuvent induire des réactions chimiques du fait de leur grande énergie. Pour les photons des ondes radios, c’est impossible : il faudrait que 500 000 photons passent au même endroit au même moment !

Le nombre de photons transportés peut varier avec l’énergie transportée. Elle est comptée en W/m². Une autre façon de mesurer un champ électromagnétique est de s’intéresser au champ électrique en V/m. La relation entre les deux est quadratique : quand le champ est 2 fois plus faible, l’onde transporte 4 fois moins d’énergie, et 100 fois moins quand le champ est divisé par 10.

Pour donner des ordres de grandeur, à midi solaire et sans nuages, la puissance reçue est entre 500 et 1000W/m² sous nos latitudes suivant la période de l’année. Dans le domaine des ultraviolets, la puissance est de l’ordre de 1 à 2W/m² pour les UVB et 30W/m² pour les UVA. Comme les photons ultra-violets sont très énergétiques, il peuvent induire des dégâts sur l’ADN dans les cellules de la peau, contrairement aux ondes radio. Les ultraviolets, notamment les UVB, sont ainsi jugés responsables par l’OMS de 80 à 90 % des mélanomes malins, dont il y a plus de 10000 cas par an en France. Cela explique que les pouvoirs publics appellent à faire attention à son exposition au Soleil.

On peut aussi donner un aperçu des différences qu’il peut y avoir entre le four et le WiFi : un four à micro-ondes en fonctionnement consomme à peu près 1000W, dont mettons 50 % est transformé en rayonnement. L’onde reste confinée dans l’espace où on met les aliments qui mesure à peu près 20cm de côté. En face de cela, un routeur WiFi va péniblement émettre 100mW (10 000 fois moins!) pour permettre de couvrir un appartement de 100m². Les puissances en jeu n’ont donc rien à voir !

Les recommandations

Dans le domaine des ondes radio, il existe un organisme reconnu par l’OMS qui s’occupe d’étudier la question des impacts sur la santé : l’ICNIRP. Cet organisme publie notamment des recommandations (en, fr) où l’état de la science est passé en revue. Pour ce qui concerne les fréquences utilisées pour les télécoms et le WiFi, l’effet sur le corps humain consiste en une hausse de la température. Il n’y a aucun effet comme les atteintes directes à l’ADN : chaque photon ne transporte pas assez d’énergie pour briser des liaisons chimiques.

Pour établir sa recommandation pour le public, la commission regarde quel champ provoque un échauffement de 1°C du corps humain, puis divise le flux de puissance par 50. Au final, on a donc un échauffement local dû aux ondes de 0.02°C. Les valeurs sont données dans le Tableau VII ci-dessous. Reco_ICNIRP.jpg On y voit que pour le WiFi (autour de 2.4GHz), la recommandation est de 61V/m, soit 10W/m², et à 900MHz, fréquence historique du téléphone mobile, de 41V/m. La réglementation française reprend ces valeurs.

En ce qui concerne les antennes, en Angleterre, on a constaté que les niveaux dus aux antennes ne dépassaient pas 2% de la recommandation (en termes de puissance). En France, plus de 97% des mesures sont à moins de 10% de la recommandation en termes de champ. Comme dit plus haut, cela correspond à 1% en termes de puissance et donc d’échauffement. 80% des mesures sont à moins de 2V/m soit 0.25% de la recommandation en termes de puissance pour la bande des 900MHz. On constate donc qu’en dehors de cas exceptionnels, l’échauffement dû aux antennes est inférieur à 0.0002°C.

Quant aux téléphones, on peut accéder aux données des fabricants les plus connus sur leur site internet (exemple). Les émissions sont souvent proches de 50 % de la recommandation, soit un échauffement dû au champ radio de 0.01°C.

Les études épidémiologiques sur le cancer et les ondes radio

Même si on voit qu’a priori il y a toutes les chances pour que les ondes radio n’aient pas d’incidence sur la santé des études épidémiologiques ont été conduites pour vérifier si c’était bien le cas.

L’étude la plus mentionnée est sans doute INTERPHONE. Parmi les résultats médiatisés de cette étude, il y aurait une augmentation du risque de certains cancers pour les 10 % des plus gros utilisateurs. Cependant, même si c’était confirmé, cette augmentation du risque serait extrêmement faible: le surplus de cas de cancer serait de 60 par an, à comparer aux 350000 cas annuels, tous cancers confondus.

L’étude comporte aussi un biais important : elle se base sur l’utilisation du téléphone rapportée après coup par les malades. Comme le cancer se développe avec un temps de latence important, il est aisé pour les gens de se tromper de bonne foi. Il faut donc pour bien faire confirmer à l’aide d’autres types d’études. C’est ainsi qu’une étude danoise de cohorte suivant l’état de santé de toute la population sans a priori n’a trouvé aucun effet. De même, si les téléphones ont un impact important sur l’apparition de certains cancers, on devrait le constater via une augmentation du nombre de ces cancers. Or, ce n’est pas le cas: le nombre de cas de cancers qui pourrait être liés au téléphone est stable, malgré l’utilisation intensive qui en est faite depuis maintenant de longues années.

gliome_model_comparison.jpg Incidence constatée du gliome (type de cancer) comparée à différents modèles.

Dans d’autres domaines, on n’a pas constaté de maladies professionnelles liées aux ondes radio (exemple avec les radars). Tout porte ainsi à croire que les ondes radios utilisées pour les télécoms n’ont pas d’effet délétère sur la santé. Comme le dit l’OMS : « À ce jour, il n’a jamais été établi que le téléphone portable puisse être à l’origine d’un effet nocif pour la santé. »

Le cas des électro-hypersensibles

Mais alors, pourquoi y a-t-il des articles dans les journaux sur les électro-hypersensibles ? La réponse est que si ces gens sont bien malades, la cause n’est pas celle qu’ils dénoncent. En effet, les expériences scientifiques ont toujours montré que le corps humain ne peut détecter les ondes radio. Les résultats sont les mêmes que l’exposition soit réelle ou simulée :

  • Lorsqu’ils étaient réellement exposés à des ondes radio, les électro-hypersensibles mentionnaient de plus forts maux de tête dans 60 % des cas
  • Lorsqu’ils étaient exposés de façon factice à des ondes radio, ils mentionnaient de plus forts maux de tête dans 63 % des cas, une proportion très similaire.

C’est ce qui a amené l’AFSSET (depuis devenue l’ANSES) à écrire que « les seuls résultats positifs obtenus à ce jour sur le plan thérapeutique sont ceux obtenus par des thérapies comportementales ou des prises en charge globales. » L’OMS est du même avis, puisqu’elle déclare qu’il n’y a «aucune base scientifique» reliant ces symptômes aux champs électromagnétiques.

On peut donc dire que ces articles alertant sur le cas des hypersensibles ne donnent pas un bon aperçu du consensus scientifique et qu’accepter sans distance critique le regard que les malades portent sur leur propre condition n’est pas le meilleur service à leur rendre.

Conclusion

Les ondes radio utilisées dans les télécoms sont sans danger pour la santé humaine. C’est ce qu’il ressort du consensus scientifique sur la question. Au fond, c’est cohérent avec l’historique qu’on en a : les ondes radio sont utilisées depuis plus d’un siècle et l’invention de la radio, ses usages n’ont fait que se développer. Les travailleurs du secteur (radio, radars, …) ont donc été plus fortement exposés que le public d’aujourd’hui, mais aucune maladie professionnelle n’a été détectée.

Il serait donc dommage de se priver d’inventions parmi les plus utiles des 40 dernières années et qui vont continuer à trouver de nouvelles applications. Le téléphone portable est devenu un moyen presque indispensable de communication et rend de grands services, au point que la fin des «zones blanches» est devenue une revendication des élus de zones rurales.

L’activité législative restrictive en ce domaine est déplorable, en ce qu’elle amène jeter le doute sur le consensus scientifique d’innocuité.

NB : ce texte s’inspire de 2 textes en anglais, sur le site du Guardian et FiveThirtyEight.com ; ainsi que de ce billet du pharmachien.

16 février 2016

Éradication

Il n'est pas très courant de voir pousser une logique philosophique à son terme, et c'est pourquoi il me semble intéressant de lire le billet d'Audrey Garric, journaliste au Monde, a publié sur son blog à propos de l'éradication des moustiques. Chacun sait que ces dernières années, le moustique tigre a agrandi son aire de répartition et a amené avec lui les maladies qui l'accompagnent, la dengue, le chikungunya et le zika. Cette dernière maladie est actuellement l'objet d'une attention particulière car de nombreux cas sont apparus au Brésil — avec comme conséquence de nombreux cas de microcéphalie. Une des voies de lutte contre ces maladies est de chercher à développer des vaccins — qui deviennent potentiellement rentables maintenant que ces maladies touchent nettement plus de monde et que la clientèle est plus solvable. Une autre est aussi de lutter contre le vecteur de la maladie: le moustique. Le paludisme, véhiculé par les anophèles, soulève des questions très similaires et on peut soit chercher un remède contre le parasite responsable, soit lutter contre le vecteur.

Le post donne la parole a des entomologistes qui disent carrément qu'on peut se passer des espèces de moustiques qui véhiculent des maladies, parce qu'ils seront soit remplacés par d'autres espèces de moustiques moins dangereuses pour l'homme, soit remplacés par d'autres types d'insectes. Mais en fin de billet on voit apparaître la raison pour laquelle la question n'est pas évacuée comme impossible: il y a de nouvelles techniques pour essayer de diminuer les populations de moustiques. 3 méthodes sont apparues:

  1. Infecter les anophèles avec une bactérie qui rend impossible la transmission du paludisme.
  2. L'utilisation de moustiques transgéniques mâles dont la descendance meurt au stade larvaire, fabriqués grâce à une technique qui a le vent en poupe.
  3. Utiliser des moustiques transgéniques pour rendre impossible la transmission du paludisme, gêne qui se répand grâce à une variante de la même technique.

La deuxième technique a de très bon taux de succès puisque des tests ont montré une chute de 80% de la population de moustiques tigre. Vu la voie d'action du procédé — par lâcher de moustiques mâles qui iront s'accoupler avec des femelles —, il est peu probable qu'une résistance se développe à court terme contrairement aux insecticides. Ce type de technique a d'ailleurs déjà été utilisé avec succès dans la cas de la lucilie bouchère.

La réponse finalement apportée par Audrey Garric est à mon sens résumée dans la dernière phrase du billet: peut-on supprimer des espèces entières, aussi meurtrières soient-elles, quand les humains eux-mêmes constituent un danger pour la nature dans son ensemble ?. Elle paraît donc essentiellement négative; finalement l'homme n'aurait pas le droit d'éradiquer les moustiques vecteurs de maladies parce qu'il est lui même corrompu et fondamentalement mauvais, car il passe son temps à rompre l'équilibre naturel des choses. L'impression qui se dégage est que l'espèce humaine — enfin, pour l'instant, la partie qui vit sous les tropiques — doit accepter la malédiction que sont les maladies véhiculées par les moustiques un peu comme un châtiment pour les destructions qu'il provoque par son activité. Souvent, la biodiversité est présentée par ses défenseurs comme un but en soi, n'ayant pas besoin d'autre justification, ce qui peut amener à se poser la question de savoir si la défense de la biodiversité s'étend aussi à des organismes clairement nuisibles tels que le virus de variole. La réponse suggérée dans le billet s'approche très près d'une telle affirmation.

Qu'on puisse préférer des espèces nuisibles au bien-être de l'homme me dépasse. Surtout dans le cas où, comme ici, il n'y aura sans doute aucune conséquence notable de la disparition de ces espèces de moustiques dangereuses pour l'homme autre qu'un plus grand bien-être pour ce dernier. Les personnes interrogées sont claires sur ce point: les moustiques dangereux seront remplacés par des insectes remplissant des niches écologiques équivalentes. De plus, aujourd'hui, les maladies véhiculées par les moustiques sont absentes de France métropolitaine, ce qui rend confortable de se poser des questions de la sorte. Pendant ce temps-là, on estime qu'il y a 200 millions de malades, et 600 000 morts par an, du paludisme. Pendant ce temps-là, deux théories du complot se sont développées sur le virus zika: la première incriminait les moustiques transgéniques, l'autre sur un produit de traitement de l'eau visant à tuer les larves de moustique. Dans les 2 cas, on incrimine une solution potentielle contre ces maladies en utilisant des arguments dans la droite ligne de ceux des militants écologistes: dénigrer les OGMs et les insecticides. Remettre le bien-être des hommes au centre des préoccupations serait donc sans doute une meilleure idée, à mon avis.

25 septembre 2015

Optimisation

Il est récemment apparu que le groupe Volkswagen, célèbre fabricant d'automobiles, avait inclus dans le logiciel embarqué dans certains de ses véhicules une fonction permettant de détecter qu'un test officiel était en cours et d'ajuster les paramètres du moteur pour s'assurer de respecter les réglementations anti-pollution. Lors d'essais en conditions réelles, une association s'est aperçue que les Volkswagen émettaient bien plus sur route que lors des tests, contrairement au véhicule tank d'une marque concurrente, BMW. Après quelques péripéties, Volkswagen a admis qu'un logiciel lui permettait d'adapter les émissions lors d'un test.

On comprend bien que ce type de manœuvre soit interdite: pour que les normes anti-pollution soient utiles, il faut que les tests soient représentatifs, dans une certaine mesure, du comportement réel des émissions de polluants. Utiliser un logiciel qui modifie les réglages du moteur quand un test est détecté ruine complètement cette représentativité puisqu'on peut alors faire des choses très différentes entre le test et l'utilisation réelle. Les mesures effectuées et répercutées dans la presse indiquent une multiplication par 30 et plus des émissions de NOx entre les tests et la conduite sur route de montagne (voir p62 du pdf). Que la production d'oxydes d'azote soit facilement modifiée n'est pas une surprise: cela résulte de la modification du mélange, où plus d'air injecté résulte dans une plus grande quantité d'oxydes d'azotes créés.

Le premier constat qu'on peut faire est que les automobiles sont désormais en grande partie contrôlées par leurs ordinateurs de bord qui sont capables de faire un certain nombre d'ajustements d'elle-mêmes. Avec l'augmentation de la puissance de calcul, on a non seulement droit au GPS, mais il est aussi possible d'essayer de deviner le comportement de l'automobiliste pour passer les rapports de vitesse, des boîtes automatiques avec de plus en plus de rapports, etc. Dans le cas présent, les ordinateurs de bords sont peut-être désormais capables d'ajuster les paramètres du moteur pour optimiser la puissance et la couple ou encore la consommation de carburant, comme le font les pilotes de F1 en piste. Avec les avancées en termes de machine learning, on peut construire des machines qui reconnaissent bien des situations et leur apprendre différents comportements suivant le situation. Bien sûr cela a des conséquences en termes de pollution, puisque le moteur ne passe sans doute pas les tests anti-pollution en dehors d'un mode de fonctionnement relativement étroit. Parmi les autres désagréments, on peut aussi maintenant pirater des voitures pour les mettre en carafe. C'est le revers de la médaille du surplus de confort et de l'optimisation des performances.

L'optimisation, justement: aujourd'hui, les produits complexes comme les automobiles sont le résultats de compromis et donc d'optimisations: on cherche à obtenir les meilleures performances, au meilleur prix. Les performances sont elle-mêmes très diverses: il faut que la voiture soit confortable, facile à conduire, performante, peu polluante: ces contraintes ne sont pas nécessairement toutes compatibles entre elles. D'où l'idée d'établir des comportements différents suivant la situation: avec la puissance de calcul actuelle, c'est envisageable! C'est même facilité par le côté stéréotypé des tests officiels, dont il est bien difficile de s'échapper. En effet, un test officiel a pour but d'être reproductible afin de donner une autorisation à la vente: le réaliser dans des conditions contrôlées et une procédure très idéalisée aide à atteindre ce but. Il se doit aussi de ne pas être trop long ou trop compliqué faute de quoi, il serait extrêmement cher et ouvrirait la porte à la contestation. Cette affaire Volkswagen va sans doute amener à ce que les tests d'homologation se déroulent dans des conditions plus proches de la réalité et pourquoi pas en situation réelle. On peut aussi noter que le fait d'établir des normes peut conduire à perdre de vue le but final de l'optimisation. C'est un peu ce qui s'est produit avant la crise des subprimes: un certain nombre de produits financiers ont été construits pour répondre à une spécification émise par les agences de notation. Les ingénieurs employés par les banques ont été chargés d'y répondre, avec pour seul but de passer le test des agences et non d'éviter le défaut de paiement. Pour Volkswagen, ceux qui ont décidé d'inclure la fonction «spécial test» ont perdu de vue le but global qui était fixé: atteindre de bonnes performances tout en polluant un minimum.

Enfin, cette histoire montre aussi qu'il est bien difficile de cacher éternellement des comportements peu recommandables lorsqu'on est une firme mondiale. Il y aura toujours quelqu'un pour tester les produits quelque part dans le monde! Et comme ils sont souvent motivés, on peut s'attendre à ce qu'ils arrivent à leurs fins. Le comportement dont il est question est bien difficile à discerner pour le commun des mortels: bien malin qui peut déterminer la composition des gaz d'échappements sans équipement perfectionner ou comparer tests officiels avec comportement routiers sans un minimum d'organisation. Alors de là à cacher une fonction qui ferait juste tomber un produit en panne après une certaine date, ce serait du pur délire tellement c'est un comportement facile à déceler: décidément, les tenants de la prétendue «obsolescence programmée» sont très proches des théoriciens du complot! Au fond, la meilleure garantie que les produits vendus aujourd'hui respectent bien la loi, c'est qu'ils soient vendus à grande échelle.

6 septembre 2013

Dimitris

Ce dimanche, le Monde nous a gratifié d'un article sur ceux qui se nomment électro-hypersensibles. On nous présente le cas de plusieurs personnes. Une femme se dit intolérante à diverses fréquences allant du 50Hz du courant électrique aux micro-ondes, elle semble vivre en permanence avec un bracelet anti-statique. Elle l'utilise pour se mettre à la terre, alors que, marchant pieds nus, sa conductivité électrique, que sous-entend la prise au premier degré de son affection, devrait lui permettre se décharger automatiquement. Un homme est aussi atteint après avoir eu une vie frénétique en travaillant sur plusieurs continents. Un autre se dit aussi atteint, de plus, il ne supporterait aucun produit chimique. À première vue, il s'agit d'un rassemblement de personnes souffrant effectivement d'une ou plusieurs affections handicapantes, puisque, par exemple, l'électricité est devenue omniprésente dans le monde moderne. Cela dit, rien ne dit que le diagnostic que ces personnes portent sur elles-mêmes soit le bon.

On s'aperçoit que la journaliste a tout de même une intime conviction: les téléphones portables sont bien responsables. Elle nous dit que ce sont des symptômes que nombre de médecins, démunis, attribuent encore régulièrement à des troubles psychiatriques ou psychosomatiques et que la controverse est loin d'être tranchée chez les scientifiques et divise la classe politique. Ainsi donc, il semble qu'il ait encore des médecins qui n'ont pas vu la lumière et qui osent encore attribuer ces symptômes à des causes psychiatriques. Il y aurait aussi une controverse scientifique. Les lecteurs réguliers de ce blog se rappelleront sans doute que j'ai déjà abordé ce thème par deux fois. On peut résumer le consensus scientifique en signalant que l'ANSES rappelait que les seuls résultats positifs obtenus à ce jour sur le plan thérapeutique sont ceux obtenus par des thérapies comportementales ou des prises en charge globales et qu'un article scientifique a montré que ces personnes étaient bien incapables de détecter les ondes auxquelles elles imputaient leurs maux. Il est aussi très étonnant qu'aucune explication ne soient apportée au fait qu'après plus d'un siècle d'utilisation du courant alternatif et des techniques utilisant les ondes radio, ce n'est qu'avec le téléphone portable que sont apparus ces électro-sensibles.

On se trouve ainsi dans un cas où la situation est présentée sous un jour tout à fait particulier et on ne peut s'empêcher de remarquer qu'on nous avait déjà fait le coup en 2008. La dispute politique, par contre, est bien réelle; elle est portée par les écologistes. Par une coïncidence extraordinaire, cet article est publié juste après la publication d'un rapport concluant à la multiplication par 3 du nombre d'antennes si on voulait passer en deçà du seuil arbitraire et sans justification de 0.6V/m en gardant une bonne qualité de service. En attendant, dans certains immeubles, on a du mal à capter le signal, alors que le téléphone portable est aujourd'hui le seul téléphone pour un certain nombre de ménages, grâce notamment à son faible coût puisque pour 2€ par mois et un appareil à 20€ on peut appeler de partout, alors qu'un ligne fixe réclame de l'ordre de 15€/mois d'abonnement et oblige à payer un raccordement de 50€.

La revendication qui est porté par le rassemblement qui nous est décrit mérite aussi le détour: la création de zones sans ondes. Cette revendication est impossible à satisfaire depuis que Marconi a inventé la radio, notamment à ondes courtes, que le courant alternatif alimente tous les équipements du confort moderne et que le téléphone satellite a fait son apparition. Elle est directement inverse à celle des élus et de la plupart des habitants qui ont réclamé à cor et à cri une bonne couverture par le téléphone portable, non sans succès puisqu'on a rapporté des cas de personnes sauvées par des messages envoyés depuis un endroit autrefois improbable. Cette revendication s'accompagne d'une menace d'utilisation de la violence puisque la zone blanche, on la prendra s'il le faut. Cette revendication a donc pour principal intérêt de faire passer ceux qui veulent limiter l'exposition pour des modérés préférant la paix.

Cette semaine, un journaliste a aussi fait part des raisons qui l'ont amené à quitter le journal qui l'employait. Son employeur le soupçonnait en fait de n'être guère impartial quand il voulait couvrir les évènements entourant la contestation de la construction de l'aéroport de Notre-Dame-des-Landes. Il faut dire qu'il qualifie de magnifiques 3 jours sur place en compagnie des contestataires. Pourtant d'autres échos laissent entendre un quotidien de racket et de vols dans les supermarchés pour les habitants, priés d'être contre l'aéroport sous peine de rétorsions bien réelles. On le voit, la réalité montrée dépend fortement du point de vue de celui qui tient le stylo ou, de nos jours, le clavier. Sans surprise, la vision relayée reflète les opinions politiques de l'auteur, sans que le lecteur n'ait de moyens rapides de vérifier quels faits auraient pu être occultés, voire même qu'on lui raconte en fait n'importe quoi. Autrefois, des puissants accréditèrent le récit d'un homme sans qu'il ne fût nécessaire qu'ils y crussent, car c'était expédient pour leur cause politique. Aujourd'hui, les choses n'ont peut être pas tant changé; si la cause politique a des chances de remporter un succès, il est loin d'être sûr que les malades qu'on nous montre bénéficient vraiment, à terme, d'un relais sans critique de leur croyances.

23 avril 2013

L'obsolescence programmée et la saucisse médiatique

Pour ceux qui l'auraient manquée, il y a en ce moment une offensive médiatique des tenants de l'obsolescence programmée. Une association de consommateurs a publié une brochure prétendant dénoncer cette nouvelle plaie d'Égypte. L'information est relayée sur le blog d'une journaliste consommation du Monde où on apprend que la brochure est largement basé sur un mémoire réalisé dans le cadre d'un Master. L'auteur de ce mémoire était invitée ce matin sur Europe1. Par le plus grand des hasards, c'est aujourd'hui que l'inénarrable Jean-Vincent Placé, auteur d'une proposition de loi sur ce sujet, a posé une question orale accompagnée d'un débat.

Qu'importe apparemment qu'il ait déjà été brillamment démontré que l'obsolescence programmée était un mythe complet, basé au fond sur une théorie du complot, sa propagation est apparemment inarrêtable, les médias en considérant les tenants comme suffisamment crédible pour mériter une large audience. On peut tout de même remarquer une nouveauté: les tenants du concept ne prennent même pas le temps de nous démontrer que les exemples qu'ils prennent relèvent de ce qu'ils dénoncent. Aucune trace d'un tel lien dans la brochure, aucun des exemples ne fait l'objet d'une démonstration pour essayer de démontrer qu'il s'agit d'un acte de conception qui ne fait que réduire la durée de vie du produit. On répertorie juste des pièces d'usure ou pouvant casser et on nous assène quelles ont été placées là de façon à réduire la durée de vie du produit. Même chose dans le mémoire: l'argumentation du billet d'Alexandre Delaigue est rappelée … mais l'auteur s'arrête là. Elle ne tente même pas de réfuter la thèse adverse.

C'est encore plus éclatant lors de l'interview à la radio: elle affirme notamment qu'il est pratiquement impossible de prouver qu'un produit a été conçu pour ne plus fonctionner avant la fin de sa durée de vie «normale». Autrement dit, pour elle, il est impossible de prouver une quelconque application de concept en réalité. C'est fort pratique et c'est une tactique qui relève clairement de la théorie du complot: on ne peut rien prouver puisque c'est un complot très bien organisé. Bien sûr aucun mot sur les nombreuses personnes qu'il faut embaucher pour développer un produit qui se taisent toutes ou n'arrivent jamais à publier une spécification interne où une telle intention est mentionnée. Plus loin, elle prend l'exemple des batteries d'un célèbre smartphone et elle affirme qu'au bout de 400 cycles de charge, elles ne fonctionnent plus. Or le site du fabricant mentionne tout autre chose: au bout de 400 cycles, la capacité de la batterie est réduite de 20%. Elle affirme aussi que le besoin de recharger plus souvent un smartphone qu'un un simple combiné portable, combiné à la limite du nombre de cycles de charge est un exemple de l'obsolescence programmée. Aucun mot sur le fait que la taille de l'écran a augmenté, que la puissance de calcul des smartphones est bien supérieure à celle des simples téléphones. Il est d'ailleurs remarquable que les simples téléphones coûtent nettement moins cher que le célèbre smartphone dénoncé … mais semblent moins populaires. À part cela, on entend Bruce Toussaint introduire l'interview avec tous les poncifs du genre: les appareils modernes qui ne tiendraient que 4 ans alors que ceux de nos ancêtres duraient 10 ans, etc. Aucune mention, bien sûr, de l'augmentation continue de l'âge moyen de certains produits, comme les automobiles. On voit donc la fabrique des nouvelles à l'œuvre: une association fait du lobbying, qui a miraculeusement lieu concomitamment à une offensive politique, elle est reprise par divers média. Si le locuteur est considéré comme crédible ou sympathique, il ne risque guère la contradiction. On imagine bien par contre qu'un quelconque industriel venant se défendre se verrait assaillir de questions et sommé de se justifier. Bref, on nous raconte une histoire avec des bons et des méchants.

Tout ceci ne serait pas très grave si, en agissant de la sorte, les médias ne favorisaient pas de fait une tendance politique qui va dans le sens exactement contraire au but officiellement poursuivi, la satisfaction des consommateurs. En effet, les consommateurs cherchent des produits qui ont un bon rapport qualité/prix et non un produit indestructible. D'ailleurs, les tenants de l'obsolescence programmée ne cessent de prôner un certain nombre de remèdes à implémenter. Il faut que les produits durent longtemps, soient longtemps disponibles dans le commerce, qu'il y ait peu de nouveautés pour éviter l'«obsolescence esthétique» et que les produits soient facilement réparables — par exemple, en remplaçant un simple condensateur pour rallumer sa TV. Le revers accepté est que peu d'innovations technologiques sont introduites. Force est de constater que de tels produits ont déjà existé; l'archétype en est sans doute la Trabant.

12 mars 2012

Le séisme du Tohoku, un an après

Un an après que le séisme exceptionnel de magnitude 9 et le tsunami qui l'a suivi ont frappé la côte nord du Japon, les commémorations sont l'occasion de faire un bilan pour les médias de par le monde.

Sur un site spécialisé dans le sujet, une mise à jour du bilan nous apprend que le séisme et le tsunami ont fait 19000 morts et disparus. Un graphique montre l'évolution des bilans; après une augmentation rapide dans les premiers jours, la diminution du nombre de disparus, non compensée par la découverte de cadavres a conduit à réviser les estimations à un niveau bien plus bas que les presque 30000 morts initialement craints. En fait, le tsunami est responsable de l'écrasante majorité des décès: plus de 94%! Un des premiers facteurs explicatifs de décès est l'âge: plus de 75% des morts avaient plus de 50 ans, 56% plus de 65 ans. Fatalement, quand on regarde la carte de répartition des morts, on voit qu'ils sont tous ou presque sur la côte, mais sont relativement étalés. Le tsunami a frappé la côte sur plus de 200km. Sur le terrain, la dévastation due au tsunami est impressionnante, on peut en voir un exemple sur cette vidéo d'Onagawa avec des bâtiments en béton renversés et un brise-lame à l'entrée de la baie qui a disparu, sous l'effet d'une vague de presque 15m.

Les dégâts matériels sont répartis de façon plus dispersée. Les dommages s'étendent plus à l'intérieur des terres et jusqu'à Tokyo au sud. Cependant, les dégâts sont moins définitifs à l'intérieur des terres que sur la côte, le tableau de répartition entre les différentes catégories montre qu'il y a proportionnellement bien plus de bâtiments détruits qu'endommagés là où le tsunami a frappé. Au total, 400k bâtiments sont détruits et au total 1.2M ont été suffisamment endommagés pour être répertoriés. Pour les bâtiments, on constate quand même que les dommages sont plus équilibrés entre secousse et tsunami, une partie des bâtiments endommagée étant condamnée à la destruction. Il y a en conséquence de nombreux déplacés, environ 320000, dont la moitié environ est apparemment due à la catastrophe de Fukushima.

Ces destructions se traduisent par un bilan économique: les conséquences directes sont estimées à plus de 300G$ et les indirectes à plus de 550G$. Ces bilans incluent la catastrophe de Fukushima qui apparemment représente environ 20% des dégâts économiques.

Pour la catastrophe de Fukushima, il se confirme de plus en plus que les dégâts y sont essentiellement matériels. Le blog {sciences²} de Libération en donne avec sa série un bon aperçu. Il part d'une présentation de l'IRSN où on voit que la radioactivité due aux rejets a été divisée par 5 dans les 3 premiers mois, la décroissance se poursuivra plus lentement, le césium 134 ayant une demi-vie de 2 ans, le césium 137 de 30 ans, laissant certaines zones significativement contaminées. Mais personne n'a été exposé à une dose mortelle, et seuls une centaine de travailleurs ont reçu une dose supérieure à 100mSv, à partir de laquelle des effets commencent à être notés sur le long terme. L'expert de l'IRSN admet que l'essentiel des dommages humains est l'évacuation: une catastrophe nucléaire ne se représente pas nécessairement par un nombre de morts mais par l’évacuation brutale et l’abandon de territoires. La presse anglo-saxonne est parfois la plus directe: les radiations ne sont pas le problème n°1. Et c'est sans doute ce qui a amené l'association des casseurs d'atomes à publier une vidéo où des chercheurs donnent leur sentiment, très positifs du point de vue radiologique. Techniquement, on s'est aussi aperçu que la centrale n'avait pas certains dispositifs qui auraient permis d'amoindrir les dégâts et a ignoré les avertissements de l'AIEA. Les réacteurs plus récents ont, eux, survécu au tsunami. Cela montre que le risque est maîtrisable et c'est pourquoi l'industrie nucléaire est loin d'être morte. Mais cela n'empêche évidemment pas les anti-nucléaires de soigneusement éviter de parler du bilan dans leurs éditoriaux.

Au final, le séisme du Tohoku a montré que les plus grosses catastrophes pouvant toucher l'homme sont toujours les catastrophes naturelles. Les catastrophes causées par la main de l'homme sont en général de moindre importance et, au contraire, la technique lui permet d'engranger d'énormes gains de confort et de durée de vie. Le bilan est limité à moins de 20000 morts grâce en partie aux normes anti-sismiques japonaises et les accidents nucléaires ont bien peu d'effets comparés aux alternatives.

23 décembre 2011

Conséquences à long terme de Fukushima

Le 16 décembre, le gouvernement japonais a annoncé que la centrale de Fukushima Daiichi était en «arrêt à froid». L'eau à l'intérieur du réacteur est à moins de 100°C depuis septembre dernier, mais les problèmes techniques dans le traitement de l'eau et, certainement aussi, la prudence du gouvernement japonais ont retardé l'annonce officielle. Les rejets à l'extérieur de la centrale seront à l'avenir minimes; à partir de maintenant, il s'agira surtout de commencer à démolir la centrale, ce qui prendra du temps: à 3-Mile Island, on avait attendu 6 ans avant de récupérer la charge d'uranium qui avait partiellement fondu.

Dans la foulée, le gouvernement japonais a annoncé des modifications importantes pour les zones d'évacuation. Dorénavant, les zones ne seraient pas principalement basées sur la distance à la centrale, mais sur l'importance de la radioactivité. Les zones où la dose est inférieure à 20mSv/an seront habitables immédiatement, celles où elle est de moins de 50mSv/an devront subir des travaux de décontamination, celles où elle est supérieure à 50mSv/an resteront inhabitées. Des mesures de radioactivité ont été régulièrement effectuées, ce qui a permis l'élaboration d'une carte (si vous tombez sur une page semblant expliquer les précautions à prendre, après l'avoir lue attentivement, vous signifierez votre accord en cliquant, en bas de la page, sur le bouton de gauche marqué 同意する — «d'accord»).

La carte donne le débit de dose horaire, avec des intervalles donnés dans le cartouche à droite. On peut voir sur cette carte que les retombées sont concentrées sur un panache orienté vers le nord-ouest, une zone relativement peu peuplée, puisqu'il s'agit essentiellement de la chaîne de montagnes côtière. Il n'y a pas de données présentées pour les 10 premiers km autour de la centrale, mais on peut supposer que les retombées — et donc la radioactivité — y sont importantes et qu'elle sera pour la majeure partie inclue dans la zone inhabitée.

Pour effectuer son décompte de dose annuelle, le gouvernement japonais compte sur une personne qui passe 8h à l'extérieur, où le débit de dose est celui donné par les couleurs de la légende à droite et 16h à l'intérieur, où le débit est estimé à 40% de celui à l'extérieur. C'est ainsi qu'un débit de dose de 1µSv/h donne environ 5mSv/an. C'est ainsi que toutes les zones en nuances de bleu ou de vert pourront être réoccupées assez rapidement, la partie en jaune devant faire l'objet de travaux.

En regardant, les communes évacuées, on peut constater que les 3 communes les plus proches de la centrales (Futaba, Okuma et Namie) comptaient environ 40k habitants avant le séisme, que les communes dans la zone qui doit subir des travaux (Iitate, Katsurao, Tomioka) comptaient 20k habitants. À terme, ce sont donc la moitié des 80k évacués qui vont pouvoir revenir s'ils en ont le désir.

Quant aux personnes travaillant à la centrale, environ 100 personnes ont dépassé le seuil des 100mSv et 6 celui des 250mSv, les décès prévisibles de ce fait sont donc limités à quelques unités. Il n'y a pas eu d'autres décès liés à l'accident autres que les 2 noyades causées par le tsunami. Du fait de la distribution de pastilles d'iode et de la faible consommation de lait au Japon, les conséquences parmi la population seront limitées à l'évacuation.

Ainsi, on peut dire que l'accident nucléaire de Fukushima montre que l'industrie nucléaire ne présente pas un grand risque sanitaire pour les populations: les décès à prévoir sont minimes. Par contre, les mesures de précaution sont contraignantes et onéreuses avec l'évacuation, même temporaire, de dizaines de milliers de personnes en cas d'accident grave. Les dégâts économiques sont graves: les réacteurs sont chers à construire, un accident rend inutilisable celui qui en est victime et empêche au surplus de réutiliser le terrain pendant plusieurs dizaines d'années.

7 septembre 2011

La logique victime du nuage de Tchernobyl

L'actualité nous donne avec le non-lieu prononcé par la Cour d'Appel de Paris d'étudier les effets des retombées du nuage de Tchernobyl sur la presse et le sens logique des journalistes. La Cour a donc au moins estimé qu'il n'y avait pas assez de preuves contre le Pr Pellerin, seul mis en examen dans cette affaire pour tromperie aggravée car il dirigeait le SCPRI lors de la catastrophe de Tchernobyl. En fait, en faisant quelques recherches, on voit mal comment il aurait pu vouloir tromper qui que ce soit. Cela n'empêche pas divers articles de presse de reprendre en chœur l'argumentation de ses détracteurs selon lesquels on est là en présence d'un complot.

D'abord, il faut rappeler que contrairement à une légende tenace, ni le gouvernement français, ni le SCPRI, ni le Pr Pellerin n'ont affirmé que le nuage de Tchernobyl s'était arrêté à la frontière. Ce mythe est démonté consciencieusement sur cette page où les évènements sont décrits pas à pas. S'il semble saugrenu qu'un organisme publiant jour après jour des cartes montrant le survol du territoire français par le nuage radioactif puisse vouloir cacher quoi que ce soit, cela n'a pas gêné certaines personnes. Il faut dire qu'en plus de publier les mesures de rayonnement, le SCPRI les reliait au consensus scientifique de l'époque, à savoir que les risques pour la santé étaient infinitésimaux. Ce consensus a depuis été confirmé par les faits, puisqu'on a bien été incapable de détecter une quelconque influence du nuage de Tchernobyl sur la santé. Les habitudes ont la vie dure, puisque, cette année, le CRIIRAD a tenté de faire croire que l'IRSN — successeur du SCPRI — avait caché le survol du territoire français par les rejets dus à l'accident de la centrale de Fukushima, alors même que les relevés sont tous disponibles en ligne. Cependant, les références à un quelconque mensonge du Pr Pellerin ne se sont plus produites que mezzo voce, la condamnation de Noël Mamère pour diffamation n'y étant sans doute pas étrangère.

Partant du fait que les informations communiquées par le SCPRI étaient exactes et reflétaient le consensus scientifique de l'époque, il est normal que toute poursuite pour tromperie ou coups et blessures ne mène à rien. Une action a tout de même été tentée par une association de malades de la thyroïde qui allègue notamment de l'augmentation du nombre de cancers de la thyroïde. Une petite recherche sur le sujet des cancers de la thyroïde livre des documents intéressants.

  • Un livret décrivant les cancers de la thyroïde édité par la Ligue contre le cancer nous informe qu'il y a peu de chances que l'augmentation du nombre de cancers soit lié au nuage de Tchernobyl (p18).

Le nombre des cancers de la thyroïde découverts chaque année en France est d’environ 4 000. Ce nombre augmente régulièrement depuis 1970. Cette augmentation, observée dans de nombreux pays, notamment aux États-Unis, est liée essentiellement à l’amélioration des pratiques médicales qui permet le dépistage de petites tumeurs. (...) En France, la contamination a été beaucoup plus faible, la dose d’irradiation à la thyroïde des enfants ayant très rarement dépassé une dizaine de mGy, aucun effet sanitaire (n')est attribué (au nuage de Tchernobyl).

  • Un article dans une revue médicale nous apprend que l'augmentation du nombre de cancers est liée à l'amélioration de la technique et qu'en prime on n'est même pas sûr que cette amélioration de la technique ait de réels bénéfices (p2)

L’augmentation de l’incidence des cancers de la thyroïde observée depuis plusieurs décennies est liée à une augmentation du diagnostic des petits cancers papillaires, permise par l’amélioration des pratiques. D’un point de vue médical, ces petits cancers de la thyroïde ont un excellent pronostic, et les bénéfices de leur détection précoce ne sont pas démontrés.

En effet, l’augmentation de l’ensemble des cancers thyroïdiens vient pour une grande part de l’augmentation des cancers de petites tailles (micros cancers papillaires) et de stade précoce, qui n’évoluent pas toujours vers une expression clinique. (...) Les études d’évaluation quantitatives de risque sanitaire, associées à la surveillance des évolutions temporelles et des répartitions spatiale du cancer de la thyroïde, ont permis d’exclure un impact important des retombées de Tchernobyl en France.

Pour dire les choses simplement, non seulement il n'y a eu aucune tromperie, mais en plus le consensus scientifique de l'époque a été confirmé par les études, ce qui fait que les plaignants ne peuvent même pas se prévaloir des effets du nuage de Tchernobyl. La lecture des documents laisse même à penser que l'amélioration des techniques de détection n'a servi à rien du point de vue de la santé publique!

Passons maintenant à ce qu'en dit la presse. Le Monde se contente d'un court article dont on peut retirer que le Pr Pellerin s'en est tiré grâce à ses puissants appuis malgré une augmentation significative des affections thyroïdiennes. Libération nous gratifie d'un article recopié d'une dépêche AFP donnant une large place à la parole des plaignants qui font appel au mensonge d'état. Mais c'est dans le Figaro qu'on trouve une perle où le sommet est atteint:

Monique Séné, présidente du Groupement des scientifiques pour l'information sur l'énergie nucléaire (GSIEN) au moment de l'accident, partage cette analyse. «Le docteur Fauconnier a bien mis en évidence les conséquences du nuage sur la santé des bergers corses, explique-t-elle. Mais il est quasiment impossible, si longtemps après les faits, de faire la part des choses entre un cancer lié à l'influence du nuage ou un cancer venant d'ailleurs.»

Pour résumer, des conséquences sur la santé ont été mises en évidence: l'inexistence de l'effet du nuage. C'est pour cet effet d'ampleur colossale qu'il faut condamner le Pr Pellerin.

Dans aucun article, je n'ai trouvé de référence même courte au fait que l'augmentation des cancers de la thyroïde était due à l'amélioration de la technique, alors qu'on peut sans peine trouver cette information sur le web. La presse laisse donc le champ libre au post hoc ergo propter hoc et reproduit même une déclaration qui réussit l'exploit de se contredire en 2 phrases. D'une certaine façon, si le nuage de Tchernobyl a eu des retombées néfastes en France, la recherche documentaire et le respect de la logique par la presse figurent sans nul doute parmi les victimes.

L'autre scandale du Mediator

Le Mediator®, médicament produit par le laboratoire Servier, a été retiré de la vente du fait de ses effets secondaires: il entraînait de graves maladies cardiaques. Un rapport de l'IGAS a pointé de graves dysfonctionnements; Servier a réussi à complètement capturer son régulateur en faisant accepter sa position. C'est d'autant plus dommageable que d'autres médicaments très comparables étaient menacés depuis le milieu des années 90. Ces médicaments qui étaient l'objet d'une AMM au niveau européen ont été frappés d'un retrait d'AMM en 2000, quoiqu'annulé par la CJUE, et d'un refus de renouvèlement en 2001.

Il apparaît aussi clairement que Servier était tout à fait au courant de l'effet principal de sa molécule, puisque sa dénomination internationale renvoyait à un effet anorexigène, a présenté volontairement son médicament de manière biaisée aux autorités pour le faire autoriser pour le traitement du diabète où son efficacité était nettement moins forte. Cela dit dans les années 70, il n'y avait pas d'autres types de médicaments pour faire perdre du poids que les coupe-faim dérivés des amphétamines. Pour en rajouter dans la malhonnêteté, Servier a fait la promotion de son médicament non seulement pour son indication officielle mais aussi pour une indication de confort, faire du poids à des gens (des femmes en général) parfaitement sains, via ses visiteurs médicaux.

Comme signalé sur le blog de Jean-Daniel Flaysakier, cela pose aussi la question de la responsabilité des médecins prescripteurs. Un article du Figaro me renforce dans l'opinion qu'il y a là un problème de santé publique et d'éthique professionnelle. Que Xavier Bertrand, fort classiquement pour un ministre de la santé de droite, ait décidé de ne pas susciter une quelconque hostilité dans une catégorie supposément acquise à la droite en déclarant que les prescripteurs ne verront pas leur responsabilité engagée ne suffit pas à les absoudre.

En effet, la lettre de la gynécologue affirme clairement qu'elle a prescrit un médicament hors AMM. La lettre ne le dit pas, mais ces prescriptions ont sans nul doute été remboursées par la sécurité sociale, comme si elles avaient été délivrées dans le cadre de l'AMM, alors qu'il s'agissait de perdre à l'approche des beaux jours 3 à 5 kilos. On ne peut que subodorer qu'il s'agit là d'une fraude à la sécurité sociale. Mais ce n'est pas le pire.

Jamais cette médecin ne s'est posée la question de savoir pourquoi l'indication de confort était hors AMM et le médicament uniquement disponible sur ordonnance. N'étant pas médecin, j'ai tout de même à l'esprit que si on ne prend des médicaments que lorsqu'on est malade, c'est que ceux-ci ont aussi des effets secondaires délétères. Mieux, si on a institué un mécanisme d'autorisation a priori et de contrôle — normalement — régulier des médicaments, c'est pour s'assurer que les bénéfices de la prescription l'emportent sur les inconvénients. Certes, des substances très puissantes comme l'aspirine échappent à cela, mais c'est du fait de leur ancienneté. Selon l'article, une enquête de l'afssaps montre que dans les 2/3 des prescriptions, on ne s'est pas posé beaucoup plus de questions. Bien loin de réduire la défense de Servier à néant, ces informations la renforcent au contraire: si après de longues études, les médecins ne sont pas capables de comprendre quelle peut être l'utilité de l'AMM, des études a priori, du suivi pharmacologique, qu'un médicament doit apporter des bénéfices supérieurs aux inconvénients et que les limitations apportées par les AMMs sont aussi une indication de l'importance de ces inconvénients, on peut se demander si on ne ferait pas mieux de s'alimenter directement à la pharmacie! Pour une indication de pur confort — ce qu'est l'envie de maigrir de façon saisonnière — on est en droit d'attendre de très faibles effets secondaires; on ne peut pas dire que les limitations de l'AMM du Mediator pointaient dans cette direction. On pourrait certes opposer qu'il se fût toujours trouvé quelque médecin pour prescrire si cette gynécologue ne l'avait pas fait, mais cela veut dire qu'elle avait peur de perdre une cliente ou qu'il s'agissait de lui faire plaisir. Dans les deux cas, il s'agit d'une démarche purement commerciale, comme celle adoptée par le laboratoire Servier, certes sans l'organisation que suppose une firme pharmaceutique, mais qui n'en reste pas moins condamnable.