23 janvier 2012

État stratège

Fin novembre dernier, le Conseil d'État censurait les arrêtés interdisant la culture du MON810. Cela a donné lieu à des réactions des plus prévisibles, y compris sur ce blog. Un point restait cependant peu clair: le ministre de l'environnement, Mme Kosciusko-Morizet, avait juré que le gouvernement publierait de nouveaux arrêtés invoquant la clause de sauvegarde et interdisant de nouveau la culture de la plante honnie.

L'arrêt de la CJUE pose ainsi des conditions pour la validité de l'invocation de la fameuse clause de sauvegarde (§81): l’article 34 du règlement n° 1829/2003 impose aux États membres d’établir, outre l’urgence, l’existence d’une situation susceptible de présenter un risque important mettant en péril de façon manifeste la santé humaine, la santé animale ou l’environnement. Pour un OGM autorisé depuis 1995 aux USA et qui a fait l'objet de plusieurs milliers d'articles scientifiques, trouver de nouvelles indications susceptibles de passer un tel test, sans qu'il n'en ait été question en large et en travers dans la presse semble relever de la gageure. On attendait donc plus d'informations sur la stratégie — à n'en pas douter brillante — qu'allait adopter le gouvernement pour parvenir à ses fins.

Aujourd'hui, le ministre de l'environnement a fait quelques déclarations sur ce sujet. En effet, depuis 2 mois, on ne voyait plus rien venir et les agriculteurs commencent maintenant à s'approvisionner en vue des semis. Mme le ministre a donc déclaré que le gouvernement activera la clause de sauvegarde avant la période des semailles mais pas trop tôt avant pour que la Commission européenne n'ait pas le temps de la remettre en cause et qu'il s'opposera à la culture du Mon 810, donc ce n'est pas la peine d'acheter des semences de Mon 810.

On voit donc avec quelle confiance le gouvernement va de nouveau activer la clause de sauvegarde: pour ne pas laisser la commission le temps de réagir, on attendra le dernier moment. Cela devrait aussi permettre d'annihiler les efforts de Monsanto — qui, à coup sûr, agira en référé — pour faire annuler les nouveaux arrêtés. Les arguments scientifiques qui seront avancés par le gouvernement ne semblent donc pas suffire au ministre, ce qui est surprenant, puisqu'on nous dit depuis toujours que le MON810 est dangereux.

Le gouvernement cherche donc ouvertement à priver d'effets une décision de justice visant à corriger un excès de pouvoir. Dans la dépêche, on cherche aussi vainement toute trace de condamnation des actes des militants anti-OGM, alors que ce gouvernement se fait fort de pourchasser les délinquants. Encore des actes à mettre au crédit de ce gouvernement.

6 janvier 2012

Le principe de réalité et les éditoriaux du Monde

La publication par l'ASN de son rapport d'évaluation de la sûreté des centrales nucléaire française est de nouveau l'occasion de reparler dans la presse de la fabrication d'électricité à partir de la fission de l'uranium. Sans réelle surprise, l'ASN a annoncé qu'aucune centrale ne devait être fermée, mais que toutes devraient voir leur dispositifs de sûreté renforcés, ce qui va entraîner des dépenses d'investissement de la part d'EDF que l'entreprise évalue à environ 10G€.

Le Monde profite de l'occasion pour publier diverses tribunes sur le sujet. La première, quelque peu fouillis, écrite par un ancien vice-président de la Commission internationale des grands barrages et dont on peut donc subodorer qu'il est un ancien employé d'EDF, tente tant bien que mal de nous expliquer que le nucléaire est la seule énergie qui permet actuellement de fournir du courant de façon compatible avec la vie moderne tout en minimisant les rejets de gaz à effet de serre et les volumes de produits importés. La seconde, écrite par des opposants, tente de nous expliquer qu'on peut se passer du nucléaire sans se reposer sur les énergies fossiles. Les auteurs affirment qu'il n'est pas vraisemblable de penser qu'on remplacerait le nucléaire par du charbon, alors que c'est ce qu'on constate ailleurs, en Allemagne, par exemple: lorsque le couple nucléaire et hydroélectricité ne représente pas la plupart de la production, ce sont les diverses formes de charbon qui dominent ou, plus rarement, comme en Espagne, le gaz. Ils s'extasient aussi devant les performances de l'Allemagne en terme de consommation d'électricité: 27% de moins pour les usages spécifiques, sans nous dire que pour cela, il faut que le prix facturé aux particuliers soit 2 fois plus élevé. Enfin, l'électricité serait fournie par les inévitables énergies renouvelables intermittentes, le solaire et l'éolien, qui bénéficient apparemment pour l'occasion de dispositifs magiques de stockage qui ne coûtent rien ni en argent ni en énergie, un peu à la façon du scénario négaWatt dont on a déjà dénoncé l'irréalisme. La dernière, la plus sérieuse, tente une évaluation des coûts entraînés par la sortie du nucléaire. L'auteur, ancien directeur adjoint de la direction de l'environnement à l'OCDE, ce qui explique sans doute sa sympathie pour les données de sa filiale pour l'énergie, l'AIE. À partir d'hypothèses claires, il démontre que continuer à faire fonctionner les installations existantes, qui fournissent de l'électricité de façon fiable pour un coût marginal faible est le moyen le plus économique et, par là, le meilleur en termes de niveau de vie et d'emplois.

Mais surtout, en première page, le Monde publie un éditorial, titré Du culte de l'atome au principe de réalité. Le titre donne le ton: finalement, il y aurait eu un culte du nucléaire, mais ce seraient les opposants qui avaient raison, les technocrates nous cachaient tout, les risques étaient élevés et il y avait des coûts négligés. Cependant, il y a tout lieu d'en douter.

Tout d'abord, ces fameux X-Mines qui contrôleraient en secret le destin de la France ne sont que des ingénieurs sélectionnés pour l'encadrement. À la fin des années 60, puis à la suite du choc pétrolier, la France est confrontée à un dilemme: les réserves de charbon sont en voie d'épuisement rapide alors que la fabrication d'électricité reposait dessus, le pétrole est devenu subitement plus cher et surtout la fiabilité de son approvisionnement apparaît douteuse. Les responsables politiques ont donc demandé à ce qu'une solution technique soit apportée. Loin de vouer un culte à l'atome, les ingénieurs chargé de trouver des solutions ont passé en revue ce qui existait et ils ont constaté que la fabrication de l'électricité à partir de la fission d'uranium présentait d'excellentes caractéristiques: faible volume de combustible, ce qui permet de le stocker sur de longues durées, prévisibilité du prix à long terme puisque les coûts sont déterminés essentiellement par les investissement de départ et la masse salariale du site, faibles émissions de polluants et surtout alors de dioxyde de soufre, faible usage de terrains. Pour couronner le tout, la France maîtrisait déjà les techniques d'enrichissement, et une entreprise américaine était prête à nous vendre les plans d'une centrale. C'est ce qui explique le consensus pour s'équiper de réacteurs à une échelle industrielle et non une quelconque resucée du culte du veau d'or.

L'éditorial voit aussi les investissements pour améliorer la sûreté comme énormes. Cela montre surtout que les journalistes ont de graves difficultés avec les ordres de grandeur. En effet, un tel programme s'amortit au moins sur 10 ans. Les centrales nucléaires françaises produisent au moins 400TWh par an. En escomptant qu'un tel investissement de 10G€ doit rapporter 8% par an en plus de se rembourser, on peut calculer le surcoût par MWh: 4.5€. Ce type d'estimation permet de savoir de quels ordres de grandeur on parle, et force est de constater que cela représente bien quelques pourcents d'augmentation du prix de l'électricité.

Quant au démantèlement, peut-être auraient-ils pu consulter avec profit le site de la NRC, le régulateur américain de l'industrie nucléaire, et ses questions/réponses sur le sujet. Ils y auraient lu que le démantèlement d'un REP de 900MW coûte grosso modo 400M€ d'après les démantèlements menés à bien, ce qui après une utilisation de 40 ans représente un coût de 2€/MWh produit et encore moins après 60 ans. Cela n'empêchera pas ce même journal de s'étrangler lorsque la Cour des Comptes donnera le total pour les réacteurs français — sans doute de l'ordre de 30G€ si on compte les réacteurs de 1.3GW coûteront plus cher à démolir.

Plus généralement, on ne peut que constater que les données sur la plupart des problèmes que posent l'industrie nucléaire, l'information est disponible publiquement, sur le web. C'est ainsi que tous les réacteurs sont répertoriés dans une base de données où figure par exemple la production effectuée, RTE donne un historique horaire de la production pour les 6 dernières années, Eurostat fait le point tous les 6 mois sur les prix de l'électricité dans l'UE, l'AIE publie tous les ans des statistiques sur les émissions de gaz à effet de serre, l'UNSCEAR a publié des rapports de plusieurs centaines de pages sur les effets de la radioactivité sur la santé humaine en général, et sur l'accident de Tchernobyl en particulier. Toutes ces données pointent dans une seule direction: l'énergie nucléaire est une source d'électricité fiable, aux coûts tout à fait raisonnables qui ne rejette que des quantités infimes de déchets dans la nature en temps normal et dont les conséquences des accidents sur la santé, imputables aux radiations, sont mineures. Pour le dire autrement, c'est la meilleure façon de produire de l'électricité, à l'exception de l'hydraulique.

De tout ceci, on trouve des traces dans la presse. L'éditorial est bien obligé de remarquer que l'électricité est bien moins chère en France qu'en Allemagne pour les particuliers. Mais les conclusions sont toujours les mêmes: il faut tout remettre à plat alors que toutes les données sont disponibles pour qui veut bien prendre la peine de les chercher. L'éditorial dit vouloir un débat sur des bases rationnelles et en appelle au principe de réalité, mais fait l'impasse sur la masse de données accumulées et refuse de se livrer ne serait-ce qu'à des calculs d'ordre de grandeur. Parfois, il me semble que les mots n'ont pas le même sens dans la presse que dans le dictionnaire.

19 décembre 2011

Sans fleur ni couronne

Il y a une semaine s'est achevée la conférence de Durban sur le climat. Avant qu'elle ne commence, les observateurs étaient sceptiques quant aux chances de succès de la conférence. Des activistes avaient affiché d'emblée des ambitions limitées à la promesse par les pays en développement de s'engager dans le futur à réduire leurs émissions et à abandonner la distinction entre pays supposément riches, engagés dans le protocole de Kyoto, et pays vus comme pauvres, soumis à aucun engagement. La répartition mondiale des émission poussait à ce que cette distinction tombe: les deux plus gros émetteurs, les USA et la Chine, comptaient d'après l'AIE pour 40% des émissions en 2009. Comme la Chine n'est obligée à rien par le protocole et que les USA ne l'ont pas ratifié en donnant pour raison que les pays émergents ne subissent aucune contrainte, la signification du protocole est devenue marginale. De plus, depuis juin dernier, il est devenu clair que l'objectif d'un réchauffement limité à 2°C est hors d'atteinte si des mesures ne sont pas prises rapidement.

La conférence s'est terminée avec plus de 30 heures de retard, signe des grandes difficultés d'arriver à un accord. L'accord final prévoit bien la fin de la distinction de Kyoto, mais que l'accord ne prendra effet qu'en 2020. Les ambitions limitées sont tout justes remplies, mais l'attente de 10 ans risque de se révéler fatale. Alors que les preuves du réchauffement ne semblent pas manquer, l'action ne semble toujours pas la priorité.

La raison principale à cela, c'est que le réchauffement climatique rassemble tous les éléments de la tragédie des communs. On est presque certain que tout le monde y perdra si rien n'est fait, mais il n'y a aucun mécanisme pour décider de ce qu'il y a à faire et par qui; tous les pays n'ont pas les mêmes intérêts. De plus, tous les pays ne subiront pas les mêmes désagréments: menacer l'Arabie Saoudite de désertification n'a pas grand sens, le dégel du permafrost n'est pas forcément si mauvais pour la Russie. C'est ainsi qu'on a vu l'Arabie Saoudite demander à ce qu'on compense les moindres achats de pétrole qui résulteraient du succès des politiques menées! Les pays en développement, eux, ne veulent pas voir leur développement entravé. Quant aux USA, toute signature d'un accord contraignant est impossible car une bonne partie de sa population pense qu'il n'y a pas de réchauffement climatique. Comme les plus gros émetteurs n'arrivent pas à s'accorder, les actions des volontaires comme l'UE ne comptent pas pour grand chose: l'UE ne représentait environ que 1/8 des émissions mondiales en 2009.

Les propositions pour débloquer la situation ne semblent pas pouvoir résoudre le problème. Ainsi, Nathalie Kosciusko-Morizet, ministre de l'environnement, écrivait récemment sur son blog:

L’échec que nous avons frôlé, aurait eu des conséquences considérables. Depuis Copenhague, les COPs se succèdent et s’essoufflent. Le système onusien est de plus en plus critiqué. Les présidences tournantes montrent leurs limites. A Durban, par exemple, le système organisé par la Présidence sud-africaine qui consiste à consulter longuement, dans des formats différents, selon un processus maïeutique appelé Inbada en référence au nom donné en zoulou au conseil des anciens, a considérablement ralenti les débats.

La question de la gouvernance des négociations doit donc légitiment être posée. Dans le cadre de la préparation de Rio+20 en janvier prochain à Paris, nous organisons avec Alain Juppé une grande réunion qui sera l’occasion de réfléchir sur l’organisation d’une nouvelle gouvernance.

Si on comprend bien, on va résoudre les problèmes des réunions interminables ne donnant aucun résultat en en organisant une!

Les volontaires pourraient donner l'exemple et montrer qu'il est possible d'émettre peu de CO₂ relativement à la population et d'avoir un haut niveau de vie élevé. Cependant, depuis 1992 et la Conférence de Rio, les résultats sont mitigés: CO2_par_tete2.png Comme on peut le voir sur le graphe, issu des données de l'AIE, les efforts ont été modérés. Si l'Allemagne a vu ses émissions baisser fortement, il faut se rappeler qu'elle a hérité au début des années 90 des émissions de l'ancienne RDA. Comme tous les pays communistes, la parcimonie en termes de consommation d'énergie y était inconnue; la mise aux normes occidentales a permis un gain énorme. Mais à part cela, on ne note pas vraiment d'évolution entre 1990 et 2005, sauf en Espagne, dans le mauvais sens.

Par contre, Verel signalait l'interview d'un climatologue français, déclarant que la construction de centrales nucléaires avait fait baisser nettement les émissions françaises. Sur le graphe, on voit que deux pays, la France et la Suède, à un moment où les émissions de CO₂ ne préoccupaient personne, ont enregistré une baisse rapide de leurs émissions, concomitantes à la constructions de centrales nucléaires. Aujourd'hui, il n'est plus question, en Europe, que de diminuer la part du nucléaire, rendant encore plus difficiles l'atteinte des objectifs de réduction des émissions de CO₂.

Au fond, ce à quoi on a assisté, c'est à l'enterrement d'un processus commencé à Rio en 1992. À l'époque, les bonnes intentions ne manquaient pas, les climatologues commençaient à cerner le problème du réchauffement climatique, une application positive du principe de précaution allait permettre une évolution en douceur et une implémentation progressive de solutions que les négociations multilatérales menées de bonne foi allaient faire émerger. 19 ans plus tard, cet idéal est bien mort.

edit: modification du graphe et mention explicite de la source.

29 novembre 2011

Retour du boomerang MON810

Le cas des OGMs et du MON810 a déjà été évoqué sur ce blog, pour montrer que c'est un exemple de l'application dévoyée du principe de précaution et pour dire qu'en la matière, l'action du gouvernement durant le mandat de Nicolas Sarkozy est tout simplement désastreuse. En activant la clause de sauvegarde pour interdire la culture du MON810 début 2008, le gouvernement a provoqué une plainte de Monsanto pour faire annuler cette décision. Comme il n'y avait strictement aucune raison d'invoquer la clause de sauvegarde, sauf, bien sûr, des motifs d'opportunité politique, la réponse de la CJUE puis celle du conseil d'État ne faisaient guère de doute. Il est donc de nouveau possible de semer du MON810.

Cette décision, que même les écologistes de Greenpeace attendaient, donne lieu à une intéressante expérience sur le niveau du débat public en France. Rappelons en effet qu'il n'y a guère que 28000 publications scientifiques à propos des OGMs, dont 5000 sur les plantes résistantes aux insectes, cette catégorie concernant certainement pour une part très importante les plantes Bt comme le MON810. Les effets de ces plantes sont ainsi parmi les mieux documentés qui soient. Quant à la décision elle-même, elle ne laisse aucun espoir sur la légalité d'un nouveau moratoire. Ce n'est pas tant l'illégalité qui va gêner le gouvernement, mais plutôt le fait que le Conseil d'État l'ait déjà reconnu, ce qui ouvre la porte à une censure express.

Quelle a donc été la réaction des hommes politiques? Comme on pouvait s'y attendre, on a entendu un chœur incluant l'ensemble de la classe politique pour vouloir un nouveau moratoire. Les Verts, accompagnés de toutes les associations écologistes, ne pouvaient pas passer à côté de cela, l'opposition farouche aux OGMs étant une des bases idéologiques du mouvement. Le PS et son candidat, François Hollande, ne furent pas en reste. Quant au gouvernement, profitant d'un déplacement à vocation agricole, il disait qu'il reste encore trop d'incertitudes sur les conséquences pour l'environnement — on aurait aimé savoir lesquelles — et Nathalie Kosciusko-Morizet se disait plus déterminée encore qu'en 2008 à activer la clause de sauvegarde — on aimerait savoir sur quels éléments. Les politiques ont donc choisi, dans la plus pure tradition française, d'ignorer une décision de justice limitant l'arbitraire gouvernemental. Ils ont aussi choisi d'ignorer l'ensemble des études scientifiques sur le MON810 et ont invoqué de mystérieuses incertitudes, un homme politique ne s'abaissant pas à détailler ces points techniques, les faits recelant un grand potentiel de dangerosité pour leur crédibilité. Cependant, on peut parier avec les représentants du secteur que ces menaces seront efficaces.

Quant à la presse, et plus particulièrement le journal dit de référence, Le Monde, nous gratifie d'un article étudiant la possibilité d'un nouveau moratoire. Comme d'habitude sur ces sujets, la possibilité que le maïs MON810 ne soit pas dangereux n'est pas évoquée. On se contente de citer les attendus du jugement et sa formulation négative selon laquelle le ministre n'a pas apporté la preuve de l'existence d'un niveau de risque particulièrement élevé pour la santé ou l'environnement. Au contraire, une large place est laissée aux membres des associations d'opposants aux OGMs, pour lesquels cette dangerosité ne fait aucun doute, réclamant encore et toujours que les études soient faites et refaites. Ils sont toutefois bien embêtés, car il est évident qu'aucune évaluation des risques, même totalement bidon, ne pourra être menée dans les temps et que la consultation de la Commission européenne va encore rallonger les délais. Pour dire les choses clairement, ce journal fait l'économie de rapporter complètement les faits pour donner une perspective totalement biaisée. Aucune question n'a été posée à un homme politique sur la façon de procéder pour activer correctement la clause de sauvegarde et sur quels faits elle va se baser. Les ministres se sont aussi vus épargner la peine de répondre à une question sur l'indigence de la justification de l'activation de la clause de sauvegarde de 2008, qui rendait inéluctable la décision du Conseil d'État.

Une fois de plus, on ne peut que constater le manque de sincérité des politiques et l'absence de tout rapport honnête aux faits dans la presse. Il a été dit que la France était une société de défiance. Vraiment, on se demande pourquoi.

20 novembre 2011

De l'accord entre le PS et les Verts

Ainsi, après s'être bien tapé du poing sur la poitrine, les Verts et le PS ont fini par s'entendre et signer un accord. Le plus important dans cet accord, c'est ce qui ne figure pas dans le document: la promesse que les Verts seront seuls en lice dans 60 circonscriptions, ce qui devrait leur rapporter 15 députés en cas de défaite de François Hollande aux présidentielles et 30 en cas de victoire. Cette négociation a donné lieu à un spectacle d'un nouveau genre, où les Verts ont intimé l'ordre au PS de rejoindre sa ligne, entre autres sur le nucléaire, pour accepter qu'on leur donne des circonscriptions. Ces distrayantes gesticulations se sont terminées un peu comme elles ont commencé, par un geste envers les militants verts, sous la forme d'une bouderie d'Éva Joly. Il faut dire que lors des primaires, où Éva Joly était le fer de lance des écolos traditionnels contre un Nicolas Hulot plus éloigné des préoccupations principales de la base, le nucléaire et les OGMs, 10% des votants se sont prononcés pour deux candidats dont la principale caractéristiques était soit de trouver Éva Joly trop gentille, soit d'être un militant anti-nucléaire fervent. Et au fond, qu'Éva Joly renonce ou pas à la campagne présidentielle n'a pas grande importance, l'impact politique des Verts se décidera surtout en fonction du résultat des législatives. Si le PS doit compter sur le soutien des Verts pour obtenir la majorité absolue, on entendra de nouveau bruyamment parler de l'EPR de Flamanville et de l'aéroport de Notre-Dame-des-Landes.

Cependant, il serait imprudent de tenir le texte de l'accord pour quantité négligeable. Ce genre d'accord programmatique donne à voir les points de convergences de ces deux partis, une certaine façon de penser et de procéder. Ce qui frappe au premier abord, c'est que les auteur-e-s de ce texte maîtrise-nt à la perfection cette langue rénovée, citoyenne et durable dans laquelle s'expriment désormais les revendications de gauche. Elle ne comprend pas seulement des expressions dont la défense du contraire est impossible, ce qui signe l'absence totale de substance — qui voudrait d'un développement éphémère ou d'un déclin durable? Cette technique est aussi utilisée à droite, il faut donc plus pour se distinguer. À gauche, on utilise donc un champ lexical différent dont, certainement, l'étude a déjà été faite, ainsi qu'un signe de ponctuation, le tiret, pour se soustraire aux lois d'airain de la grammaire française. On peut aussi subodorer que le texte n'a pas été relu. C'est ainsi que, page 9, on apprend que moins d'un salarié âgé de 59 ans sur dix a un emploi. Au début du texte, on trouve aussi une curiosité: il faut dominer la finance. Je n'ai trouvé nulle part ailleurs plus pur aveu de la relation sado-masochiste des politiques avec la finance, activité honteuse mais qui permet de financer les programmes.

Les revendications écologistes ont trouvé leur chemin jusque dans ce texte. Cela s'explique sans doute par la proximité avec les idées qui ont cours au PS. Mais on n'arrive pas à se détacher de l'idée que non seulement, le texte n'a pas été relu, mais aussi que, sur ces sujets, l'ignorance est totale au PS ou qu'alors on se moque totalement de ce qui y figure. Il est écrit dans le texte que la promotion d'une agriculture familiale autonome et vivrière dans les pays en développement (sera) une revendication de la France dans les discussions multilatérales. Le PS, ardent défenseur du progrès social, prône donc le maintien à leur place de tous ces paysans dans les pays les plus pauvres du monde. L'agriculture de subsistance qui est portée ici au firmament est l'activité par excellence des peuples qui vivent dans la misère la plus abjecte. La révolution industrielle a signé la fin de cette agriculture dans les pays développés, amenant une période prospérité sans précédent dans l'histoire de l'humanité. Si les pays tropicaux, parmi lesquels se trouvent les pays les plus pauvres, sont le lieu aujourd'hui de cultures dites commerciales comme le coton, le cacao, le café, les mangues, les ananas, c'est parce que les conditions climatiques y rendent ces cultures plus profitables qu'ailleurs, c'est un avantage comparatif, ce qui permet le commerce, l'autre cause majeure de la prospérité du monde moderne.

Dans ce texte, il y a bien sûr toute une partie consacrée au nucléaire (p11 sq). Officiellement, il s'agit de parler de transition énergétique, mais à part l'introduction et deux paragraphes à la fin de la partie, il n'est question, de près ou de loin que de diminuer production d'électricité nucléaire. Ce seul fait est en lui-même intéressant: alors qu'il s'agit de lutter contre le dérèglement climatique et l’épuisement des ressources naturelles, il est principalement question de se passer d'un mode de production d'énergie qui ne rejette pas de dioxyde de carbone et dont les perspectives, avec la Génération IV et les réacteurs à neutrons rapides, permettent de régler, en France, avec le stock d'uranium appauvri existant, les problèmes de production d'électricité pour au moins 1000 ans. Pourtant, sur le sujet du nucléaire, il est difficile de penser qu'on n'y connaisse rien au PS. Christian Bataille s'occupe souvent du nucléaire au sein de l'office parlementaire des choix scientifiques et techniques. Cela dit, le nucléaire n'est pas le sujet de prédilection du PS: dans tous les documents du programme, il n'en est question qu'une fois, cela prend un paragraphe sur un document de 30 pages. Tout porte donc à croire que la plupart de ce qui est écrit a été dicté par les écologistes; il est incroyable de constater à quel point leur tactique de négociation a réussi, le PS leur a concédé dans un document programmatique l'arrêt progressif du nucléaire, leur revendication majeure, tout en leur donnant des circonscriptions!

Cette partie sur le nucléaire nous donne à lire un extrait du programme des Verts, programme utopique dont la réalisation demande l'entrée dans une société totalitaire. Comme il faut bien signer avec le PS, ces mesures sont adoucies, mais n'en restent pas moins sévères, et portées à la punition et aux préjugés. Qu'on en juge:

  • Mobiliser tous les leviers (réglementation, fiscalité, formation) visant notamment à réduire la consommation d’électricité. Traduction: l'électricité est trop bon marché en France, on va donc la taxer. Pour ceux qui ont du mal à comprendre, on va leur interdire d'en utiliser plus et leur parler avec des mots simples en articulant. J'ai déjà discuté auparavant de la distribution des taxes en question: seuls les particuliers seront touchés.
  • Une tarification progressive de l’électricité et du gaz permettra le droit effectif de tous aux services énergétiques de base, tout en luttant contre les gaspillages. Comme augmenter les prix de l'énergie des particuliers est contradictoire avec la capacité de vivre dans une société moderne, notamment pour les pauvres, on va demander une feuille d'imposition pour facturer l'énergie. C'est inédit: jusqu'ici, seuls les plus pauvres bénéficient d'un tarif social. On remarque par ailleurs un préjugé: il semble que les pauvres ne gaspillent pas. Au vu des gens qui circulent en vieilles automobiles ou de l'isolation des logements les moins chers, on peut en douter.
  • Nous traiterons efficacement de la question des « pertes d’énergie en ligne », notamment en rapprochant la production de la consommation. En 2010, les pertes ont représenté, en France, 37TWh sur une consommation totale de 513TWh, soit 7% du total. Sur le réseau de RTE, qui regroupe les lignes à haute tension, sans nul doute celles qui sont visées ici, les pertes ont été de 11TWh soit 2% de la consommation totale. (Source: Statistiques 2010 de RTE, p15). On voit mal comment gagner quoi que ce soit de véritablement important de cette façon.
  • Arrêt immédiat de Fessenheim. Si le PS compte finir un réacteur de 1.6GW pour 2016 à Flamanville, il en ferme 2 totalisant 1.8GW immédiatement, alors que les Allemands viennent de retirer 8GW, sans rien prévoir en remplacement et qu'il y a un risque de coupure en France en 2016 à cause de la fermeture probable de centrales au charbon! (cf Bilan équilibre demande 2011 de RTE). Est-ce une décision raisonnable? On voit par ailleurs qu'un échange s'est sans doute fait: fermer Fessenheim tout de suite contre une acceptation (provisoire) de l'EPR.
  • Un plan d’évolution du parc nucléaire existant prévoyant la réduction d’un tiers de la puissance nucléaire installée par la fermeture progressive de 24 réacteurs (...). Le projet d’EPR de Penly (...) sera abandonné. (...) Aucun nouveau projet de réacteur ne sera initié. (...) Un acte II de la politique énergétique sera organisé d'ici la fin de la mandature pour faire l’examen de la situation et des conditions de la poursuite de la réduction de la part du nucléaire. On retrouve ici un plan consistant grosso modo à fermer les réacteurs après 40 ans de service, à ne pas construire de réacteurs de remplacement, et à continuer la même politique après 2025. C'est donc bien un plan de sortie du nucléaire quoique puissent en dire François Hollande et ses subordonnés.
  • La création d’une filière industrielle française d’excellence concernant le démantèlement des installations nucléaires. On retrouve là l'idée des Verts que la démolition des centrales peut constituer une activité d'importance. Cela semble bien difficile, EDF prévoyant que le démantèlement des REP lui coûte environ 20% du prix de construction. Le chantier de démolition de Chooz A serait en ligne avec les coûts prévus, d'après ce qu'a déclaré EDF lors d'une audition publique à l'Assemblée Nationale.
  • Il y a bien sûr le fameaux paragraphe sur le MOX. Comme dit par un retraité du CEA dans le Point, il a sans doute été écrit par des non-spécialistes, mais son intention est claire: entraver le maximum d'activités nucléaires pour aller vers la fin de la filière. Comment expliquer sinon qu'on parle de reconversion du site de stockage des déchets finaux?
  • Nous accélèrerons la recherche sur le stockage de l’électricité. Ce qui signifie en clair que le système proposé par les Verts ne fonctionne pas. La grande variabilité des énergies renouvelables politiquement correctes — éolien et solaire photovoltaïque — impose soit de construire des centrales thermiques consommant des combustibles fossiles, soit de disposer de moyens énormes de stockage de l'électricité. On peut certes augmenter l'usage des barrages, mais ce n'est pas suffisant — et contradictoire avec l'objectif de réduire les pertes en ligne — il faut trouver d'autres moyens. Or il s'avère que les ordres de grandeurs nécessaires à la construction de tels stockages sont délirants, par exemple pour un système d'accumulateurs au plomb. En abandonnant le nucléaire, on lâche la proie pour l'ombre et c'est écrit dans l'accord!
  • La recherche publique (notamment l’activité du CEAEA) sera réorientée prioritairement vers l’efficacité énergétique, les énergies renouvelables, leur intégration dans le réseau et les moyens de stockage, ainsi que vers la maîtrise du risque nucléaire (sûreté, déchets, démantèlement). Traduction: il ne faudrait pas que le CEA ait du succès avec la Génération IV, des fois que les gens la confondrait avec la véritable énergie renouvelable. Bref, le CEA ne fera plus de recherches dans le domaine des applications industrielles du nucléaire, à l'image de ce qui se passe en Allemagne.
  • Quant aux réseaux de transport, leur évolution vers des réseaux plus intelligents sera encouragée sous tous ses aspects pour améliorer les services délivrés, maîtriser les coûts, intégrer une part croissante d’ENR et optimiser l’équilibre offre-demande aux différentes échelles. On se demande bien ce que cela peut vouloir dire. Mis à part bien sûr que la production locale ne peut suffire à tout instant dans le cas d'énergies intermittentes. Il faudra donc augmenter les capacités de transport du réseau — nouvelle contradiction avec la réduction des pertes en ligne — ou rationner.

Il est bien difficile de faire plus idéologique. Et de toute évidence, les négociateurs du PS ont tout gobé, sans doute parce qu'il n'y connaissaient pas grand chose et d'autre part parce qu'ils étaient aussi sans doute proches des idées écologistes. Autant dire qu'un tel étalage de dogmatisme et d'incompétence ne m'incitera pas à aller voter pour François Hollande.

15 novembre 2011

Hors piste

À une époque aujourd'hui révolue, c'est-à-dire au mois d'avril dernier, la France vit le nombre de morts sur les routes augmenter après plusieurs années de baisse continue. La cause en était toute trouvée, il s'agissait du retour de comportements kamikazes provoqué par un aréopage d'irresponsables qui a décidé de faire acte de clémence en rendant leur point perdu au bout de 6 mois à ceux qui ne les perdent qu'un par un. Le gouvernement se crut alors obligé de reprendre son gourdin habituel sur la question, de décider de revenir sur les engagements pris lors de la pose des radars automatiques de mettre des panneaux pour les annoncer, de museler les appels de phares modernes, d'agrandir les plaques des motos.

En ce mois de novembre, une autre nouvelle fait un peu moins de bruit: il n'y a finalement, malgré cette hausse printanière, jamais eu aussi peu de morts sur les routes. Il semble difficile de mettre cela sur le compte des effets de nouvelles mesures prises par le gouvernement. Le cumul sur 12 mois du nombre de morts sur les routes a toujours été inférieur à son homologue de l'année antérieure, sauf au mois de juin dernier. Le cumul des accidents corporels a, lui, été quasiment identique en début d'année à ce qu'il était en début d'année 2010, avant de diminuer à nouveau. De plus, certaines mesures ont dû être abandonnées. Quant aux radars, ils sont toujours indiqués dans les GPS. On peut certes invoquer qu'une parole forte a permis de redresser une situation compromise, mais alors pourquoi se fatiguer à aller démonter les panneaux indiquant les radars? En démonter un seul sous l'œil des caméras aurait suffi et permis de réutiliser cette menace la fois suivante. La cause qui était dénoncée comme de l'augmentation de la mortalité mensuelle est toujours en vigueur. Il faut dire que payer 45€ de façon relativement certaine doit suffire à dissuader nombre d'amateurs de flirts avec les limites de vitesses.

Ce que montrent ces péripéties, c'est que le gouvernement a fait sur cette question preuve de sectarisme. Depuis 2002, les résultats obtenus sont spectaculaires. Au delà de l'habituelle amélioration des routes et des véhicules, la politique menée a principalement consisté à poursuivre les excès de vitesse à l'aide des radars automatiques. Ne visant qu'une seule cause d'accident, il est clair qu'au bout d'un certain temps, ses effets ne peuvent que s'amenuiser et la tendance baissière diminuer, laissant la place à une érosion plus faible, si aucune autre politique n'est menée. Pour espérer retrouver une baisse aussi rapide ou même l'amplifier, peut-être faudrait-il étudier de nouveau quelles sont les causes d'accidents mortels sur les routes. C'est ainsi que sur autoroute, la somnolence est impliquée dans un tiers des morts. Plutôt que d'enlever des panneaux, de museler des automobilistes et de redécorer des motos, il aurait sans doute mieux valu voir quelles étaient désormais les causes sur lesquelles on pouvait le plus facilement agir. Certes, l'état est devenu totalement impécunieux et il lui est devenu difficile de résister à vouloir augmenter le rendement de ce qui constitue désormais un tiers des amendes collectées. Mais sur ce sujet où l'appartenance partisane n'a aucune importance, on aurait pu espérer mieux, que la raison préside un peu plus que l'émotion et le militantisme à la prise de décision.

11 novembre 2011

De la dernière rectification du budget 2012

Le 7 novembre dernier, François Fillon, premier ministre, a présenté un plan visant à contenir le déficit public à 4.5% du PIB malgré la révision à la baisse des prévisions de croissance. Il fait suite à un autre plan du même type présenté fin août — dont il a été question ici même — et le complète, à tel point que le gouvernement propose au téléchargement une archive contenant les fiches des deux plans.

Comme le plan précédent, il s'agit avant tout pour le court terme d'un plan de hausses d'impôts. Le gouvernement prévoit que son plan diminuera le déficit de 7G€ en 2012, les mesures d'économies devant rapporter 1.7G€ soit un peu moins de 25% du total. À plus long terme, en 2016, elles représentent 9G€ sur 17.4G€, soit plus de la moitié, même si les promesses de mesures d'économie discrétionnaires qui doivent compter pour plus de 7G€ n'engagent que ceux qui y croient, d'autant que des élections approchent. Comme le plan précédent, des mesures fiscales vont frapper les détenteurs de capitaux avec un supplément d'impôt sur les bénéfices et la quasi-fin du prélèvement forfaitaire. Il inclut aussi la promesse de continuer sur le chemin menant à la suppression de certaines niches fiscales.

Quelques évolutions sont malgré tout présentes. Tout d'abord, le gouvernement accélère la mise en place de la réforme des retraites et met plus l'accent sur des économies budgétaires à moyen terme. Que la moitié environ de la réduction du déficit public en 2016 soit due à des économies diminue en effet le risque de voir revenir le thème de la cagnotte. Le gouvernement Jospin s'était livré à diverses baisses d'impôts pour revenir peu ou prou sur les mesures prises par le gouvernement Juppé en 1995, échangeant au passage un point de TVA contre une baisse de l'IRPP. Cependant, l'origine de ces économies restant obscures et les échéances électorales approchant, on peut considérer ces annonces sont faiblement crédibles. Ensuite, la fin de certaines niches fiscales est vraiment actée. Contrairement à ce qui est dit parfois dans la presse, la fin des avantages fiscaux liés à l'immobilier n'est pas qu'une hypocrisie: après plus de 15 ans d'existence de ces réductions d'IRPP, les professionnels de la promotion immobilière pensaient toujours pouvoir bénéficier d'un régime équivalent dans le futur. Enfin, le gouvernement se résout à prendre des mesures fiscales générales, contrairement aux promesses faites jusqu'ici, et alors que la campagne présidentielle approche. Ces mesures préfigurent sans doute ce que sera le programme de la droite en cas de victoire, une augmentation générale de la TVA, de la CSG et de l'IRPP, sans véritable changement de structure de ces impôts. Cela montre aussi que le gouvernement a épuisé les mesures de poche lors de son dernier plan, après les avoir largement utilisées au cours de ce quinquennat.

Au total, ce plan ne me paraît pas pouvoir éviter l'obstacle de la cagnotte. Les mesures d'économies sont obscures et seront certainement appliquées de façon uniquement quantitative, à la manière du non remplacement de fonctionnaire, ce qui va mener à une réduction générale de la qualité des services publics, au lieu d'opérer de véritables choix préservant les services essentiels. Les épisodes de demandes de réduction d'impôt viennent du fait que la pression fiscale est vue comme trop importante, la perte de qualité des services publics et la hausse concomitante des impôts ne fera rien pour dissiper cette impression. Le gouvernement serait cela dit bien en peine de faire ces choix, sa légitimité est, à six mois des élections, bien diminuée, ce qui explique en partie qu'il ne puisse pas faire grand chose d'autre qu’accélérer l'implémentation de mesures déjà prises, comme la réforme des retraites. Cette impossibilité de faire des choix mène aussi à l'absence de mesure qui pourraient mener à un surcroît d'activité à l'avenir. L'accélération de la réforme des retraites peut à nouveau rentrer dans ce cadre, puisque les salariés qui ne partent pas à la retraite non seulement ne touchent pas leur retraite mais continuent aussi pour une grande part leur activité et le paiement d'impôts qui vont avec.

C'est sans doute peu dire que ce plan a été fraîchement reçu. Il faut bien dire qu'acter un plan d'austérité alors que l'activité économique ahane ne va certainement pas aider à sa relance. C'est ainsi que Charles Wiplosz décerne un triple 0 à ce plan qui sacrifie l'activité économique pour finalement aboutir à une situation budgétaire pire qu'avant. Et de proposer sa solution habituelle: promettre que, demain, une fois la croissance revenue, on redeviendra sérieux dans la gestion des finances publiques. Si, malheureusement, il a sans doute raison sur les conséquences directes de ce plan, les perspectives qu'il donne sont illusoires en France.

D'une part, la croissance potentielle, même à long terme est probablement basse, autour de 1.5% par an. La crise financière va continuer à peser durablement sur la croissance et une fois ses effets dissipés, les perspectives démographiques ne portent pas spécialement à l'enthousiasme. Se pose donc la question de savoir combien de temps on est disposé à attendre le retour de la croissance et quel est le niveau de croissance à partir duquel les efforts devront être fournis.

D'autre part, ce type de proposition se compare à l'attitude de Saint Augustin qui voulait la chasteté, mais pas encore, ou, si on est moins aimable, à celle du pilier de bar qui annonce son intention de cesser de boire. On ne peut que constater que la crédibilité de ces propos ne peut que diminuer à force d'usages non suivis d'effets. Dans le domaine budgétaire, on peut citer en France:

  • la promesse que la CADES ne reprendrait plus de dettes après 2006. La réforme des retraites et la la loi de financement de la sécurité sociale pour 2011 ont acté une nouvelle reprise de dette.
  • la promesse de stabilité des dépenses en euros constants. La lecture des rapports de la Cour des Comptes montre que cela a mené à l'explosion des niches fiscales.
  • le traité de Maastricht et le pacte de stabilité qui prévoyaient qu'on ne pouvait dépasser 3% du PIB de déficit sauf grave récession et que la dette publique devait rester sous les 60% du PIB. Cela voulait donc dire qu'on devait rester proche de l'équilibre en temps normal et essayer d'obtenir une marge de sécurité pour ce qui est de la dette publique. Force est de constater que ça n'a pas été la priorité des gouvernements qui se sont succédé depuis 1992 et qu'au contraire le pacte a été saboté en 2004-2005 lorsque cela s'est trouvé expédient.

L'épisode du sabordage du pacte de stabilité est éloquent: après cela, l'Allemagne a adopté une règle constitutionnelle et s'y est tenue en faisant des efforts immédiats en la matière. La France, elle, a continué comme avant. De fait, l'adoption d'une règle similaire en France mènerait surtout à des acrobaties comptables. Finalement, ce n'est pas un hasard si l'Allemagne annonce des baisses d'impôts alors que la France annonce un plan d'austérité. La parole publique française n'est certes pas aussi démonétisée qu'en Grèce ou en Italie, mais qui peut croire à des promesses de sérieux en matière fiscale qui ne sont pas accompagnées d'actes? C'est aussi ce que montre ce plan d'austérité: pendant des années les Cassandre ont dit que l'incurie budgétaire finirait par avoir des conséquences néfastes, en vain. Ces conséquences commencent seulement à poindre.

9 novembre 2011

Quelques conclusions sur le principe de précaution et son dévoiement

Épisode précédent: TP principe de précaution: les OGMs

Après quelques billets sur le principe de précaution et son dévoiement, je vais essayer d'exposer quelques conclusions que je tire de son application pratique au vu d'évènements plus ou moins récents et de la littérature théorique telle que je la comprends.

Premièrement, le principe de précaution paraît plus être une évolution qu'une révolution. Il s'agit finalement d'anticiper les dommages les plus graves de façon à adopter des mesures correctives pour les éviter ou de surveiller ce qu'on pressent comme dangereux. Si la littérature sur le principe de précaution semble accorder au domaine de la protection de l'environnement la paternité du concept, les juridictions, notamment internationales, fondent leurs jugements sur des concepts venant du domaine de la santé publique. Il semble que les conséquences pratiques de cette différences soient négligeables. Les mêmes outils sont convoqués: évaluation des risques, attention portée aux différentes hypothèses ayant cours et pourvues d'un minimum de fondements scientifiques, essai d'amoindrir autant qu'il est raisonnement possible les effets néfastes tout en gardant les avantages.

Deuxièmement, le principe de précaution requiert une certaine bonne foi de la part des parties prenantes. Comme le domaine où doit s’appliquer le principe ne fait pas l'objet d'un consensus, il est tentant de créer et de promouvoir des hypothèses pour asseoir une idéologie ou une technique particulière, particulièrement lorsque le sujet atteint l'opinion publique. Pour que le débat sur le sujet garde un fond de rationalité, il vaut mieux ne pas créer des scénarios d'apocalypse pour le plaisir, ne pas demander des choses impossibles comme de prouver qu'il n'y aura jamais de dommage dans aucune situation inventée pour les besoins de la cause et ne pas chercher à éliminer les tenants des autres hypothèses sur des arguments ad hominem. À partir du moment où on considère que le principe de précaution s'applique, par hypothèse, l'incertitude domine au moins une partie du sujet, il doit être aussi peu crédible de promettre l'apocalypse que des miracles, aussi peu rationnel de demander à ce que le sujet soit immédiatement éclairci en voulant la preuve de l'absence de dommage qu'en ne regardant que les avantages. Il faut bien dire que cette demande de bonne foi restera un vœu pieux car exploiter les failles du principe de précaution repose en fait sur des biais cognitifs humains. L'homme est assez peu doué pour évaluer les situations où des dommages importants mais avec une faible probabilité, le plupart des gens n'ont certainement pas le temps de compiler les arguments des uns et des autres et se contentent donc de juger en termes de crédibilité ce qui leur est dit sur ce genre de sujet.

Troisièmement, si le sujet devient important pour l'opinion publique, la bataille principale devient celle de la crédibilité. Au fond, l'expertise scientifique et technique revêt parfois un aspect accessoire. La priorité des décideurs politiques semble se concentrer à certains moments sur la meilleure façon d'être sûr d'éviter les prétoires ou de continuer une carrière politique. C'est ainsi que Bernard Kouchner met fin à la campagne de vaccination contre l'hépatite B. Sur le sujet des OGMs, la bataille de la crédibilité a été perdue, malgré l'adoption du principe de précaution dans ce domaine il y a 40 ans, après une accumulation de données scientifiques — le député Jean-Yves Le Déaut dit avoir visité son premier essai en plein champ en 1987 —, et des efforts de transparence. En face d'une bataille de crédibilité perdue, faire des efforts de transparence et insister sur les résultats scientifiques ont une efficacité comparable à celle d'un pistolet à eau face à une kalachnikov.

Quatrièmement, il est particulièrement tentant d'abuser du principe de précaution pour la mesure majeure qu'il permet: l'interdiction. Quoiqu'en veuillent les textes qui prévoient des mesures temporaires et proportionnées, il n'est rien de plus durable qu'une mesure temporaire dont on ne fixe pas la date d'expiration et une fois qu'on a fait accroire à l'apocalypse, il ne reste pas grand chose d'autre à faire que d'interdire. Cette propension à l'interdiction est combattue par les juridictions internationales qui mettent des garde-fous contre l'arbitraire. Mais le temps que l'affaire soit jugé un temps important s'écoule, installant un peu plus encore les certitudes dans le domaine et permettant de rendre le jugement ineffectif, sans compter les réactions dilatoires des gouvernements. Le différend sur le bœuf aux hormones s'est soldé par des indemnités versées annuellement par l'UE plutôt que de changer la législation ou de trouver un accord. L'activation de la clause de sauvegarde pour le MON810 par le gouvernement français en 2008 vient de voir revenir les réponses de la CJUE aux questions préjudicielles. Cette propension à l'interdiction pose des problèmes du point de vue d'un idéal de gouvernement démocratique et rationnel. Si la démocratie est un mode de gouvernement supérieur aux autres, ce n'est pas seulement par un mode de sélection des dirigeants, mais aussi par la garantie de droits à chacun, parmi lesquels figure le fait pour l'état de ne pouvoir imposer des actes aux citoyens sans justification rationnelle. Or ces interdictions ont souvent pour base une obligation d'ordre idéologique, comme le refus de l'agriculture industrielle et le contrôle précis par l'homme des espèces vivantes qu'il utilise pour son bon plaisir dans le cas des OGMs.

Cinquièmement, le principe de précaution s'est révélé incapable de déclencher des décisions positives dans des domaines où cela s'avère nécessaire. Le domaine le plus frappant à ce sujet est le réchauffement climatique. Au cours des années 90, les pays occidentaux et les anciens pays du bloc communiste ont décidé de limiter les émissions de gaz à effet de serre. L'objectif global de ceux qui ont ratifié le protocole de Kyoto sera sans doute respecté fin 2012, mais uniquement grâce à l'effondrement de l'industrie soviétique et à la mise aux normes occidentales de ce qu'il en reste. Il a été impossible de faire ratifier le traité par les USA, les émissions des pays alors émergents ont explosé alors qu'ils n'étaient tenus à rien par le traité. Il s'avère impossible aujourd'hui d'arriver à un accord similaire alors que la certitude du réchauffement causé par ces émissions ne s'est que renforcée. Il est vrai que le principe de précaution ne dit rien quant aux problèmes qui se posent en fait: il s'agit de construire une réponse coordonnée au niveau mondial. Mais que dire de décisions de sortie du nucléaire comme celle prise par la coalition rouge-verte en Allemagne, peu après la signature du protocole de Kyoto?

Pour finir, l'action gouvernementale depuis 2007 est tout simplement désastreuse. Le maïs MON810 a été interdit sans raison valable mis à part la victoire des écologistes sur le plan de la crédibilité, remportée aussi à l'aide d'une campagne de vandalisme. Nathalie Kosciusko-Morizet et Jean-Louis Borloo ont consciencieusement piétiné l'expertise scientifique dans ce domaine. La législature a adopté une loi qui a fait entrer dans un organe consultatif les associations écologistes, alors que leur comportement laissait présager qu'aucun argument rationnel ne pourrait jamais les convaincre du bienfondé des plantes génétiquement modifiées, ce qui signe leur mauvaise foi, rendant le comité économique, éthique et social du haut comité aux biotechnologies complètement inopérant. Si le principe de précaution n'a comme application que de fournir aux décideurs politiques la meilleure voie pour éviter les prétoires ou de leur permettre de prendre des décisions arbitraires prenant leur source dans une idéologie visant entre autres à imposer un certain modèle de société, quelques questions se posent quant à l'opportunité de son usage. Il est aussi patent que le principe de précaution a causé des dommages graves et irréversibles à la rationalité du débat public en France.

8 novembre 2011

TP principe de précaution: les OGMs

Épisode précédent: De la crédibilité

Après une revue de divers moyens de dévoyer le principe de précaution, présenter un exemple est de bonne pratique pédagogique pour montrer comment ces moyens s'agencent admirablement pour mener à des décisions dépourvues de tout fondement rationnel. Un autre intérêt est aussi de présenter un exemple concernant ce qui est souvent donné comme domaine de prédilection du principe de précaution: l'environnement. Pour ce faire quoi de mieux que les organismes génétiquement modifiés, ou, plus exactement, les plantes génétiquement modifiées, qu'on désignera toutefois sans vergogne par l'acronyme d'OGM?

La première question qu'on peut se poser est de savoir si les OGMs relèvent bien du principe de précaution. La réponse en la matière est assez complexe, étant donné que les OGMs présentent des caractéristiques très différentes les uns des autres. Leurs propriétés sont variables, elles vont de la modification du contenu utilisable de la plante à la résistance aux herbicides en passant par la modification des couleurs. Les plantes modifiées sont aussi très différentes, il existe des espèces sauvages ou pas dans la zone de culture, etc. Les traits qui sont insérés dans le génome des plantes sont aussi plus ou moins connus, ainsi le maïs MON810 a été approuvé la première fois en 1995 aux USA. Cela veut dire qu'une analyse au cas par cas est requise. Mais, au moins pour les traits nouveaux, vu que toutes sortes de choses paraissent possibles, une étude préalable semble s'imposer pour connaître l'étendue des éventuels effets indésirables. Cependant de telles études n'ont pas été nécessaires lors de divers croisements, de l'irradiation des semences ou de l'utilisation de produits chimiques pour favoriser les mutations. Les conséquences néfastes de cette absence d'études ont été inexistantes. On peut donc reconnaître une certaine pertinence au principe de précaution dans ce cadre, même si cela relève aussi d'un préjugé envers une technologie particulière.

Et de fait, le domaine de la recherche en génétique a depuis longtemps adopté ce principe, comme illustré par la conférence d'Asilomar, dont on peut trouver trouver les conclusions sur le web. Cette conférence avait été convoquée suite aux inquiétudes suscitées au sein même de la communauté scientifique par les possibilités offertes par la modification à volonté du génome de certains organismes. Elle conclut à l'instauration de mesures de confinement, proportionnées au danger potentiel que suscite la modification qui fait l'objet d'expérience.

Même s'il existe désormais de très nombreux OGMs, l'opposition, notamment le fait des écologistes, concerne tous types d'OGMs quelques soient les plantes et les traits utilisés. Cette opposition est surprenante, l'homme ayant lui-même construit sans aide du génie génétique des monstres qu'il utilise depuis fort longtemps dans l'agriculture. Le blé est un hexaploïde (6 exemplaires de chaque chromosome par cellule) créé à partir d'une plante sauvage diploïde. Le colza est quant à lui un hybride sélectionné par l'homme. Plus récemment, depuis l'après-guerre, l'homme utilise des substances chimiques ou l'irradiation pour accélérer l'évolution des plantes.

L'argumentaire utilisé illustre très bien comment on peut exploiter le principe de précaution en utilisant les stratagèmes dont on a déjà parlé.

L'innocuité impossible

Pour les opposants aux OGMs, un des problèmes majeurs est qu'il est impossible de prouver l'innocuité des OGMs, aucun ne trouvant jamais grâce à leurs yeux. Ainsi en est-il du maïs MON810. Mais impossible de réaliser des essais en plein champ, par exemple, pour avancer sur les éventuels problèmes de dissémination. Le saccage d'une serre en 1999 par des vandales, parmi lesquels se trouvait José Bové, montre aussi que les essais confinés en serre ne sont pas mieux venus. Un autre axe d'attaque est la dangerosité supposée des OGMs. Il s'agit alors de démontrer la toxicité, pour les mammifères, de ces plantes, comme le tentent par exemple M. Séralini et le CRIIGEN.

De façon plus générale, le but est de se saisir de toutes les études qui puissent paraître défavorables aux OGMs, les défendre le plus longtemps possible et d'ignorer toutes celles qui sont favorables. C'est particulièrement patent avec le fameux avis du comité de préfiguration du Haut Conseil aux Biotechnologies: le sénateur qui devait rendre compte de l'avis donné a fait état de «doutes sérieux» — s'asseyant au passage sur la lettre dudit avis au point de faire démissionner la plupart des scientifiques du comité — alors que cet avis contenait aussi au moins un élément positif concernant la santé publique. Quant à la gravité du reste, elle n'est jamais explicitée. Ce n'est donc pas une surprise que cet avis — et celui ayant servi à la justification de la clause de sauvegarde — aient pu être fortement contesté. Les études de Séralini sont, quant à elles, basées sur une réanalyse de résultats obtenus par d'autres, de façon erronée et ne présentant pas d'effets croissants avec la dose (explication plus détaillée ici).

Qu'il soit très difficile de prouver que le MON810 soit réellement dangereux pour la santé ou l'environnement n'est pas une surprise. Ces maïs sont basés sur une propriété d'une bactérie, Bacillus thurigiensis, qui produit une protéine toxique pour les chenilles de papillon, mais anodine pour la plupart du reste du règne animal. Il s'agit de faire produire la partie active de la protéine par la plante. C'est une méthode efficace de lutte contre la pyrale du maïs, au point que la bactérie est utilisée en agriculture biologique. D'autre part, les demandes de recul supplémentaire vieillissent fort mal, cela fait maintenant plus de 15 ans que le MON810 est cultivé, sans que des effets délétères graves aient été constatés. Ce temps a aussi permis d'évaluer cette plante, quelques 28000 publications diverses ont été recensées sur les OGMs en général dont 5000 sur les plantes résistantes aux insectes. Les effets positifs sont aussi bien apparus, comme par exemple, la baisse de l'usage de pesticides et des empoisonnements dus à leur usage sans précautions ou encore l'augmentation des rendements.

Pour dire les choses simplement, on a là un cas d'école d'une demande de dommage zéro: alors que des bénéfices étaient envisagés, ils ont été ignorés; les dommages potentiels largement surestimés et pas comparés à la situation existante, l'usage de pesticides dans le cas des plantes Bt.

Le scénario du pire

Les inquiétudes soulevées par les opposants aux OGMs ne suffisent pas en elles-même, il faut, pour que des mesures soient prises, que des dommages graves et irréversibles soient en vue. L'angle d'attaque de la toxicité donne accès naturellement à cette catégorie, d'où son utilisation. Cependant pour ce qui est de l'environnement, les problèmes de dissémination ne donnent pas directement sur une atteinte grave. Dans ce cas, les opposants construisent un scénario, similaire à celui de l'œuvre de Mary Shelley, Frankenstein ou le Prométhée moderne. Finalement, la crainte exprimée est celle de voir l'invention issue du génie génétique, une sorte d'être artificiel, échapper définitivement à leurs créateurs et répandre le chaos sur la terre. La crainte serait que des traits d'OGMs se répandent dans la nature, pour des résultats très néfastes, mais souvent sans beaucoup d'explication.

En procédant ainsi, ils répandent un scénario d'apocalypse, que les promoteurs d'OGMs ne peuvent contrecarrer. Il est impossible d'appeler de nos jours à combattre la famine par une augmentation des rendements, tellement il est devenu évident que ces dernières ont des causes politiques avant tout. En étant les seuls à pouvoir proposer de façon crédible un scénario exceptionnellement néfaste, les opposants font en sorte que le débat soit de limiter les éventuels effets néfastes des OGMs et non pas de mettre en balance les avantages et les inconvénients, en focalisant l'attention sur ce seul scénario. Or il s'avère que ce scénario est loin d'être certain. En laissant de côté les avantages des OGMs, le fait que le pollen se répande ne crée pas de danger en soi. Pour reprendre l'exemple du maïs, il s'agit d'une plante qui a été importée d'Amérique et ne compte aucune plante proche en Europe. Les risques de répandre les transgènes semblent donc minces. Le plus probable est que ce soit l'homme qui répande le plus le transgène, en cultivant ces plantes qui lui sont totalement inféodées. Même dopées de cette façon, elles sont incapables de survivre et de se reproduire longtemps sans le secours et l'intervention de l'homme. Par contre, à travers l'histoire, l'homme s'est montré très doué pour répandre des espèces de végétaux (maïs, pomme de terre, haricots, canne à sucre, ...) ou d'animaux (vache, cochon, chat, ...), sans que cela lui nuise tant que cela, mais plutôt améliore ainsi ses conditions de vie.

On peut aussi constater que les comparaisons sont artificielles. La situation de référence qui est mise en avant par les opposants est bien souvent une agriculture qui n'est pas industrielle, sans insecticides ni herbicides. Or la situation actuelle n'est pas celle-ci, sauf peut-être dans les pays les plus pauvres. L'agriculture repose aujourd'hui en grande partie sur la chimie, ou alors sur l'exploitation à grande échelle de produits qui, s'il sont naturels, peuvent aussi être tout à fait dangereux. En procédant de la sorte, on brouille les comparaisons entre avantages et inconvénients.

On a là un exemple de construction de scénario du pire qui dirige entièrement la réflexion, alors même qu'on peut vite s'apercevoir qu'il ne repose pas sur des enchaînement de cause à effet solides et qu'il prend en compte une situation de départ irréaliste.

La crédibilité

Pour combattre les études qui ne manquent pas d'être faites pour essayer de trancher la controverse, il est d'une importance capitale d'agir sur la crédibilité des intervenants potentiels, ou plus clairement de déterminer qui sera écouté par les décideurs politiques en définitive.

En matière d'OGMs, la décrédibilisation des scientifiques va bon train, presque tout y est rassemblé. Ainsi en 1997, le gouvernement Juppé décide de ne pas autoriser à la culture le premier maïs Bt qui aurait pu l'être, alors que la commission de génie biomoléculaire avait rendu un avis favorable, ce qui entraîne la démission de celui qui la dirigeait, Axel Kahn. En 2008, le comité ad hoc mis en place à la suite du Grenelle de l'environnement a vu ses conclusions déformées au point d'entraîner 12 démissions sur les 15 membres de sa partie scientifique. Il faut dire que ce comité avait aussi une mission politique, peu importait en fait le contenu de son rapport. On ne peut pas dire que les politiques aient renforcé la crédibilité des scientifiques qu'ils ont appelés pour les conseiller, puisque de fait, ils ont souvent fait le contraire. Or, ces conseils reflétaient l'opinion générale du moment parmi la communauté scientifique et on ne peut que constater que les faits leur donnent raison dans le cas du maïs Bt.

Quant à la justice, elle a reconnu que des vandales — qui se nomment eux-mêmes faucheurs volontaires — ayant détruit un champ d'OGMs étaient dans un état de nécessité et par suite, ne les condamnait pas. De ce fait, le juge tenait pour crédible la thèse des vandales, selon laquelle les OGMs étaient dangereux. On peut aussi s'apercevoir que les peines sont relativement légères en la matière, rien qui ne puisse dissuader les vandales dont la motivation est politique, quoique puisse en dire l'INRA.

Les opposants ont aussi œuvré à décrédibiliser ceux qui n'étaient pas sur la même position qu'eux. Être financé, même partiellement, par des industriels ou même plus simplement fréquenter des gens issus de l'industrie dans des associations ou des forums est devenu un motif de disqualification. Comme mentionné dans une lettre ouverte à l'INRA, Dis-moi quel est ton partenariat et je te dirai quelle recherche tu fais. Au final, cette campagne a si bien réussi que dans le témoignage d'un scientifique allemand, il dit ne plus être cru par la population lorsqu'il dit n'avoir trouvé aucun élément défavorable aux OGMs et être soupçonné d'être payé par des firmes commerciales, dont les résultats sont par essence irrecevables. Dans ce témoignage, on peut aussi constater les effets du vandalisme des champs et essais d'OGMs, la peur qui s'est installée ne pouvoir mener ses recherches jusqu'au bout et le sentiment que le champ d'études dans lequel il s'était engagé au début des années 2000, l'analyse de la sécurité biologique des OGMs, s'avérait finalement nettement moins attirant à cause des obstacles entravant la recherche.

Le prolongement naturel de cela est de contester les instances d'évaluation, comme l'agence européenne de sécurité des aliments (EFSA), pour la proximité alléguée des membres du comité scientifique avec les firmes produisant des OGMs mais sans chercher à montrer des erreurs dans le raisonnement suivi. La proposition qui transparaît est claire, il s'agit de remplacer ces individus par des personnes plus respectables car supposément indépendantes. Cette revendication d'indépendance et de neutralité est avancée de façon très sérieuse par les opposants, ainsi le CRIIGEN se dit-il apolitique et non-militant et reste assez mystérieux sur ses sources de financement, même si on devine en lisant la liste de ceux à qui des avis ont été donnés qu'Auchan et Carrefour, obscures PME n'ayant rien à voir avec l'agro-alimentaire, ne comptent pas pour rien dans le financement de cet organisme. L'état français a choisi de leur donner partiellement raison. Le Haut Comité aux Biotechnologies, chargé de rendre des avis sur ces thèmes, est séparé en 2 parties dont une, le comité économique, éthique et social comprend des association écologistes, notoirement opposées aux OGMs. On se demande ce qui a pu présider à la décision de les intégrer à un tel comité alors que leurs positions publiques laissaient deviner que les avis qu'ils donneraient seraient toujours négatifs et que leur militantisme permanent énerverait quelque peu leurs collègues. Et c'est bien ce qui s'est passé: au détour d'un compte rendu de l'office parlementaire des choix scientifiques et techniques, même si on reste entre gens de bonne compagnie, on lit que c'est un comité qui ne mène à rien: quelques 25 ans après les premiers essais en plein champ, on n'a pas avancé d'un pouce sur cette question; comme on s'efforce de n'y pas voter, il est impossible au gouvernement de savoir ce qui fait consensus ou ce qui pose réellement problème, ce qui donc revient à ne rien lui dire; qu'y donner son accord ne préjuge en rien des actes par la suite, comme avec les vignes de l'INRA. Mais la réaction la plus marquante est sans doute celle de Jeanne Grosclaude, directrice de recherche de l'INRA à la retraite et membre de la CFDT. Elle s'y montre scandalisée par l'attitude des associations écologistes, comparées aux patrons voyous sur la question des destruction des essais.

Épilogue

Finalement, la question se pose de savoir pourquoi contester une technique qui ne présente pas de danger extraordinaire sur le plan du principe de précaution, comme dans le cas du maïs Bt? En lisant la recommandation sur le maïs MON810, on s'aperçoit que les association écologistes en veulent surtout à la culture intensive du maïs. Ainsi dans l'explication de vote commune aux Amis de la Terre, Greenpeace, etc, on lit que la monoculture du maïs est la source du problème.

La raison apparaît ainsi clairement: il s'agit surtout de s'opposer à la société actuelle qui repose en grande part sur la capacité de l'agriculture industrielle à nourrir de très nombreuses personnes avec le travail d'un petit nombre. Comme il s'agit d'une évolution provoquée par la technique et les forces de l'économie, raisons qui ne suffisent pas à interdire ces pratiques, il faut trouver une autre raison qui permet l'interdiction, ce qu'offrent le principe de précaution et les allégations de dangers pour la santé.

Sur ce sujet, on peut aussi lire Le principe de précaution et la controverse OGM d'Olivier Godard qui donne de nombreux détails (en 60 pages), sur le principe de précaution en général et sur les péripéties liées au maïs MON810 en particulier.

edit 13/10/2012: correction des fautes d'orthographe les plus criantes, ajout du lien vers le compte-rendu de l'OPECST.

Épisode suivant: Quelques conclusions sur le principe de précaution et son dévoiement

7 novembre 2011

De la crédibilité

Épisode précédent: L'innocuité ou la preuve impossible

Le principe de précaution voulant que des points de vue minoritaires puissent prévaloir, un problème qui se pose est de savoir quand un point de vue particulier est suffisamment crédible pour être considéré sérieusement. Il ne s'agit pas en effet de laisser la porte ouverte aux charlatans. Pour ceux qui prennent une décision, il s'agit de savoir qui écouter et de se donner des critères pour cela. Inversement, pour celui qui a un point de vue, il s'agit de savoir comment faire pour être écouté et aussi comment éliminer les autres points de vue, de façon à s'assurer que la décision attendue soit prise.

On pourrait simplement penser qu'il suffit d'avoir une tribune et de présenter des arguments rationnels de façon claire pour devenir crédible. Or divers évènements montrent que c'est loin d'être le cas et qu'on peut même défier la logique en toute impunité.

Un mécanisme auto-entretenu

Le principe de précaution est un principe juridique; un premier moyen de renforcer sa crédibilité est de gagner des procès, pas nécessairement directement liés au principe de précaution d'ailleurs. Gagner des procès montre aux décideurs qu'il y a des opposants bien organisés au moins sur le plan du droit, capable de faire valoir leur point de vue devant les tribunaux. Les associations écologistes se sont ainsi en partie imposées au gouvernement en gagnant des procès dans divers domaines de la politique environnementale. Cette façon de procéder n'est pas indépendante de présenter des arguments rationnels: un juge analyse les arguments avancés par chacune des parties et se prononce selon ceux-ci. Si on a vu que cela pouvait donner des décisions élaborées, ils ne sont toutefois pas à l'abri des peurs ou des préjugés de leur temps ni infaillibles dans leurs raisonnements, comme on l'a vu avec les antennes-relais.

Les décideurs politiques, quant à eux, ont à faire à plus d'influences. Ils peuvent ne pas vouloir être traduits devant les tribunaux, ils ont aussi à se concilier l'opinion publique pour obtenir une éventuelle réélection. Les décisions des tribunaux acquièrent ainsi un effet supérieur à la simple jurisprudence, elles peuvent aussi donner une crédibilité supérieure à celui qui a gagné via au moins un effet de dissuasion. Il peut aussi sembler expédient aux politiques de décider dans le sens de la vox populi, quoique puisse dire l'état de la science; en procédant ainsi, ils donnent à la fois crédibilité aux vues de militants et légitimité à leurs demandes. C'est aussi la base d'un cercle auto-entretenu, une thèse voit sa crédibilité renforcée et devient encore plus populaire dans l'opinion qui pense alors que cette thèse est décidément dans le vrai, il devient alors de plus en plus difficile au politique de résister à la vox populi, et ainsi de suite. Que la thèse soit anxiogène ne peut sans doute qu'aider à son adoption, les politiques s'enfermant alors dans un cycle où il s'agit de toujours rassurer en montrant qu'on se prémunit contre les risques dont on grossit par là même l'importance.

Inversement, tenir des propos faux ou mal fondés peut devenir une cause majeure de décrédibilisation, surtout lorsqu'on est censé représenter une institution ayant vocation à faire autorité. Par exemple, en 1996, l'Académie de Médecine publia un rapport sous-estimant de plusieurs ordres de grandeur les décès prévisibles dus à l'amiante par rapport à l'expertise collective de l'INSERM (en deux parties), rendue publique quelques mois plus tard, et basée sur une étude de l'ensemble de la littérature scientifique disponible à l'époque. Ce rapport de l'Académie n'a pas contribué à la crédibilité de son auteur, mais aussi a détérioré le crédit qu'on pouvait porter à l'Académie de Médecine.

Dans le même ordre d'idées, les défaites devant les tribunaux et les décisions politiques allant à l'encontre des avis d'experts sont particulièrement dommageables pour le consensus scientifique. Il existe bien des raisons pour lesquelles les politiques peuvent refuser de suivre ces conseils, dont de parfaitement valables, comme n'être pas sûr de pouvoir faire respecter une règlementation telle qu'elle ressort des conseils donnés. Cependant, de telles explications sont rarement données. Il est alors inévitable que de tels évènements soient vus en partie comme l'invalidation des thèses communément admises jusque là. Que les thèses généralement acceptées l'emportent lors des procès ou que les avis des experts soient suivis par les politiques sont des choses communes, c'est l'inverse qui est exceptionnel et dont il sera rendu compte. De plus, les experts sont souvent des gens qui ont une occupation autre que de donner des interviews ou expliquer publiquement leur position et les décisions des politiques — qui peuvent aussi être leur supérieur hiérarchique — à l'inverse des militants dont une des occupations principales est de faire connaître leurs thèses et la nécessité de leur triomphe. Ainsi quand la justice fait détruire une antenne-relais pour un prétendu danger ou quand la mairie de Paris fait enlever le wifi de ses bibliothèques ou encore quand Bernard Kouchner arrête la campagne de vaccination contre l'hépatite B, ce ne sont pas seulement ceux qui crient au loup qui deviennent plus crédibles, ce sont aussi les experts et leurs opinions assises sur les connaissances de leur temps qui sont décrédibilisées.

Faire le vide d'experts pour faire le plein de militants

Une tactique se fait alors jour: plutôt que de tenter d'imposer directement ses opinions, l'idée est de décrédibiliser les thèses adverses en s'attaquant à l'orateur par un argument ad personnam. Le but est alors moins de convaincre que de faire en sorte que les experts, avançant des arguments rationnels, ne puissent plus être des interlocuteurs recevables. Il est en effet fort ingrat d'argumenter sans l'aide d'éléments tangibles; mieux vaut alors faire en sorte que seules son opinion soit recevable pour l'emporter.

La forme la plus brutale, mais non dénuée d'efficacité, est d'accuser l'institution à laquelle appartient l'orateur d'avoir sciemment caché une terrible vérité. C'est ainsi qu'au cours d'une audition publique de 2009 au Sénat à propos du principe de précaution et de son inscription dans la constitution, Marie-Christine Blandin oppose aux orateurs scientifiques, qui viennent de se plaindre d'une certaine désaffection pour les arguments rationnels, les rapports où (les académies) approuvaient l'amiante comme non dangereuse. Ce faisant, elle rejette le propos des orateurs venant des académies des sciences et de médecine, sans même regarder le contenu de l'argumentation et les éléments tangibles sur laquelle elle est fondée. Une autre tactique est de profiter de l'ignorance des détails des expériences menées par le passé dans le grand public: elle veut aussi que le citoyen puisse demander qu'on mette des souris et des rats autour des boîtes hi-fi (sic) et des antennes pour en finir, pour savoir s'il s'agit ou non de phantasmes, de craintes millénaristes ou d'un risque réel. Dans le cas des antennes relais, il suffit de survoler rapidement la recommandation concernant les champs électriques pour s'apercevoir que sur 29 pages, 5 sont consacrées aux références bibliographiques et 10 à un résumé des principaux résultats des expériences menées en la matière. Il s'agit ainsi de faire croire que les considérations de santé ont été absentes lors de la construction des normes et de faire passer les experts du domaine pour d'éternels rêveurs dans le meilleur des cas, bref de les disqualifier pour incompétence.

Une autre tactique a aussi un grand succès: alléguer que les experts rendant les avis sont la proie de conflit d'intérêts, pour demander à ce qu'ils soient remplacés par d'autres personnes, supposées incorruptibles. Cette demande a un fondement valable: investir dans une technique ou un produit autorisé selon les règles du principe de précaution suppose d'engager des moyens importants. Le produit devient alors essentiel à la survie de l'entreprise, au point qu'à l'intérêt général, un membre de l’aréopage d'experts chargé d'évaluer les risques et les bénéfices soit tenté de préférer les intérêts de son employeur ou de son mécène qui commercialise le produit en question. Ce risque existe réellement, le Mediator® l'a encore illustré récemment. C'est pourquoi il est de bonne politique d'obliger les participants à ces collèges de déclarer quels intérêts les lient aux acteurs en présence et d'essayer d'y nommer seulement des personnes qui ne peuvent pas céder à une basique tentation monétaire. Mais on ne peut pas exclure toutes les personnes qui ont des contacts avec l'industrie: les chercheurs sont souvent des gens passionnés par leur domaine et qui cherchent donc aussi à voir leurs découvertes appliquées. Aussi extraordinaire que cela puisse paraître, les entreprises privées emploient des personnes pour leurs compétences dans leur domaine, pas seulement pour influencer divers forums officiels. Ce qui fait qu'il est intéressant de rencontrer des employés de firmes privées pour enrichir ses connaissances voire même d'y travailler.

La question du conflit d'intérêt repose aussi sur l'idée sous-jacente qu'il n'y a pas d'opposants — ou de défenseurs, mais c'est plus rare — de principe. Le besoin de chasser les conflits d'intérêts s'est fait d'abord jour pour les questions de médicaments où il ne vient pas à l'idée de grand monde de contester l'utilité des médicaments en soi. Ces opposants se retrouvent dans des groupes largement décrédibilisés en général. Mais il existe d'autres domaines où de tels opposants existent. Leur donner un poids dans des forums d'experts revient à risquer d'interdire des pratiques bénéfiques. Ces opposants sont des militants, d'autant plus incorruptibles que rien ne les fera jamais démordre de leur opposition. On peut être sûr qu'il rendront toujours des avis négatifs, peu importent les mérites de l'objet ou de la substance étudiés.

Épisode suivant: TP principe de précaution: les OGMs

L'innocuité ou la preuve impossible

Épisode précédent: La gestion de la pandémie de grippe ou l'irrationnalité de la prééminence du pire scénario

Comme le principe de précaution a pour but d'éviter que ne se produisent des dommages graves et irréversibles, il peut paraître de bon aloi qu'une des premières choses à faire est de demander aux promoteurs de nouveaux produits ou de nouvelles techniques qu'ils prouvent que ces nouveautés soient inoffensives. En quelque sorte, cette exigence est celle du zéro dommage. On peut la comprendre de 2 façons, soit de façon absolue, absolument aucun dommage ne doit être toléré, ou relative auquel cas les bénéfices doivent l'emporter sur les risques.

Cette demande d'innocuité est très importante. Par exemple, dans une étude menée par une équipe de l'INSERM pour connaître les intentions de la population juste avant le pic épidémique de la grippe de 2009, les 2 raisons avancées les plus couramment par ceux qui ne souhaitaient pas se faire vacciner étaient l’absence de sécurité du vaccin (71%) et les effets secondaires du vaccin (68%). Il est vrai que cette appréciation n'est pas indépendante de la gravité perçue de la grippe; se faire vacciner a sans nul doute des effets secondaires totalement bénins comme la douleur de la piqûre ou le temps passé qu'on aurait pu utiliser en faisant autre chose. Il en est aussi d'un peu plus graves comme une forte réaction immunitaire qui rend fatigué ou même de graves, mais extrêmement rares, comme des syndromes de Guillain-Barré qui peuvent dégénérer. Dans le cas de la grippe de 2009, ces effets sont totalement négligeables par rapport à l'étendue de la maladie. Malgré la faible mortalité, il y eut tout de même 35000 hospitalisations, ce qui n'est pas rien.

Le vaccin contre la grippe de 2009 n'est pas le seul à avoir été confronté à des controverses quant à son innocuité. Ce fut par exemple le cas de la vaccination contre l'hépatite B. En 1994, le gouvernement français lança une campagne visant à faire vacciner tous les enfants de 6e — et, au-delà, tous les collégiens. Cela permettait d'augmenter rapidement l'immunité dans la population, avant que les vaccinés n'entrent en contact avec la maladie, sexuellement transmissible. Il devait être prévu à l'origine de vacciner les enfants en bas-âge pour se passer 10 ans plus tard de cette vaccination au collège. Mais en 1998, le vaccin fut accusé de provoquer la sclérose en plaques et la campagne de vaccination stoppée. Dans un rapport de 2002, on voit que la couverture vaccinale créée par cette campagne est remarquable: plus de 80% des jeunes concernés sont vaccinés, la vaccination s'est étendue au-delà du groupe concerné (p2, graphes p6 & 7). On estime que 20M de Français se sont faits vacciner. Ce rapport donne une évaluation des bénéfices et des risques: il y aurait au maximum 2 cas de sclérose en plaques pour 800k vaccinations, ces vaccinations permettraient d'éviter 50 cirrhoses. Ce rapport recommandait la vaccination des nourrissons, visiblement en vain. En conséquence, la couverture vaccinale est désormais basse en France, une étude de l'InVS montre qu'en 2004, environ un tiers seulement des enfants de 2 ans étaient vaccinés. Comme la campagne de vaccination au collège est stoppée, la couverture vaccinale doit être de cet ordre pour tous ceux qui n'en ont pas bénéficié. Cela dit, la même étude pointe une hausse de la couverture en 2007 avec un peu plus de 40% de vaccinés. La raison invoquée par l'InVS est double: le souvenir de la polémique s'estompe et un vaccin hexavalent est devenu remboursé par la sécurité sociale.

Pour ce qui est de la décision ministérielle, l'évaluation bénéfice-risques était connue du ministre de la santé en 1998. Une note (en bas de la page sur un site très old school) lui a été adressée le 30 septembre 1998; le lendemain, Bernard Kouchner n'écoutait que son courage. Le cas de ce vaccin permet de bien voir que l'évaluation des risques médicaux n'est pas toujours le fondement des décisions politiques en matière de santé publique. Dans ce cas, les enjeux en termes de conséquences étaient faibles: au pire 50 cirrhoses par année de naissance vont se déclarer. On est là dans des ordres de grandeurs faibles et, malgré des avantages 25 fois supérieurs aux risques, les biais de perceptions des risques font que le sentiment peut être qu'il faille arrêter la campagne de vaccination. Il reste que la demande d'absence d'effets secondaires a amené à prendre une décision éminemment contestable qui de fait se base sur une demande absolue d'innocuité. Pire même: la décision du ministre n'a pu que renforcer le biais en laissant croire que le risque était bel et bien supérieur aux bénéfices.

La demande absolue d'innocuité pose un problème fondamental: il est impossible d'apporter cette preuve. Pour évaluer les risques, les évaluations doivent partir de faits relevés bien souvent sur le terrain. Quoiqu'on fasse, on se retrouve toujours limité par les incertitudes si on ne trouve aucun risque. Dans le cas du vaccin contre l'hépatite B, le risque est inférieur à 2 pour 800k mais on ne sait pas en dire plus. De même, pour les effets du téléphone portable déjà évoqués par ailleurs, on peut sans doute donner une borne supérieure très basse au risque, mais on ne peut pas faire mieux car l'indétermination devient alors d'ordre statistique.

Pour aggraver encore les choses, l'évaluation peut dépendre du scénario d'utilisation ou du scénario de conséquences pris en compte. Pour prendre un exemple extrême, si on part du principe qu'on peut avaler de travers et que ça peut dégénérer quand on boit un verre d'eau, il faudrait alors prendre des mesures pour éviter que les gens ne boivent. Un autre point en rapport avec les scénarios pris en compte, c'est celui de la situation de référence: comme le cas des vaccins le montre, le plus souvent, la situation de référence réelle n'est pas une situation où il ne se produit aucun effet néfaste. Au contraire, le choix se fait entre diverses options avec des dommages propres et de magnitudes différentes — et dont les coûts varient aussi! En combinant astucieusement un scénario ad hoc et une situation de référence artificielle, certains peuvent donc présenter des risques de dommages très importants, ce qui est d'une grande aide pour faire admettre son point de vue sous le couvert du principe de précaution. Le problème devient alors de faire accroire ce scénario aux décideurs.

Épisode suivant: De la crédibilité

5 novembre 2011

La gestion de la pandémie de grippe ou l'irrationnalité de la prééminence du pire scénario

Épisode précédent: Le principe de précaution, principe juridique dévoyé

Comme on l'a vu, le principe de précaution peut donner lieu à des décisions judiciaires contestables. Mais les conséquences du principe de précaution ne s'arrêtent pas là. C'est non seulement un principe juridique, mais c'est aussi un principe régissant l'action des responsables publics, ne serait-ce que pour éviter de voir contester ses actes en justice ou d'y voir sa responsabilité engagée. Les responsables publics, autrement dit pour une bonne part les politiques, n'ont pas que les tribunaux classiques à craindre, ils doivent aussi compter dans une certaine mesure sur le soutien de l'opinion sans lequel leur action perd sa légitimité dans une démocratie. Cela les amène à être plus encore sensibles à certains biais qui rendent l'application du principe de précaution d'une rationalité douteuse. Ainsi en est-il de la prééminence du pire scénario.

La pandémie de grippe mexicaine porcine A(H1N1)v de 2009 fournit un bon exemple de cette prééminence. Il faut dire que le domaine de la santé publique se prête bien à un tel biais, les citoyens sont particulièrement sensibles aux dangers sanitaires, surtout d'ailleurs quand ils ne ressortent pas de décisions individuelles.

La réponse gouvernementale à l'apparition d'un virus de la grippe ayant subi une mutation qui le rendait plus dangereux chez les jeunes gens ainsi que plus prompt à se répandre dans la population est étudiée dans un rapport très complet de la Cour des Comptes. Ce rapport est une des sources principales des réflexions qui vont suivre grâce à l'accès privilégié des magistrats aux documents publics.

Rappel des faits

Vers la mi-avril 2009 des cas de grippe sont détectés au Mexique. Rapidement, on se rend compte que le virus s'attaque à des gens plus jeunes qu'à l'habitude, semble plus virulent et surtout plus contagieux. Le 29 avril, l'OMS décide de passer au niveau 5 de l'alerte pandémique, ce qui déclenche les plans dans les pays qui se sont préparés à une pandémie de grippe suite aux inquiétudes au sujet de la grippe aviaire. En France, le gouvernement lance diverses campagnes de prophylaxie et commande des vaccins pour pouvoir vacciner l'ensemble de la population française.

Le 11 juin 2009, l'OMS passe au niveau 6 tout en précisant que la virulence est modérée. L'épidémie de grippe se répand d'abord dans l'hémisphère sud où c'est l'hiver. Par exemple, à la Réunion, l'épidémie se déclare à partir de fin juillet pour se terminer à la mi-septembre. Grippe A à la Réunion On constate cependant peu de morts: pour une estimation de 21000 cas, on a dénombré 6 décès, soit une létalité de 0.3‰, certes davantage concentrée sur de jeunes personnes. Le rapport de la Cour des Comptes dresse un constat similaire (p100 du pdf): une contagion plus limitée que prévue, une létalité plus faible même que la grippe saisonnière comprise entre 0.1‰ et 1‰. Ce constat d'une épidémie aux conséquences finalement limitées amène certains à dire que le gouvernement est trop alarmiste. Le gouvernement continue de croire que la grippe est très grave et que ses préparatifs pour une vaccination de masse sont nécessaires, sans doute à cause des caractéristiques inhabituelles de cette grippe. Elle entraîne en effet nettement plus d'hospitalisations, surtout chez des jeunes gens. Au début de l'automne, l'InVS révise ses scénarios (tableau p101 du rapport de la Cour). Prévisions de l'InVS du 28-IX-2009 Il est frappant de constater que tous les scénarios sont en fait pires, dans de fortes proportions, que la situation habituelle entraînée par la grippe saisonnière. Le scénario le plus optimiste prévoit 7 fois plus d'hospitalisations, 20 fois plus de séjours en réanimation et 2 fois plus de morts. Difficile dans ces conditions, si on prend ces simulations au pied de la lettre, de ne pas prévoir de vaccination à grande échelle même si celle-ci doit arriver trop tard.

Comme on le sait, les gens ne sont finalement pas précipités. Du fait de la faiblesse perçue des conséquences, les intentions de vaccination contre la grippe pandémique ne cessent de baisser. Le 7 octobre 2009, la cellule de crise écrit d'ailleurs dans un compte-rendu que moins de Français sont favorables à l’idée de se faire vacciner contre la grippe A (H1N1)v que contre la grippe saisonnière (p104 du rapport). Intentions de vaccination contre la grippe 2009 Lors d'une audition par la commission parlementaire en avril 2010, Michel Setbon ajoute même que sur une échelle de perception du risque où l’on a demandé de noter de 0 à 10 différents risques, la grippe A (H1N1)v figurait en juin 2009 en dernière place, au même niveau que la grippe saisonnière et bien en dessous du tabagisme et des OGM (p106 du rapport). Mais de fait, rien ne semble pouvoir faire dévier le gouvernement des décisions prises en fait dès le mois de mai: l'organisation d'une vaccination de masse en temps record.

La campagne démarre alors à la mi-novembre, d'abord lentement, chacun étant prié d'attendre son bon dans sa boîte aux lettres, puis eut lieu une certaine affluence, à la suite de quelques propos comme Cette évolution (de la pandémie) est terrible, en quelque sorte, nous la voyons partout en Europe. Des gens vont mourir parce qu'ils ne seront pas vaccinés de la part du ministre de la Santé (p124 du rapport). Avec l'arrivée des congés de Noël et l'absence visible de conséquences extraordinaires imputables à une quelconque maladie infectieuse, le désintérêt gagna à nouveau la population. Le 12 janvier 2010, l'épidémie est officiellement terminée en France métropolitaine. L'auteur de ces lignes ne reçut son bon de vaccination que bien après... De toute évidence, comme le montrèrent des sondages, la perception de la gravité de l'épidémie a joué un grand rôle. Par exemple, on trouve dans un bulletin épidémiologique de l'InVS le compte-rendu d'une étude à ce propos (p269) qui a servi à créer le graphe ci-dessous. gravite_vaccination.jpg

Finalement, seules 5.3M de personnes se sont faites vacciner. Cela a entraîné de vastes surplus de vaccins — 44M de doses livrées —, au point que 12M de doses ont été données à l'OMS, alors que moins de 6M ont été véritablement utilisées pour la campagne de vaccination en France (p150 du rapport). Avec moins de 10% des habitants vaccinés, cela n'a eu aucune incidence sur la propagation du virus parmi la population. La grippe n'eut rien de de bien exceptionnel à l'hiver 2009-2010, comme le montre l'évolution des consultations telle que donnée par les GROGs. Par contre, elle donna lieu à bien plus d'hospitalisations que d'habitude: 35000 (cf p266 du bulletin épidémiologique), 4 fois plus que pour la grippe saisonnière. Quant au nombre de morts, l'InVS l'estimait alors à 312, soit 10 fois moins que les conséquences de la grippe saisonnière. On ne peut qu'être frappé par la différence par rapport aux scénarios.

La cause du fiasco: seul le pire était possible

Si, à l'époque, le paiement de pénalités aux firmes pharmaceutiques a créé une certaine émotion et, parfois, des accusations de collusion avec ces entreprises, ce n'est pas là en fait le plus grave. En payant 48.5M€ de pénalités, le gouvernement a finalement payé moins de 1€ par dose de vaccin commandée mais non livrée, ce qui à la lecture du rapport de la Cour des Comptes correspond au prix d'une option (p85, note 142). Par contre, la France a reçu 44M de doses pour un coût de 317M€ (cf Tableau 8 p76), mais n'en a utilisé que 6M pour les besoins nationaux, ce qui met la dose de vaccin utile à plus de 50€. Si on peut à la rigueur dire que les 12M de doses données à l'OMS participent de la politique diplomatique de la France, il n'en reste pas moins que cette commande massive et les livraisons non moins massives ont eu pour conséquence l'impossibilité pour certains pays de se procurer des vaccins lors du pic épidémique. Le rapport de la Cour mentionne que la Pologne a ainsi renoncé à se fournir, pour des raisons financières (p56). En plus du prix des vaccins, la campagne a aussi coûté cher à cause des réquisitions de personnels et de locaux. Le tableau 15 (p156) laisse penser qu'elle a sans doute coûté 250M€, plombée par un sur-dimensionnement, les centres étant vides la plupart du temps.

Il est donc clair que, non seulement sur le strict plan financier, mais aussi à cause des conséquences de la taille des commandes, ce n'est pas le paiement de pénalités qui pose problème, c'est la commande en elle-même et surtout la campagne de vaccination.

Il est cependant difficile de reprocher au gouvernement sa commande: il fallait se décider le 12 mai, soit moins d'un mois après que les premiers cas furent repérés. Difficile alors de se faire une idée définitive de la gravité de l'épidémie, même si, déjà, elle apparaissait comme peu virulente (p46). Au mois de juin, il est apparu que la vaccination n'aurait pas d'effet collectif (p53) car le virus atteindrait la France métropolitaine avant que la campagne n'ait pu immuniser avec certitude une grande partie de la population. La vaccination est donc un moyen de protection individuelle. Mais même ainsi, il est difficile de croire que le gouvernement aurait pu décider ne pas commander de vaccins: comment refuser un moyen de protection, même limité, à une maladie qu'on présente urbi et orbi comme dangereuse? Comme l'écrit le 3 juillet le ministre de la Santé (p55):

S'il pourrait être reproché, à l'automne, au gouvernement d'avoir dépensé des montants très importants pour des vaccins rendus inutiles par l'affaiblissement de la menace sanitaire, ce risque ne semble pas comparable à la responsabilité qui serait celle de l'autorité publique si elle ne prenait pas, aujourd'hui, toutes les mesures nécessaires à la protection de notre population dans la perspective d'une épidémie qui pourrait s'avérer plus mortifère que prévu

Par contre, cette combinaison supposée de graves conséquences et de protections individuelles à rationner n'a pas amené le gouvernement à se poser la question d'une possible ruée vers la vaccination, hypothèse qu'on traitera de peu compatible avec la paix publique.

Par contre plus le temps passait, plus les certitudes étaient grandes. On a déjà signalé que lors du passage en phase 6, l'OMS disait que la virulence était modérée. Le Haut Conseil de la Santé Publique rend un avis équivalent le 26 juin. Mais le 10 juillet, le ministère de la santé est d'avis que l'effet masse engendrerait des conséquences graves. Comme on l'a vu, l'épidémie aux conséquences finalement faibles dans l'hémisphère sud n'a pas non plus fait dévier le gouvernement. Les scénarios de septembre de l'InVS prévoyaient tous que cette grippe était plus grave que la grippe saisonnière. Le gouvernement ne tint pas compte des sondages qui annonçaient une affluence faible dans les centres de vaccination, jugeant que les premiers morts amèneraient la foule aussi tard que le 9 novembre (p102). Finalement, la période d'affluence a eu lieu suite à des propos alarmistes publics, pas vraiment à cause de la gravité de la maladie. Cela pose d'ailleurs quelques questions pour le cas où l'affluence aurait représenté une grande part de la population française.

L'état souffre toujours d'une certaine schizophrénie. C'est ainsi que les personnels prioritaires n'ont jamais été déterminés précisément (p59): pourquoi se fatiguer alors qu'il ne se passe rien dans l'hémisphère sud? Il n'y eut pas non plus de vaccination obligatoire pour les personnels de santé contre ce nouveau fléau (p58). Cela dit, l'attitude principale du gouvernement a été de prévoir une campagne de vaccination et de ne plus bouger de ce plan, persuadé de la gravité de la maladie et/ou de la certitude de grands mouvements de foule. Comme le dit le directeur général de la santé (p100, note 160):

Nous avons tous été marqués par l’affaire de la grippe porcine de 1976, lorsque les États-Unis ont lancé une campagne de vaccination contre un risque épidémique finalement inexistant. L’Institute of Medicine a depuis démontré que cet échec tenait en partie au fait que le président Ford avait été enfermé dans une seule décision consistant à la fois à acquérir les vaccins, à définir l’ordre de priorités et à lancer la campagne

Comme le remarque perfidement la Cour, il n'est pas certain que toutes les conclusions aient été tirées de cette affaire américaine: l'abandon de la vaccination en centre aurait dû être acquise à l'automne 2009.

Finalement, on ne peut que constater qu'il n'y a aucun inconvénient véritable, pour le gouvernement, à ne considérer que le scénario du pire. Roselyne Bachelot est toujours au gouvernement, malgré ses propos purement alarmistes et sa gestion de la pandémie. D'autres ont eu plus de difficultés avec des affaires sanitaires. Ainsi Laurent Fabius, malgré son action bénéfique, a vu sa carrière politique constamment hantée par le scandale du sang contaminé. Un autre cas devait aussi rester en mémoire au gouvernement: celui de la canicule de 2003. Il est peu probable que Jean-François Mattei soit de nouveau ministre.

Un mécanisme d'abus peut se mettre en marche autour de la considération exclusive du pire scénario. Il n'y a pas vraiment de contrepoids: si, finalement, rien ne s'est passé, il n'y a pas de sanction même si les actions ont singulièrement manqué d'accord avec la réalité, comme ce fut le cas pour la grippe de 2009. Les raisons sont assez simples: les bénéfices d'une gestion ne pêchant pas par pessimisme sont difficilement visibles. Le coût maximal qu'on peut imputer à la gestion de la grippe de 2009 est de moins de 800M€, peu en comparaison du budget de la sécurité sociale. Il est donc tout à fait intéressant, et même nécessaire, pour tous ceux qui voudraient faire prendre des décisions sur la base du principe de précaution de bâtir un scénario apocalyptique. Une conséquence directe est qu'une course au scénario le plus noir peut s'engager: c'est ainsi que pour la grippe de 2009, on entendit des déclarations sur la dangerosité supposée des vaccins! Qu'importe après tout que ces scénarios se réalisent ou pas, il s'agit de faire acter des mesures — supposées empêcher ces scénarios de se produire — pour lesquelles il y aura bien peu de réactions en général.

Épisode suivant: L'innocuité ou la preuve impossible

4 novembre 2011

Le principe de précaution, principe juridique dévoyé

Épisode précédent: le principe de précaution, principe juridique raisonné

On a vu que le principe de précaution était surtout une évolution du droit existant, il se caractérise par une exigence moindre en matière de preuve, en cela que de simples indices peuvent suffire. Mais les limites au pouvoir discrétionnaire de l'état sont toujours les mêmes: il doit y avoir une base rationnelle à l'action, les bénéfices et les risques — y compris économiques — doivent être évalués, les moyens mis en œuvre proportionnés à l'enjeu, les règles de preuves sont toujours les mêmes. Il arrive cependant que la mécanique se dérègle.

Il en est ainsi de l'arrêt anti antennes relais de la cour d'appel de Versailles de février 2009 qui a eu une certaine célébrité et fait l'objet de divers commentaires, du relativement serein au nettement plus négatif.

Les plaignants arguaient que la présence d'une antenne relais construite par Bouygues Télécom leur causait un trouble anormal du voisinage du fait de dommages potentiels pour la santé qu'on pouvait pressentir du fait de diverses controverses.

Plus précisément, les plaignants mettaient en cause les émissions tant dans le domaine des radiofréquences que dans celui des basses fréquences. Le domaine des basses fréquences s'étend de 1Hz à 1kHz, les radiofréquences de 1kHz à 300GHz. Ils mesurèrent un champ électrique compris entre 0.3V/m et 1.8V/m (cf p7 §4). En réponse, Bouygues fit valoir les normes proposées par l'ICNIRP à savoir que pour les radiofréquences, dans le domaine d'émission considéré, autour de 1.8GHz, la recommandation d'exposition limite pour le public est de 61V/m. Au moment du jugement, la recommandation pour les basses fréquences n'était pas encore publiée mais elle donne pour limite un champ de 5kV/m. On s'aperçoit donc que le champ mesuré correspond à environ 3% de la limite recommandée pour le champ électrique, soit 0.09% en termes de densité de puissance, ce qui est cohérent avec d'autres mesures effectuées en Angleterre où aucune zone accessible au public n'était irradiée à plus de 0.2% de la recommandation. On conçoit qu'alors, les plaignants ne pouvaient que contester radicalement le consensus scientifique et de chercher à se prévaloir d'une controverse scientifique.

Le fait que les basses fréquences provenant d'une antenne relais soient retenues comme une cause possible d'angoisse est un signe d'un jugement douteux. La cause probable de cette émission est en effet le courant fourni par le réseau électrique d'une fréquence de 50Hz (cf p8 §4). Retenir que de faibles champs électriques à ces fréquences puissent être la source d'une angoisse légitime auraient des conséquences drastiques sur le monde moderne en obligeant à revoir complètement le réseau de distribution électrique ainsi que nombre d'appareils! C'est aussi complètement à l'opposé de ce qui a été constaté au cours du 20e siècle: l'électricité est historiquement associée à une baisse de la mortalité et de la morbidité.

Les plaignants s'attachent donc à montrer qu'il existe une controverse scientifique, il font ainsi référence à divers «appels». Il s'agit de (cf p9 §3):

  1. L'appel de Salzburg où est recommandée une limitation de l'exposition à 100mW/m², alors que les plaignants arguent d'une exposition de 9mW/m² au maximum
  2. L'appel de Freiburg où des médecins disent constater une corrélation entre diffusion des équipements radiofréquences et diverses maladies. Les signataires se gardent de citer une quelconque étude scientifique et, mieux, ils contestent les résultats des études qui vont à leur encontre comme influencés par l'industrie. On apprend tout de même qu'à cette époque la cour constitutionnelle allemande considère le risque comme seulement hypothétique.
  3. L'appel de Bamberg, simple tract des opposants aux radiofréquences
  4. L'appel d'Helsinki où on nous cite pour la première fois une étude scientifique portant sur l'usage du téléphone portable. Il faut ici rappeler que les émissions dues au téléphone lui-même sont nettement plus fortes pour l'utilisateur à cause de la proximité du téléphone mobile. C'est d'ailleurs confirmé par les données fournies par les fabricants: on est souvent autour de 50% de la recommandation. Il y n'a donc guère qu'un facteur 500 de différence sur la dose reçue.
  5. La résolution de Benvenuto passée par l'ICEMS, dont une consultation rapide du site web donne à penser qu'il s'agit d'une dissidence de l'ICNIRP où les membres ne purent se faire entendre. Cette résolution jette aussi le doute sur les concurrents, affirmant qu'ils sont corrompus par l'argent du commerce.

Ces appels ont en commun de ne proposer aucune évaluation du risque posé par les antennes. On savait déjà à l'époque qu'il était bien difficile de lier l'utilisation du portable et des maladies, vu qu'aucune étude n'avait eu de conclusion définitive 15 ans après l'introduction du téléphone portable. On sait aujourd'hui que les effets cancérigènes ne se produiraient qu'avec un usage intensif et encore les preuves sont-elles limitées et certains ne sont pas du tout convaincus. Il est même depuis apparu une étude jugeant qu'il n'y avait aucun lien. Cela n'empêche pas la cour d'affirmer que (p9 §2):

Considérant que la confirmation de l'existence d'effets nocifs pour la santé exclut nécessairement l'existence d'un risque puisqu'elle correspond à la constatation d'une atteinte à la santé qui, en l'espèce, confinerait à une catastrophe sanitaire

En d'autres termes, si on constatait des effets sur la santé, ceux-ci seraient nécessairement catastrophiques. C'est tout simplement faux, le nombre de gens atteints par un problème correspond à la probabilité d'être atteint par le problème en question multipliée par la population exposée. La population exposée est effectivement importante mais la probabilité d'être atteint par la maladie supposée, le cancer, correspond à 2-3 cas pour 100k habitants. Même si on admet qu'un dixième de la population a un risque augmenté de 40% — ce qui correspond à ce qui est rapporté par l'étude INTERPHONE —, cela donne environ 60 cas supplémentaires par an en France. Plus de 350k cas de cancer y sont diagnostiqués chaque année. Difficile donc de parler de catastrophe sanitaire dans ces conditions et cela montre que les études statistiques peuvent démontrer l'existence de risques très faibles et en donner une estimation.

La cour affirme aussi que (p10 §8)

le caractère anormal du risque s'infère de ce que le risque étant d'ordre sanitaire, la concrétisation de ce risque emporterait atteinte à la personne des intimés et à celle de leurs enfants.

On ne peut qu'être étonné par une telle assertion. Si le simple risque — dont on vient de voir qu'il est d'ailleurs extrêmement faible — de subir une atteinte à la santé pouvait suffire à conclure au trouble anormal, une nouvelle fois, les plus grandes difficultés se poseraient dans une société moderne. Ainsi, on peut prendre l'exemple des routes. Il ne fait aucun doute que les routes et leurs abords sont risqués: il y a 4000 morts par an du fait de l'usage des automobiles. Quoiqu'on en dise, si on habite dans une propriété en bord de route, il y a un risque, certes extrêmement faible en général, qu'un automobiliste perde le contrôle de son engin et vienne vous blesser chez vous. On voit donc que la simple existence d'un risque ne suffit pas et qu'en tout cas d'autres considérations peuvent le rendre supportable. Dans le cas des automobiles, c'est sans doute que leur usage a des avantages indéniables et que tolérer leur passage près de chez soi représente une servitude qu'on est tenu de supporter dès lors que le risque pour la santé est minime. Or s'il est bien quelque chose qui est absent de l'arrêt, c'est bien un mot portant sur l'utilité que trouvent au téléphone portable l'écrasante majorité des Français. À tel point d'ailleurs qu'on peut sans doute arguer que le risque de cancer trouvé plus haut pâlit en comparaison avec les vies sauvées par les appels aux secours rendus plus faciles par ce biais. Et la présence d'antennes est une conséquence directe de l'usage de cette technique de communication.

Un mot enfin de la décision de démolition de l'antenne: les décisions prises au nom du principe de précaution doivent normalement être proportionnées au risque encouru et au dommage causé. On peut certes se dire qu'un antenne de plus ou de moins n'a pas nécessairement grande importance dans un réseau de téléphonie mobile. Cependant, dans l'autre sens, il est clair qu'il y a une limite d'intensité du champ électrique en deçà de laquelle la sécurité sanitaire est plus raisonnable, ce qui est d'ailleurs suggéré lorsque les situations dans d'autres pays sont évoquées. La cour se garde bien de faire la part des choses et interdit purement et simplement au motif que Bouygues Télécom ne propose rien et alors que la cour relève que cela fait partie des capacités de cette compagnie.

Finalement, la cour a procédé de la sorte: elle a pris en compte comme crédible le pire scénario qu'on lui présentait, n'a pas essayé d'évaluer raisonnablement les risques demandant en quelque sorte le risque zéro, n'a pas pris en compte les bénéfices de l'installation en question, a pris une position maximaliste sur la solution à adopter. C'est à mon sens la marque du principe de précaution dévoyé tel qu'il est souvent compris. En effet, si le principe de précaution était simplement le fait d'interdire toute technique pour laquelle un risque est pressenti, ou au moins pour lequel un risque est simplement crédible, alors, effectivement, il est à craindre que tout ce qui ne bénéficie pas d'une immunité face à ce principe — qui prend souvent la forme d'une exemption de l'existant — puisse être interdit à partir du moment où on réussit à faire entendre sa vision — apocalyptique en l'occurrence des choses — sans avoir à vraiment apporter de preuves. On ne peut que se féliciter qu'un tel arrêt n'ait pas connu de progéniture!

Épisode suivant: La gestion de la pandémie de grippe ou l'irrationnalité de la prééminence du pire scénario

3 novembre 2011

Le principe de précaution, principe juridique raisonné

Épisode précédent: présentation générale

Le principe de précaution est formalisé dans des textes juridiques, il est inévitable que les tribunaux aient à connaître d'affaires s'y référant. Les décisions qu'ils rendent sont d'une grande importance, ce sont elles qui fixent les contours effectifs de ce principe, et non les discussions théoriques. Comme le principe de précaution a d'abord été formalisé dans des traités, il est assez naturel que ce soient les cours supra-nationales qui ont rendu les arrêts les plus anciens.

Le bœuf aux hormones

Le cas du bœuf aux hormones fait partie des querelles commerciales éternelles entre l'Union Européenne et les USA, au même titre que la banane. Suite à l'Uruguay Round, un accord sur les mesures sanitaires et phytosanitaires (SPS) fut ratifié. L'OMC fut aussi créée, elle comprend un organe de résolution des différends qui constitue en fait un véritable tribunal chargé d'assurer le respect des accords de libre-échange conclus dans le cadre du GATT puis de l'OMC. Il était donc à peu près certain que le cas du bœuf aux hormones serait un des premiers à être porté devant lui, ce qui n'a pas manqué.

Aux USA, ainsi qu'au Canada, il est autorisé d'utiliser des hormones de croissance ou aux effets anabolisants pour accélérer la croissance des bovins destinés à la boucherie. L'Union Européenne prohibe cette pratique et interdit la commercialisation de la viande qui pourrait provenir de ces bovins dopés. La raison donnée est que cette viande aurait des conséquences néfastes sur la santé des consommateurs, ce que contestent les pays d'outre-Atlantique. Le différend est donc clair: l'Union se livrerait à du protectionnisme sous couvert de protection de sa population. Autant le dire tout de suite, l'UE a bien été condamnée à la fois en première instance et en appel; plutôt que de changer sa législation, elle préfère subir les rétorsions commerciales depuis plus de 10 ans malgré un accord partiel de 2009 qui autorise l'entrée du bœuf US sans hormone en franchise de droits de douane.

L'accord SPS contient une disposition explicite qui met en place le principe de précaution, l'article 5.7. Cependant, l'UE ne renonça à faire appel à lui dès la première instance, déclarant que son embargo était définitif, l'article 5.7 ne permettant que des mesures temporaires. Cela dit, en appel, la possibilité de faire appel au principe de précaution lui fut reconnue. Cette possibilité s'appuie sur l'article 3.3 qui prévoit la possibilité d'adopter des normes plus sévères que celles qui sont communément admises pour peu que l'article 5 soit respecté. L'article 5 prévoit — entre autres — qu'on évalue les risques suivant des critères scientifiques. Et surtout, ce qui fait qu'on peut considérer que le principe de précaution a été appliqué en appel, est que la possibilité de retenir un point de vue minoritaire dans la communauté scientifique fut accordée (point XI B 2 du rapport d'appel).

En première instance, des experts scientifiques de la question furent amenés à répondre à une liste de questions portant sur l'état de la science et sur le niveau de dangerosité de l'élevage dopé aux hormones. Les réponses furent pour la plupart sans appel: c'est là une pratique sans danger réel pour la santé humaine lorsqu'elle est pratiquée normalement. Un seul expert interrogé signala un risque potentiel, mais il le borna à un cas de cancer par million d'habitants — plus exactement à une chance sur un million sur toute la durée de la vie — soit un nombre maximal de cancers d'environ 500 à l'heure actuelle dont 65 en France. En France, on diagnostique plus de 350k cas chaque année. Quant au risque de mauvaises pratiques d'élevage, il n'a fait l'objet d'aucune évaluation. Le panel d'appel en déduit que l'interdiction européenne ne trouve pas de fondement rationnel dans les évaluations du risque, ce qui mène directement à la condamnation de l'UE.

L'avis du panel est aussi intéressant pour ce qu'il rejette. Il rejette ainsi l'idée selon laquelle l'évaluation des risques devrait montrer qu'il n'y a absolument aucun risque du fait de l'impossibilité à arriver à une telle conclusion. En quelque sorte, l'innocuité est relative: il faut montrer que la dangerosité a une base scientifique. Le panel rejette aussi les travaux les plus généraux au profit des études plus précises et spécifiques au cas de l'élevage bovin. C'est ainsi que les études générales sur les risques provoqués par l'exposition aux hormones n'ont pas la même importance que les études qui ont porté sur l'étude de la viande venant d'élevages dopés.

Au final, le panel donne à voir quelques éléments nécessaires à l'application du principe de précaution. Pour pouvoir s'en réclamer, il faut mener une évaluation scientifique des risques. Celle-ci n'a pas pour but de démontrer l'innocuité absolue, mais au contraire de voir s'il existe des risques possibles dont on connaîtrait un minimum de choses, comme le type de maladie et une vague approximation de la magnitude de sa prévalence. Quoique le consensus sur la question n'ait rien d'obligatoire, on voit aussi que le nombre d'avis allant dans le même sens a aussi une importance. De fait, il semble qu'il s'agisse de lutter contre l'arbitraire des états: il n'est pas bien difficile de trouver une raison à une interdiction, l'accord SPS impose un minimum de rationalité.

Les médicaments et le retrait d'autorisation de mise sur le marché

Le domaine du médicament est sans doute celui où le principe de précaution est appliqué depuis le plus longtemps, avant même qu'on tente de le formaliser pour l'environnement. Les sociétés pharmaceutiques doivent obtenir une autorisation préalable pour lancer sur le marché de nouveaux médicaments. Cela est justifié par le fait que ce sont des poisons administrés à faible dose, leur absorption provoque donc des effets néfastes. Il est important que ces effets néfastes ne l'emportent pas sur les effets bénéfiques. Le système européen est le suivant: les industriels doivent montrer que leurs produits ont un bilan bénéfice/risque favorable. Ils obtiennent alors une autorisation de mise sur le marché (AMM) valable 5 ans renouvelables, pendant lesquels les états ou la commission peuvent la retirer dans certaines conditions. Certains médicaments se voient directement autorisés par l'agence européenne idoine, l'EMEA, certains autres dépendent des autorités nationales, comme l'AFSSAPS. La procédure d'autorisation des médicaments relève clairement du principe de précaution: on étudie les effets de la molécule avant de la proposer sur le marché mais on ne connaît pas exactement l'étendue des effets secondaires, en partie à cause du faible nombre de cobayes; en conséquence, l'autorisation n'est que temporaire et est révisée en fonction des connaissances du moment.

C'est ainsi qu'est né le cas Artegodan & autres contre CE. La commission avait retiré leur AMM à divers médicaments destinés à faire maigrir qui avaient comme point commun d'être tous des anorexigènes basés sur des amphétamines. En France, un médicament passa à travers les gouttes, il s'agit du Médiator finalement retiré en 2010, alors que les médicaments concernés n'avaient pas beaucoup de chances d'être autorisés au-delà de 2001, comme le montre l'exposé des faits.

La société Artegodan fabriquait une molécule, l'amfépramone, qui avait vue son AMM renouvelée en 1996. En 2000, la commission suspendit l'AMM. Dès avant le renouvèlement en 1996 des inquiétudes se firent jour, puisqu'un rapport remis à l'EMEA signalait le risque d'hypertension pulmonaire alors qu'il relevait les prescriptions de confort (§22). En 97, le gouvernement belge demande une nouvelle étude suite à des cas de valvulopathie, le rapport remis à l'EMEA conclut que le lien de cause à effet manque encore (§27). Par contre, en 1999, un rapport dit que le bilan bénéfice/risque est devenu négatif. Cela est dû à un changement dans l'état de l'art: pour lutter contre l'obésité, les médecins préconisaient désormais des traitements à long terme, alors que les traitements basés sur amphétaminiques sont limités à trois mois pour éviter la dépendance (§32). Miraculeusement, c'était à ce moment-là qu'étaient apparues sur le marché les statines qui répondaient à ce besoin. En conséquence, l'AMM fut suspendue par la commission.

La décision de la commission fut contestée sur 2 points. Un point portait sur la compétence de la commission pour prendre une telle décision, le tribunal donna raison aux sociétés pharmaceutiques. L'autre portait sur les fondements de la décision. Le tribunal porte son attention sur 2 points. Le premier est la charge de la preuve. Le régime de l'autorisation préalable n'est pas exceptionnel, beaucoup de produits vendus au publics doivent être homologués. Cependant, les tests subis sont déterminés à l'avance, il y a très peu de chances pour qu'un objet ayant réussi les tests se comporte de façon dangereuse pour ses utilisateurs. Pour les médicaments, les tests sont nettement plus longs et une surveillance s'exerce ensuite. Cependant, les AMMs sont valables 5 ans, pendant lesquels les fabricants sont normalement assurés de pouvoir vendre leur produit. Dans la présente affaire, les sociétés alléguaient qu'accepter la décision de la commission revenait à renverser la charge de la preuve (§157). En effet, pendant les 5 ans de validité, c'est aux autorités d'apporter la preuve de la dangerosité ou de l'inefficacité du produit. Les sociétés requérantes affirmaient en plus qu'il fallait une preuve absolue contrairement à la phase d'autorisation où une controverse peut suffire. Le tribunal donne en partie raison à la commission: s'il n'est pas nécessaire de fournir une preuve absolue mais seulement des indices sérieux et concluants (§192), il faut toutefois que des faits nouveaux soient à la base de la décision (§194). Comme on l'a vu les rapports d'experts n'émettaient pas de conclusions tranchées quant aux dangers de ces anorexigènes, ce qui a emporté la décision c'est le changement dans l'état de l'art. En conséquence, le tribunal va invalider la décision parce qu'il manque ce fait nouveau: un changement d'appréciation ne suffit pas (§211).

Ce qui apparaît dans la décision du tribunal, c'est que le régime de la preuve reste le même tout au long de la vie du médicament. Il n'y a pas tellement de différence entre l'existence d'une controverse avant l'autorisation et le fait de n'apporter que des indices sérieux mis à part la personne qui doit argumenter en premier. Ce qui change, c'est que les fabricants bénéficient d'une certaine sécurité juridique pendant une période de 5 ans, où il faut des faits nouveaux. On ne peut retirer l'AMM parce que la façon de considérer les risques et le bénéfices a changé. Une nouvelle fois, le tribunal protège contre un certain arbitraire des autorités. Mais il accorde aussi un certain degré de protection aux intérêts économiques des fabricants qui, quoiqu'on en dise, sont toujours bien présents en la matière.

Ces deux décisions ont des éléments communs. Tout d'abord, il s'agit dans les deux cas d'invalider les décisions prises par une autorité publique, ce en quoi elles réussissent. Ces décisions limitent donc la portée du pouvoir des autorités. Ensuite que le principe de précaution y est exposé comme un principe donnant plus de latitude aux pouvoirs publics dans leur moyen principal d'action: l'interdiction. Le principe de précaution n'apparaît pas du tout ici comme une révolution. Tous les principes juridiques appliqués trouvent leur origine dans les contentieux en abus de pouvoir. C'est ainsi que les pouvoirs publics doivent pouvoir avancer une base raisonnable à leur action, que cette base raisonnable doit être fondée sur l'observation des faits, que les bénéfices et les risques en présence doivent être évalués et qu'à la suite de cela, la décision prise semble être proportionnée à l'enjeu.

Épisode suivant: le principe de précaution, principe juridique dévoyé

Le principe de précaution

Ce billet est le premier d'une série. Le découpage en plusieurs billets est nécessaire du fait de la longueur du propos. Quelques aspects du principe de précaution tel que je le comprends à la lecture de la littérature sur le sujet et de l'application qui en est faite y sont abordés.

Le principe de précaution est souvent invoqué de nos jours, parfois à tort et à travers. Dans un passé révolu, il me fut donné l'occasion de lire une partie d'un livre consacré au sujet. Il me semble toujours exposer les choses de façon intéressante. Si à l'époque l'auteur paraissait optimiste et donnait donc une vision à l'avenant de l'application du principe de précaution, il semble surtout aujourd'hui que l'auteur a bien cerné les façons dont le principe de précaution a été dévoyé depuis.

Des systèmes de prévention se sont largement développés à l'époque moderne. Leur développement a souvent accompagné celui des états providence et notamment de l'assurance maladie. L'assurance maladie permet de rassembler des données statistiques, même si c'est de façon d'abord rudimentaire, pour essayer de déterminer les causes de mortalités. Pour poursuivre le mouvement de baisse séculaire de la mortalité, il a sans doute fallu déterminer de nouveaux liens de causalité entre certains événements. Le but d'un système de prévention est globalement d'essayer de déterminer quelles sont les causes de risques et de trouver des moyens d'agir sur ces causes pour diminuer les risques. L'état agit alors souvent de manière coercitive en interdisant — c'est ce qui s'est produit par exemple avec le DDT — ou en rendant obligatoire certains actes — par exemple, les vaccinations contre la poliomyélite ou l'installation de ceintures de sécurité dans les automobiles. Il peut aussi agir de façon plus incitative, comme avec les publicités pour le préservatif.

La logique des politiques de prévention est que les actions des gouvernants sont guidées par la raison, qu'il est possible d'évaluer les avantages et les inconvénients de chaque décision ainsi que de les comparer. L'idéal du gouvernement raisonnable accompagne l'idéal de la démocratie: si on doit gouverner pour le bien du peuple, il ne suffit pas d'écouter les diverses demandes, mais il faut aussi essayer autant que faire se peut de prendre les décisions évidemment favorables à l'ensemble de la population et surtout d'éviter les décisions les plus néfastes. Si l'expérience tend à montrer que la raison ne guide pas toujours les décisions gouvernementales, il est certain que les divers gouvernements démocratiques ont pour objectif d'au moins limiter les dommages en matière de santé publique, même si des échecs retentissants se produisent ou se sont produits comme l'affaire du sang contaminé.

Il n'est cependant pas toujours possible de rassembler les connaissances nécessaires dans un délai raisonnable, voire même il ne sera possible de déterminer le dommage réel qu'une fois que l'événement néfaste s'est produit. S'il s'avère que les conséquences sont nettement plus graves que les bénéfices qu'on pensait retirer, les regrets rétrospectifs seront légitimes. Pour éviter cela, on peut alors penser à agir dès qu'un événement particulièrement grave devienne plausible. C'est là la base du principe de précaution. C'est ainsi que les firmes fabricant des médicaments doivent prouver l'efficacité de leurs préparations ainsi que démontrer qu'elles n'ont pas trop d'effets secondaires. Par ailleurs, la prise de conscience progressive que les activités humaines pouvaient entraîner des dégâts très importants à l'environnement, et en conséquence sur le bien-être de chacun, a entrainé l'extension et le succès de ce principe dans le cadre de la gestion de l'environnement. C'est en effet dans ce cadre que les formalisations légales ont eu lieu, comme par exemple celle de la Charte pour l'environnement qu'on prendra comme référence.

Lorsque la réalisation d'un dommage, bien qu'incertaine en l'état des connaissances scientifiques, pourrait affecter de manière grave et irréversible l'environnement, les autorités publiques veillent, par application du principe de précaution et dans leurs domaines d'attributions, à la mise en œuvre de procédures d'évaluation des risques et à l'adoption de mesures provisoires et proportionnées afin de parer à la réalisation du dommage.

La protection de l'environnement n'est pas le seul domaine où le principe de précaution trouve à s'appliquer, le domaine de la santé publique s'y prête aussi particulièrement.

La rédaction de la Charte dit des choses clairement: on doit être dans le cadre d'une controverse scientifique non encore véritablement réglée, le risque doit être grave et irréversible — ceci s'entendant à l'échelle des perceptions humaines, mettons donc au moins 10 ans —, l'état est censé évaluer les risques — de sorte à essayer d'éclaircir le débat scientifique — mais aussi prendre des mesures provisoires — dont on sait qu'elles peuvent durer au moins aussi longtemps que les éléments irréversibles. Le problème vient plutôt du problème de la proportionnalité.

Seul le dommage est mentionné dans le texte de la Charte, cela peut conduire à estimer que la proportion se comprend vis-à-vis du dommage. Cela amènerait donc à prendre des mesures drastiques, ce qui ne paraît pas nécessairement raisonnable. Un élément atténuant est le fait qu'on n'est pas certain que le pire se produira, ce qui tend à diminuer l'effort à faire. Mais en fait, la proportion se comprend surtout pour le coût des mesures à prendre. Ce coût n'est pas que financier, les mesures à prendre viseraient sans nul doute à diminuer la liberté des individus ou détourneraient l'attention de l'état d'autres problèmes, parfois bien certains ceux-là. Il s'agit alors de prendre en compte les avantages et inconvénients de chaque alternative, sachant qu'elles sont plus ou moins probables.

Le principe de précaution apparaît ainsi comme une extension naturelle de la prévention: il s'agit d'intervenir le plus tôt possible pour mettre en balance avantages et inconvénients, d'essayer d'agir le plus tôt possible pour éviter de graves conséquences. D'un autre côté, l'action dans un contexte d'incertitude scientifique peut conduire à agir d'une façon qui n'a qu'un lointain rapport avec une action raisonnable, comme on essaiera de l'exposer. Que les dommages possibles soient aussi, en apparence, seuls en scène ne fait que renforcer cet aspect irrationnel, comme on essaiera de l'expliquer.

Épisode suivant: Le principe de précaution, principe juridique raisonné

22 octobre 2011

Les gesticulations d'Éva Joly, le nucléaire et le PS

Dans le Monde daté du 18 octobre dernier, Éva Joly, candidate des Verts, donnait une interview, titrée «La gauche serait folle de ne pas sortir du nucléaire». Contrairement à ce qu'indique le titre, elle y intervenait principalement pour redire ce qui fait sa spécificité dans le paysage de cette présidentielle, cet attachement visiblement viscéral à la vertu. Mais ce qui a donc retenu l'attention des journalistes, c'est le début où elle nous dit que la gauche serait folle de ne pas annoncer la sortie du nucléaire et où figure cette question où elle paraît répondre en lançant un ultimatum au PS:

Un accord doit être signé entre vos deux formations en novembre. Quels sont les points sur lesquels vous ne transigerez pas?

Il faudra présenter un calendrier de sortie du nucléaire, l'abandon de certains grands travaux devenus absurdes comme l'aéroport de Notre-Dame-des-Landes, en Loire-Atlantique. Il faudra aussi de profondes réformes, comme l'introduction de la proportionnelle. Je ne serai pas ministre dans un gouvernement qui n'inscrit pas ces réformes tout en haut de son programme, et aucun membre d'EELV ne le sera non plus.

La demande de législatives à la proportionnelle est en partie satisfaite par la proposition 29 du programme du PS que, bien sûr, François Hollande a promis de respecter à la lettre. Il semble aussi qu'un aéroport de plus ne puisse suffire à faire capoter un accord de gouvernement. C'est donc bien la question du nucléaire qu'il s'agit encore de pousser, les socialistes se refusant encore à prononcer la fin du nucléaire en France. Cette impudence a été vue comme un diktat par divers responsables socialistes et comme une provocation contre-productive par une méchante langue. Malheureusement, il manque quelque chose pour que cette vision des choses soit entièrement justifiée.

Tout d'abord, Les Verts vont entrer en négociation avec le PS pour une répartition des circonscriptions pour les législatives de 2012 ainsi que sur un éventuel programme de gouvernement. Il faut bien que cette fois-ci, on conçoit mal l'intérêt pour le PS d'un quelconque accord avec qui que ce soit. La droite et son champion, Nicolas Sarkozy, sont usés par le pouvoir et les erreurs politiques de ce dernier. Même si l'élection n'est pas jouée, on voit mal comment Nicolas Sarkozy pourrait convaincre ceux qui ont fini par être excédés par ses mesures visant les internautes, sa monomanie de poursuivre sans relâche les immigrés, sa pusillanimité en matière économique. François Hollande va aborder l'élection en position de favori, sans être empêtré dans une réputation — assez méritée — d'incompétence qui a fortement nuit à Ségolène Royal. À la suite de cette victoire présidentielle prévisible, le PS devrait logiquement remporter une large victoire aux législatives. Et même si le PS s'avisait de passer des accords généreux, des militants autochtones se rebelleraient en portant à la députation leur favori local, attiré par la forte probabilité de gagner. Un accord de répartition législative est ainsi d'un intérêt tout relatif dans la situation présente. On peut cependant parier qu'il y en aura un, car un tel accord fait partie de la mythologie du PS, parti qui se veut grand prince dans un régime où tout est conçu pour diriger seul.

Quant à signer un accord de gouvernement, cela ne vaut que si chacun peut y retrouver un peu de ses revendications favorites. Il semble donc que les Verts ne puissent se passer à l'orée d'une négociation pareille d'une démonstration de pureté idéologique. Ainsi se place très bien la demande d'abandon de l'aéroport de Notre-Dame-des-Landes, serpent de mer éternel de la région nantaise. On peut aussi y placer la revendication séculaire et à la base du mouvement écologiste, la fin du nucléaire. Les Verts ont une dépendance particulière à ces revendications. Malgré le coup de génie qui a consisté à prendre comme héraut une représentante de la rigueur scandinave, endroit où tous les conflits sont censés se régler par le droit et le dialogue, il est apparent que les Verts ont une organisation qui les rapproche des irrédentistes corses, celle de la vitrine politique. On peut s'immiscer sans titre sur des propriétés privées, y compris pour les saccager, et se faire élire pour le compte de ce mouvement. Abandonner les revendications de base amènerait à la fin du support de la partie activiste qui ne tient pas vraiment à se présenter aux élections, mais à voir ses revendications, aussi extrêmes soient-elles, réalisées. Et participer à un gouvernement, où leur présence ne sera sans doute pas nécessaire, peut s'avérer très dommageable pour la suite, car les Verts risquent d'être forcés d'accepter des mesures dont ils ne veulent pas, sans avoir leur mot à dire, vu qu'ils ne seront pas nécessaires à l'obtention de la majorité absolue.

D'ailleurs, ces revendications sont-elles si démesurées? François Hollande propose de ramener la production d'électricité nucléaire à 50% du total d'ici 2025. Actuellement, selon les statistiques de RTE, l'électricité nucléaire compte pour 74% de la production d'électricité française de 550TWh. Avec 63GW de capacité, le facteur de charge, le rapport de la production effective à la production maximale possible, est d'environ 74%. La domination du nucléaire oblige en effet à adapter sa production en fonction de la saison, les centrales ne peuvent pas tourner à pleine capacité en permanence. Si la puissance disponible venant du nucléaire venait à baisser, ce facteur devrait remonter vers les 90%, le facteur de charge atteint aux USA par exemple. Les socialistes, même si ce n'est pas précisé, entendent certainement procéder en faisant baisser la puissance nucléaire disponible, non en augmentant la production totale d'électricité, c'est pourquoi on supposera cette dernière constante dans le futur. Le parc nucléaire français se compose de réacteurs de 900MW pour presque la moitié de la puissance installée, le reste étant constitué de réacteurs de 1300MW sauf pour les 4 derniers qui sont des réacteurs de 1500MW. Il semble probable que les centrales aient une durée de vie minimale de 40 ans pour des raisons de coût, mais qu'on ne les utilise pas au-delà pour des raisons de sécurité, au moins pour les réacteurs de 900MW dont la conception est la plus ancienne. On peut trouver sur wikipedia la liste des réacteurs français avec leur date de connexion au réseau, ce qui peut donc donner lieu à divers calculs, dont on peut tirer le graphe suivant. Part du nucléaire dans la production d'électricité française On constate que si le facteur de charge reste d'environ 75%, l'objectif de réduction à 50% de la part du nucléaire est atteint en 2023. Si le facteur de charge croît jusqu'à 85%, ce sera au cours de l'année 2024. Au 1er janvier 2025, dans ce dernier cas, la part du nucléaire sera de 46%. Pour arriver à 50%, il manque 2 EPRs de 1600MW. Ça tombe bien: un est en construction à Flamanville, un autre est en projet à Penly. Pour résumer, le projet socialiste se résume à faire un effort similaire à l'Allemagne où le nucléaire représentait l'année dernière 28% de la production d'électricité en laissant se fermer toutes les vieilles centrales au bout de 40 ans et à ne construire que les réacteurs nucléaires qui sont déjà prévus. Même le plan préparé par negawatt, dont j'ai dit tout le bien que j'en pensais, finit par se heurter à la durée de vie de 40 ans. Si le plan du PS n'est pas un plan de sortie du nucléaire, qu'est-ce donc? Il lui manque certes le nom, ce que veut lui ajouter Éva Joly.

Bref, loin d'être le diktat dénoncé, les déclarations d'Éva Joly relèvent plutôt de la gesticulation de quelqu'un qui veut se différencier et montrer sa pureté idéologique. Il n'y a sans doute pas trop à craindre à avoir pour le futur accord de gouvernement et, si Hollande doit faire des Verts le PCF du premier quart du 21e siècle, ce sera après en avoir repris les idées principales à son compte. Il serait aussi fort aimable au PS de préciser ses perspectives sur la production d'électricité, avec les moyens de remplacement du nucléaire et ce qu'il compte faire après 2025.

5 octobre 2011

Course à la défaite

La campagne en vue des élections de 2012 fait déjà rage, comme le montrent les primaires socialistes et les annonces de forfait avant de monter sur le ring. Comme à leur habitude, les politiques tentent de se décrédibiliser pour perdre dignement à l'aide de diverses tactiques.

Le PS a tenté de se déchirer bien avant l'élection, de manière à ce que les rancœurs empêchent de mener une campagne sans croche-pattes ni coup de poignard dans le dos, à l'aide de la fameuse tactique des primaires testée en 2007. Malheureusement, cette fois-ci, les débats sont feutrés; le favori, François Hollande, a tout d'un candidat classique sans gros défaut. L'UMP et le gouvernement font nettement mieux et ont pris une longueur d'avance. Il faut dire qu'ils sont avantagés par le mauvais état de l'économie en cette fin d'année 2011. Mais ils ne ménagent pas leurs efforts, comme deux évènements viennent nous le rappeler.

L'UMP a bien retenu les leçons que lui a données le PS dans le passé. Contrairement à ce qui était écrit ici même en avril dernier, la construction du vrai-faux programme de l'UMP a toute sa place dans la machine à perdre. On y trouve des propositions tellement dépourvues de sens mais exsudant tellement la mièvrerie qu'on peine à croire qu'un parti sérieux puisse réellement les écrire sur le web, avant qu'on ne s'aperçoive qu'elles sont, pour une part écrasante, destinées aux vieillards, clientèle obligée de la droite quoique ne lisant pas souvent les programmes des partis politiques sur Internet. Dans le registre qui nous intéresse plus, elles permettent de faire fuir l'électeur au près duquel on aurait raisonnablement pu solliciter un suffrage. Dans ses propositions sur la «culture», l'UMP nous donne une vraie leçon en la matière.

L'UMP soutient ainsi l'innovation majeure dans ce domaine de ce quinquennat: l'HADOPI. Il est en effet indispensable de rappeler la création de cette administration particulièrement populaire puisqu'il s'agit in fine de couper l'abonnement internet pour avoir manqué à sécuriser sa connexion, ce que même un professionnel serait bien en peine d'assurer. Sous ce vocable compliqué, il s'agit en fait de, plus prosaïquement, pourchasser les auteurs de contrefaçons d'œuvres culturelles divers, mais seulement quand ils agissent par des réseaux peer to peer. L'astuce principale du procédé consiste à ce qu'il incombe en pratique à l'abonné de prouver son innocence, alors qu'apporter une telle preuve est impossible. C'est ainsi qu'on nous propose de poursuivre la lutte contre le téléchargement illégal et favoriser la coopération judiciaire et policière à l’international, notamment afin de lutter contre l’hébergement et la diffusion de contenus ne respectant pas le droit d’auteur. Mais il y a mieux: l'UMP ne se limite pas à confirmer sa classique réputation de parti favorable à la répression tous azimuts, elle cherche aussi à bien montrer qu'elle est l'ennemie des nouvelles activités menées sur Internet. On trouve ainsi pas moins de 6 propositions consistant à alourdir les impôts pesant sur les citoyens, au profit des acteurs du secteur. Une partie de ces sommes sont en fait redistribuées en fonction des ventes constatées, qui sont très concentrées sur quelques artistes, ce qui fait que l'argent va à des gens qui ne sont pas spécialement dans le besoin. L'autre partie est répartie de façon captive pour «encourager la création», ce qui en fait de véritables fromages. Les taxes proposées semblent devoir frapper des acteurs d'un secteur en expansion, les activités sur internet. Ainsi, le gouvernement de faire profiter de ces taxes des acteurs protégés de la concurrence, en petit nombre, qui touchent déjà pas mal d'argent par ce biais et façon très inégalitaire, dont le principal fait d'armes ces 10 dernières années a été d'insulter leurs principaux clients. Et cela en frappant un secteur en croissance, et donc par là même en ralentissant sa croissance et la rentrée des impôts standards dans ses propres caisses. C'est une idée de génie: on fait profiter un petit nombre de privilégiés de rentrées d'argent au détriment du plus grand nombre, qui bénéficie jusqu'ici de prix bas, et d'activités en développement actuellement, dont on clame urbi et orbi que ce sont des activités d'avenir mais dont on cherche à tout prix à freiner l'expansion.

De son côté, pour décourager les électeurs qui penseraient encore à le reconduire aux prochaines élections, le gouvernement fait montre d'une tactique bien connue: l'utilisation de la mesquinerie qui se couple à l'injustice. C'est ainsi que le gouvernement a décidé de faire payer 35€ à quiconque aurait l'impudence d'introduire une action en justice. Il faut bien dire que la plupart des recettes de cette nouvelle taxe viendront des tribunaux civils qui gèrent l'essentiel des contentieux — et heureusement! — en France: comme le montre le rapport sénatorial (tableau au point C 3), sur presque 3M d'affaires, plus de 2M concernent les tribunaux d'instance et de grande instance. Sur ces 3M d'affaires, le gouvernement estimait que 2.5M seraient redevables de cette taxe. C'est ainsi que tous les petits litiges se voient lourdement taxés: il faut vraiment être très motivé pour payer d'avance 35€ pour un litige de 100€, réglé 6 mois après le dépôt de la demande dans un sens ou dans un autre, même si ces 35€ sont dus par le perdant. Autant dire que les FAIs et les opérateurs de téléphonie mobile peuvent souffler: le nombre de recours des clients mécontents devrait plonger à l'avenir. Il en est de même pour tous les recours divers de voisinage, ce qui devrait consolider la paix civile dans notre pays. Une longue liste d'exceptions, à la logique difficilement discernable au premier abord, est aussi prévue pour bien renforcer le sentiment d'injustice et d'absurdité. Pour résumer, on a donc un gouvernement de droite qui cherche à bien restreindre les moyens de faire respecter ses droits et donc générer une ambiance contraire aux valeurs d'ordre dont il se réclame.

Pour parachever son œuvre, le gouvernement, qu'on ne peut croire sans pouvoir de ce côté-là, a aussi empilé les affaires qui lui sont défavorables: soupçons envers le sortant du temps où il était factotum d'Édouard Balladur et méthodes de barbouzes mal exécutées pour faire taire les sources des journalistes. Cela fait toujours du bien quand on veut passer pour quelqu'un de malhonnête. Avec tout cela, il est difficile de voir comment le parti socialiste va pouvoir remonter la pente et son candidat réussir à se faire dépasser par le sortant actuel, Nicolas Sarkozy. Il semble que la gauche soit condamnée à gagner l'année prochaine, n'ayant pas su susciter le rejet comme il y a 5 ans, où une candidate de grand talent avait été choisie.

25 août 2011

Jansénisme fiscal

Le gouvernement a dévoilé un plan de hausses d'impôts. En effet, même si le house paper du gouvernement déclare qu'il s'agit de 12G€ d'économies, on constate que sur 11G€ d'amélioration du solde budgétaire prévu en 2012, 10 viennent de mesures fiscales dont plus de la moitié sont des hausses d'impôt pures et simples et ne peuvent en aucun cas être repeintes en élimination de niches fiscales.

On y trouve des mesures sur la fiscalité du patrimoine, comme la hausse du prélèvement social sur les revenus du capital ou encore de la taxation sur les résidences secondaires. Ces mesures sont accompagnées d'une taxe additionnelle pour les revenus fiscaux de référence dépassant 500k€. Il est vrai que la dernière loi de finances rectificative traitant de ces sujets remonte à des temps antédiluviens, puisqu'elle a été publiée au Journal Officiel le 29 juillet dernier et votée le 5 juillet. Un aspect important de cette loi de finances était le réforme de l'ISF, sous le paravent plus général de la réforme de la fiscalité du patrimoine. Les parlementaires ont suggéré une taxe sur les hauts revenus, certes bien différente de celle proposée par le gouvernement, mais ce dernier n'a pas voulu faire de contre-proposition. Ces mesures sur la fiscalité du patrimoine ne sont pas négligeables: à elles deux, elles devraient représenter 3.5G€. La taxation des plus-values sur les résidences secondaires représente une nouveauté: pour la première fois, on tiendra compte de l'inflation dans le décompte des plus-values. Mais cette politique va à l'encontre des mesures prises quant aux valeurs mobilières qui, elles, doivent officiellement être exonérées de plus-values en cas de détention longue à partir de 2013. L'autre disposition, l'augmentation des taxes sociales sur les revenus du capital est nettement plus classique depuis l'invention de la CSG. Le taux forfaitaire d'imposition sur les revenus du capital passe à 32.5%, alors qu'il était de 16% au début des années 90. On se rapproche de plus en plus du taux de l'IS, ce qui augure peut-être de quelques montages artistiques.

Quant à ce qui est de la politique fiscale vis-à-vis des salaires, le gouvernement augmente la CSG de façon silencieuse, en modifiant son assiette. En effet, seuls 97% du salaire brut étaient inclus dans l'assiette, ce sera désormais 98%. De fait, c'est une hausse de 1% du produit de la CSG venant des salaires, alors que le gouvernement fait profession de préserver les salaires des hausses d'impôts. Dans un registre différent, le «forfait social» est augmenté, alors que le gouvernement a fait adopter la «prime dividendes» au printemps dernier et prétend encourager la participation et l'intéressement. On peut au contraire prévoir que cette innovation de l'année 2009 va peu à peu rejoindre le niveau des cotisations sociales, entraînant sans doute une demande de suppression des obligations dans ce domaine de la part des entreprises.

Le gouvernement a fait profession d'aligner l'impôt sur les sociétés (IS) sur ce qui se pratique en Allemagne. Il a commencé par annoncer une mesure qui va peser sur la trésorerie des entreprises. On pourra sans doute attendre longtemps les mesures favorables aux entreprises. Ces mesures devraient être majoritaires: l'IS allemand rapporte deux fois moins que l'IS français (source: rapport de comparaison de la fiscalité française et allemande, p158). L'alignement des deux fiscalités relève donc de l'argument de façade. C'est au contraire une idée qui plane depuis un certain temps au vu des rapports de la Cour des Comptes (cf rapport public annuel 2011 p63).

Enfin, le gouvernement finit par ce qu'il fait quand il ne trouve rien d'autre: augmenter les droits d'accises sur le tabac et l'alcool. On peut subodorer que la TIPP suivra bientôt, les justifications sont déjà connues. Mais on voit là une nouveauté: l'état va taxer les boissons avec du sucre ajouté au profit de la sécurité sociale sous prétexte de leur participation à l'augmentation du poids des français. C'est une grande nouveauté: jusqu'ici, seuls étaient taxés des produits dont la dangerosité directe est connue, comme le tabac et l'alcool. Désormais, l'état va aussi taxer quelque chose qu'on accuse, certainement à tort, de provoquer un surpoids, d'ailleurs véritablement gênant uniquement dans des situations de fort surpoids. En d'autres termes, l'état va taxer une consommation de quelque chose qui a mauvaise presse dans l'opinion au prétexte de faire changer les comportements, alors qu'il n'y a pas de risque patent. On trouve là une des expressions du nanny state les plus éclatantes, on infantilise les citoyens et on distingue les «bons» produits des mauvais sur des critères purement moraux. C'est en fait peut-être là qu'il faut trouver l'essence de la politique fiscale de ce gouvernement: il a déjà institué le «bonus-malus» automobile comme succédané d'une taxe sur les carburants, alors même que ce n'est pas acheter une voiture de forte cylindrée qui émet des gaz à effet de serre mais bien le fait de rouler avec. Ce bonus-malus est plus une expression d'un certain jansénisme, selon lequel on est prié d'adopter des apparences modestes, peu importe qu'elles reflètent la réalité.

Au final, on s'aperçoit une nouvelle fois que ce gouvernement s'est révélé incapable de trouver de véritables économies budgétaires, celles-ci étant limitées à 1G€, soit environ 1‰ des dépenses de l'état. Celles-ci représentent pourtant plus de 56% du PIB! Au contraire, la politique adoptée semble n'être en fait que l'application du programme du PS, mâtiné de préjugés moraux. Pour combler le déficit, il n'est que de taxer tout ce qui est moralement répréhensible: les bénéfices des entreprises, les revenus du capital, les entrées dans les parcs d'attraction, les plaisirs certainement coupables que s'offre la population. De plus, la morale change vite, s'il y a à peine un an il était immoral de prendre plus de 50% des revenus de quiconque, cette époque paraît bien lointaine.

24 août 2011

La dette, c'est à cause de la droite?

À cause des déficits budgétaires importants actuels — 5.7% du PIB prévus cette année —, du niveau maintenant élevé de la dette publique — probablement plus de 85% du PIB à la fin de cette année et de la crise des dettes souveraines dans la zone euro, il est fatal que l'état des finances publiques occupent une certaine place dans le débat public. Avec l'approche des présidentielles de 2012, il est tout aussi certain que la droite et la gauche vont se renvoyer la responsabilité de la situation actuelle. Ainsi, Martine Aubry, dans sa tribune du Monde, souligne que les trois quarts, en pourcentage du PIB, de la dette a été accumulée sous des gouvernements de droite. Le Monde a aussi publié un graphique pouvant se résumer comme le fait Martine Aubry.

Un problème majeur de ces approches est qu'elles ne tiennent absolument pas compte du cycle économique. Ainsi, en 1993, la droite gagne les élections en mars. Or l'économie est en récession, ce qui fait mécaniquement exploser le déficit public et le budget a été préparé par le gouvernement précédent, de gauche: il est quelque peu difficile de qualifier d'honnête les déclarations imputant l'augmentation de la dette à cette époque à la mauvaise gestion de la droite. Il est en effet de bon aloi d'accepter un déficit en période récession, cela permet d'amortir la chute de l'activité en assurant un niveau d'activité fixé à l'avance et aussi en laissant l'état providence jouer son rôle de filet de sécurité pour ceux qui sont directement frappés par les revers économiques. Ce déficit en période de récession doit toutefois être résorbé dès que l'économie se porte mieux et on doit même faire des réserves pour justement pouvoir amortir les éventuelles récessions futures.

De fait, on constate que l'évolution du déficit public par rapport au PIB est très corrélée à la croissance économique. Lors d'une récession, l'inflation s'écroule parallèlement à l'activité économique, ce qui fait que le PIB augmente très lentement ou même baisse en valeur, tandis que le déficit se creuse sous l'effet de dépenses de relance et de solidarité en hausse et de recettes en baisse. Inversement, en période de croissance, les recettes croissent plus vite que le PIB ce qui résorbe le déficit. C'est le sujet de ce billet sur le blog de FredericLN. Cette analyse se base sur le déficit primaire — le déficit hors intérêts de la dette. Sa conclusion est qu'il semble bien difficile de départager gauche et droite.

Cela m'a incité à regarder les choses sous deux angles différents. Il est vrai que le déficit primaire donne de l'aspect soutenable de l'évolution de la dette publique: si un gouvernement dégage un excédent primaire et que le taux d'intérêt est égal à sa valeur «canonique» de la croissance du PIB en valeur alors le ratio dette sur PIB diminue. Il me semble cependant que l'évolution des taux d'intérêts doit aussi être intégrée aux décisions politiques, si la réduction de la dette publique est vraiment une priorité cela doit aussi se faire dans des conditions adverses. J'ai aussi réduit la période d'analyse à 1990-2010: les périodes précédentes sont très différentes sur le plan des contraintes budgétaires (1950-1980) et en 1980, la dette était très basse, ce qui rendait les gaspillages relativement bénins.

On peut commencer par regarder directement l'évolution de la dette publique en fonction de la croissance. Comme dit plus haut, leurs évolutions sont très liées: dette vs croissance On constate qu'il est bien difficile de distinguer des groupes bien différents. De plus, il semble que les gouvernements aient le plus grand mal à réduire la dette lorsque la croissance est inférieure à 3% par an, ce qui pose quelques problèmes quand la croissance moyenne sur une décennie est de l'ordre de 2%/an et tend à diminuer. La réduction de la dette n'a pas été la priorité des différents gouvernements que se sont succédés, c'est le moins qu'on puisse dire.

Un autre point problématique est que le solde primaire devient «naturellement» positif après une longue période de croissance: le déficit provenant de la récession précédente se comble peu à peu. Inversement, si une crise survient après un long épisode de discipline budgétaire, le déficit public sera moins important qu'après une période laxiste. C'est ce qu'on a pu constater dans la récession actuelle: l'Allemagne prévoit de ramener son déficit à 1.5% du PIB cette année, la France prévoit 5.7%. Une idée pour voir quel est l'effort réellement fourni est de regarder la variation du déficit public en fonction de la croissance, cette fois-ci en prenant la peine de colorer les points suivant le gouvernement à la fin de l'année. évolution du déficit vs croissance On voit que le PS a relativement plus de points en dessous de la droite de tendance, mais ce sont soit des dates maintenant anciennes (1990, 1992) ou pas trop éloignés de la droite de tendance (1998, 1999). De leur côté les gouvernements de droite ont aussi eu leurs années laxistes (2002, 2007), comme par hasard des années électorales. On remarque aussi que, parmi les années les plus vertueuses — ou les moins laxistes, il y a les années immédiatement après les récessions (1994, 2010) sans doute du fait d'un effet de rebond. On constate aussi que les années 1994, 1996 et 1997 sont parmi les vertueuses, de façon remarquable pour 1996, il faut dire qu'il fallait que le déficit soit inférieur à 3% du PIB pour adhérer à l'euro. L'année 1996 rattrapait une année 1995 marquée par une élection dont la campagne s'est caractérisée par une grande dose de mystification économique de la part du vainqueur, Jacques Chirac. Dès l'adhésion acquise, ces dispositions se sont volatilisées.

Ces considérations montrent que ce n'est pas la couleur politique du gouvernement qui entraîne plus ou moins de rigueur budgétaire, mais au contraire les nécessités politiques du moment. Il est vrai que les décisions prises par les gouvernement ont respecté les diverses vaches sacrées. Les gouvernements de droite ont réformé les retraites pour diminuer les dépenses en ce domaine, les socialistes ont tenté de maintenir l'assurance maladie à l'équilibre. De l'autre côté, les socialistes ont décidé des programmes d'emploi public non financés à terme — les emplois jeunes, les gouvernements de droite ont baissé les impôts alors que le déficit était encore élevé. Mais quand une nécessité politique s'impose, comme l'adhésion à l'euro, le déficit se réduit rapidement. Il faut dire que le niveau historiquement bas des taux d'intérêts une fois l'adhésion à l'euro acquise n'a pas incité les gouvernements à prendre des décisions que la discipline et la volonté de s'assurer contre une forte récession auraient imposées. Aujourd'hui, le coût de l'emprunt ne se limite plus aux seuls intérêts comme le montre la crise des dettes souveraines: on s'est aperçu qu'avoir des marges pour faire face à une contraction majeure était (re)devenu nécessaire à la fois pour nous-même mais aussi pour porter assistance aux autres membres de la zone euro. Il faut donc s'attendre à une certaine période de discipline fiscale, au moins tant que la crise de la zone euro perdurera.

26 mai 2011

Conséquences logiques de la prime dividendes

Les Échos de ce mercredi 25 mai publient un article sur les réactions à la prime «dividendes» imposée par le gouvernement. On y trouve les habituelles précisions de dernière minute: ainsi ceux qui auraient déjà négocié une prime dépendant du dividende seront exonérés de l'obligation de rouvrir les négociations. Figurent aussi en bonne place les profession de bonne foi, comme quoi s'interroger sur le partage de la valeur ajoutée est légitime ou encore qu'on est prêt à jouer le jeu, quoique pour une durée limitée, le passage des élections devant entraîner la fin de la plaisanterie. Mais la véritable substance de cet article est de constituer une illustration des conséquences de l'imposition par la loi de dispositions contraires aux forces de l'économie de marché.

Ainsi nous parle-t-on des contre-mesures prévues pour ne pas payer. La plus basique est de s'efforcer de ne pas remplir les conditions obligeant au versement de la prime. Pour bon nombre d'entreprises cotées, il était trop tard en avril, le montant du dividende est annoncé dans les 3 premiers mois pour le plus grand nombre qui clôt ses comptes à la fin de l'année calendaire. Pour les autres, on assiste évidemment à une manœuvre d'évitement. On paiera ainsi ce qu'on comptait payer, mais en procédant par rachat d'actions au lieu d'augmenter ces dividendes. La théorie la plus basique de la finance d'entreprise prétend que cela revient au même, les mêmes montants revenant à la communauté des actionnaires et la valeur totale de l'entreprise restant la même. Cependant, force est de constater que cette pratique est encore plus symbolique du «capitalisme financier» que la distribution du très classique dividende: le rachat d'actions n'est devenu pratique courante que dans les années 90... De plus, on peut s'interroger sur si leurs effets sont si neutres que cela: il semble au contraire que ce soit une manœuvre profitant principalement aux dirigeants ainsi que propice à camoufler la performance réelle de l'entreprise — et de ces mêmes dirigeants.

Pour les années suivantes, ceux qui se sont faits piéger cette année entendent bien que cela ne se reproduise point. Cette prime sera donc intégrée à la politique salariale des entreprises. Ce n'est pas une surprise, le partage de la valeur ajoutée entre les salaires et le capital s'est caractérisé par une grande constance dans le temps. Tout avantage coercitif a donc vocation à intégrer la politique salariale classique des entreprises, de même que les augmentations d'impôts sur les salaires finissent rapidement par être payés par les salariés. D'où les déclarations sans surprise pointant les modifications possibles dans les formules fixant la participation ou celles visant à intégrer cette prime dans les négociations annuelles à budget constant.

Tout ceci n'est guère étonnant. Comme dans d'autres sujets économiques, tel le contrôle des loyers, ce n'est pas parce que les connaissances accumulées mènent à un consensus ou que la logique classique permettent de dresser des conclusions qu'elles ont un quelconque effet sur les décisions politiques. En l'occurrence, il fallait sans doute montrer que le gouvernement était capable de faire quelque chose, même si — on serait tenté de dire particulièrement si — c'est idiot. La conclusion, c'est que le gouvernement n'a sans doute ramené aucun vote supplémentaire mais s'est attiré l'hostilité de son électorat habituel tout en prétendant distribuer de l'argent, une performance.

- page 3 de 4 -