Mot-clé - Institutions

Fil des billets - Fil des commentaires

18 mai 2014

De l'opposition au tribunal arbitral en matière de libre-échange

En ce moment, se déroulent des négociations sur un éventuel traité de libre-échange entre les États-Unis d'Amérique et l'Union Européenne. Selon les opposants, tout se déroule dans le plus grand secret, tellement bien gardé que la Commission Européenne publie ses objectifs et que la Maison Blanche fait de même. Une disposition qui suscite particulièrement l'ire des opposants est l'idée d'un tribunal arbitral chargé de faire respecter les dispositions du traité.

Pourquoi un tribunal?

À notre époque, le but d'un traité est de faire régir par le droit certains des rapports entre états ou entre un état et des entités privées dépendant d'un autre état. Ce qui veut dire que l'usage de la force est censé être exclu. Dans le passé, ou même parfois de nos jours, les disputes sur l'interprétation concrète des termes du traité se réglaient quand même ultimement par l'usage de la force. Ce fut la cause de certaines guerres et a laissé l'expression «diplomatie de la canonnière» dans le langage courant. Suite à la 1ère guerre mondiale, la Société des Nations fut fondée ainsi qu'une cour de justice pour régler les différends dans un cadre pacifique. La Société des Nations s'est révélée impuissante à empêcher la marche à la 2e guerre mondiale, mais les principes sont restés: il existe désormais de nombreux traités prévoyant des mécanismes de règlements des différends qui s'apparentent à des tribunaux. Certains traités ont même créé des cours criminelles pour réprimer les crimes les plus graves.

Les traités de libre-échange s'étendant sur de nombreuses pages, comptant de très nombreuses dispositions donnant les cas généraux et toutes sortes d'exceptions, ils font sans nul doute partie des traités les plus difficiles à interpréter. Les problèmes d'argent étant aussi une source intarissable de litiges variés, c'est sans doute le domaine du droit international où ce type d'organe est le plus répandu. Une littérature abondante s'est développée et les traités commerciaux prévoient souvent de régler les différends soit via un forum ad hoc soit via un des tribunaux arbitraux permanents.

On peut se demander si on ne pourrait pas faire régler ces questions par les juridictions nationales classiques. Outre la question du choix du pays devant régler la question, un problème d'apparences se pose: pour éviter des soupçons de partialité ou de convenance politique, il vaut mieux que les juges soient envoyés par chacune des 2 parties ou désignés parmi un collège constitué de juges provenant de multiples pays.

Une menace pour la démocratie?

Un exemple de tribunal international créé par un traité de libre-échange est la Cour de Justice de l'Union Européenne. Elle fut originellement créée par le traité fondant la CECA, ses compétences ont été étendues progressivement par les traités européens suivants. Elle peut être saisie par les personnes physiques ou morales — dont les multinationales — via des actions judiciaires dans les tribunaux nationaux depuis au moins le traité de Rome de 1957. Un des buts premiers de la CJUE est d'offrir une voie de contestation des décisions des états ou de l'organe exécutif européen, la Commission, et donc de contester des décisions prises par des gouvernements démocratiquement élus.

Vue l'ancienneté de l'Union Européenne, comme Alexandre Delaigue, il me paraît bien excessif de crier à la fin de la démocratie. On peut quand même commencer à distinguer plusieurs types d'oppositions. La première, c'est celle des souverainistes, tels qu'on les trouve au Front de Gauche ou au Front National: comme ils s'opposent à toute perte de souveraineté, ils sont contre tout traité de libre-échange, y compris celui fondant l'Union Européenne. De fait, si on refuse toute perte de souveraineté, il ne peut pas vraiment y avoir d'accord commercial international, ou alors sur des broutilles, les pays avec lesquels on voudrait trouver un accord craignant qu'on revienne dessus à la première occasion. C'est pourquoi il est particulièrement risible pour ces formations de clamer ne pas être anti-européennes.

La seconde, c'est celle des Verts, dont le spécialiste du sujet, Yannick Jadot, nous dit que ce traité fait peser des menaces gigantesques sur nos modes de vie comme sur notre démocratie toute entière. Or, les Verts ne sont pas opposés par principe aux transferts de souveraineté: ils sont par exemple favorables à la Cour Pénale Internationale et cultivent une image pro-européenne. Cette opposition paraît donc plus liée à des cas d'espèces de produits ou de pratiques qui pourraient devenir autorisés. On peut en fait subodorer que cette opposition est en premier lieu liée aux produits alimentaires, aux produits chimiques et à l'industrie minière. La Commission déclare que les produits chimiques seront de fait exclus du périmètre de l'accord. Quant aux mines — sujet dans lequel il faut ranger le gaz de schiste — les permis d'exploiter sont résolument restés une prérogative nationale: il est peu probable que le traité impose aux états d'accorder des permis. Il reste donc principalement les produits alimentaires (OGMs…).

Et de fait, la peur d'une condamnation européenne a déjà amené la France à autoriser la commercialisation d'au moins un produit, en l'occurrence, le Red-Bull ®. Une autre organisation a un fort impact en la matière: l'OMC qui dispose elle aussi de son propre tribunal, l'organe de règlement des différends qui ne peut être saisi que par les états. L'Union Européenne a déjà été condamnée 2 fois sur des affaires alimentaires:

  1. Sur le bœuf aux hormones, décision dont il a été question sur ce blog. Pour résumer, l'UE a été incapable de montrer qu'il existait un risque même infime pour la santé de consommer du bœuf aux hormones; seul un expert, nommé par les USA, a donné un maximum de 1 cancer par million de personnes consommant 500g par jour de viande aux hormones. À la suite de quoi, le tribunal a analysé la situation à la lumière du principe de précaution et condamné l'UE. Une partie des mesures de rétorsion autorisées à cette occasion sont toujours en vigueur.
  2. Sur l'importation d'OGMs, l'UE a été condamnée suite à l'adoption d'un moratoire sur les autorisations. Elle a été condamnée pour avoir trop traîné les pieds pour autoriser l'importation de ces denrées — en général destinées à la consommation animale — ainsi que pour les mesures de sauvegardes prises par les états membres (pour les mêmes raisons que dans l'affaire du bœuf aux hormones). Cette condamnation explique sans doute en grande partie pourquoi l'importation d'OGMs est autorisée dans l'UE.

Ces condamnations sont basées sur l'accord sur les mesures sanitaires et phytosanitaires (SPS), dont il ressort en gros que, pour interdire l'importation d'aliments, il faut au moins avancer une raison scientifiquement fondée et pas uniquement se baser sur des hypothèses. L'innovation principale du tribunal du TTIP étant la possibilité de saisine par des personnes morales et physiques, il est très probable que les associations d'agriculteurs US vont essayer, dès l'entrée en vigueur du nouveau traité, de faire valoir l'autorisation de mise sur le marché de la FDA comme autorisant l'exportation en Europe. Étant donné le consensus scientifique sur la question, il y a des chances qu'ils l'obtiennent.

L'opposition des écologistes au tribunal s'explique donc sans doute par leur opposition à des traités déjà signés, mais dont l'application dépend de fait du bon vouloir des états à porter l'affaire devant l'OMC. Avec la possibilité de porter plainte directement, les firmes ou les associations d'intérêts pourraient faire reconnaître leurs droits plus facilement. Le tribunal ne permet pas grand chose par lui-même: ses décisions dépendront avant tout du texte des autres dispositions du traité ainsi que des traités qui l'ont précédé.

Quels enjeux?

Comme Alexandre Delaigue, je pense que l'enjeu principal de ce traité est de s'entendre sur des normes communes entre les USA et l'UE pour contrer les futures normes chinoises. Ce travail en commun entre occidentaux est courant sur de nombreux sujets — par exemple, le codage des vidéos — avec des spécialités par zones — par exemple, les normes européennes sur les émissions des voitures servent souvent de base ailleurs.

Cette uniformisation des normes requiert en contrepartie que les normes soient dans le futur élaborées en commun et aussi qu'aucune des 2 parties ne puisse arbitrairement décider de refuser certains produits, dès l'instant que les normes communes sont respectées. De fait, cela veut dire que la possibilité d'opposition politique à certaines nouveautés sera réduite. L'étendue de cette réduction dépendra du nombre de domaines couverts par l'accord. On peut cependant supposer que les produits déjà couverts par des accords précédents ne pourront plus subir d'opposition — ce qui inclut notamment les OGMs. Pour s'assurer qu'aucune des 2 parties ne pourra exercer de refus arbitraire, la mise en place d'un tribunal sera requise par les 2 parties.

Pour simplifier, les opposants au tribunal sont soit des opposants de toujours au libre-échange soit veulent surtout conserver la liberté de s'asseoir sur une partie des traités déjà signés, faute de pouvoir les rejeter en bloc de façon réaliste. Malheureusement pour ces derniers, l'expansion du droit international rend l'inclusion d'un tribunal que pourront saisir directement des firmes ou des lobbies (voire dans des cas exceptionnels, des personnes physiques) pratiquement obligatoire dans un futur traité avec les USA.

25 février 2014

La démocratie des crédules

Gérald Bronner, professeur de sociologie, a publié son ouvrage La démocratie des crédules l'an dernier. En conséquence, il a déjà été commenté ailleurs (critiques favorables sur contrepoints, sur le site de l'AFIS, chez Christophe Ginisty, un professionnel de la communication; critiques défavorables sur Slate et ) et l'auteur a eu l'occasion de s'exprimer dans les médias à diverses reprises (interview aux Échos, une vidéo là, passage à l'Esprit Public sur France Culture). Le domaine de prédilection de Gérald Bronner est celui de l'étude des croyances, définies comme l'ensemble de ce qu'un individu tient pour vrai. La thèse de La démocratie des crédules est que les biais cognitifs commun à l'ensemble du genre humain, l'apparition d'Internet et de ses capacités à diffuser et agréger des opinions, l'intensification de la concurrence entre médias ouvrent la porte à la diffusion de croyances fausses, dégradant fortement le débat démocratique et la rationalité des décisions.

Avant d'aborder le fond, ce livre recèle un nombre surprenant de coquilles. C'est aussi le type de livre qui se prêterait à merveille à une édition numérique spéciale: l'auteur y décrit un certain nombre de travaux de sociologie — dont bon nombre des siens — et renvoie à un certain nombre de sites web tout au long du texte.

La crédulité humaine, ses origines et ses conséquences

Le livre est traversé par l'exposé de limitations de l'esprit humain quand il s'agit de déterminer la véracité de certaines assertions. En effet, l'esprit humain utilise un certain nombre de raccourcis dans la vie courante. Le premier biais est le biais de confirmation qui conduit dans la plupart des cas à préférer les argumentations qui confirment ce qu'on pense déjà vrai, ne pas chercher s'il pourrait exister une preuve inverse ou à ignorer les effets dus aux hasard sur des grands nombres. Ensuite, même si l'être humain est assez doué pour le raisonnement logique, certains aspects lui sont plus difficiles: c'est le cas de l'appréhension de l'implication ou de la manipulation des probabilités conditionnelles. Il est aussi connu que si l'esprit humain appréhende bien les probabilités proches de ½, il appréhende très mal les probabilités proches de 0 ou de 1 en donnant plus d'importance qu'il ne faudrait aux évènements peu probables. Le point commun de ces biais est qu'il faut produire un effort pour appréhender correctement la situation: en temps normal, pour gagner du temps, nous préférons le moindre effort intellectuel. Ces biais sont importants pour le débat public: en général les tenants d'une thèse ne vont exposer que les éléments qui leur sont favorables. On peut aussi remarquer que bon nombre d'assertions en débat sont en fait des énoncés probabilistes ou statistiques. C'est particulièrement vrai quand il s'agit de traiter de risques: au problème de l'appréhension des probabilités, vient s'ajouter le problème de la dissymétrie dans l'appréhension des bénéfices et des risques, à l'avantage de ces derniers.

Gérald Bronner voit Internet comme un outil qui sert les croyances, y compris les plus farfelues. Internet permet en effet de disposer d'une mémoire latente d'une taille extraordinaire et de pouvoir communiquer avec ceux qui partagent les mêmes préoccupations, fussent-elles extrêmement confidentielles. Cela permet à des groupes marginaux de regrouper rapidement leurs arguments et de les faire connaître. Le livre s'attarde sur des phénomènes de constitution de rumeurs, comme suite à la mort de Michael Jackson ou aux attentats du 11 septembre 2001, pour constater qu'Internet permet d'accumuler un grand nombre d'arguments, pas forcément tous compatibles entre eux d'ailleurs, en faveur de l'existence d'un complot en un temps réduit. Tout ce qui est nécessaire est de la motivation. Cette motivation, caractéristique essentielle des militants, se traduit par le fait qu'une vision rationnelle du monde n'est pas forcément majoritaire lorsqu'on fait une recherche sur Internet. L'auteur prend 5 exemples: l'astrologie où on peut constater l'importance de l'exploitation commerciale, les crop circles, l'aspartame, le monstre du Loch Ness et la télékinésie. Il a effectué courant 2010 des recherches sur Google sur ces thèmes et a constaté que les sites répandant des croyances fondées sur rien de scientifique étaient de loin majoritaires! Les recherches menées pour l'écriture de ce billet montrent que ce n'est plus toujours le cas, comme dans le cas de l'aspartame, où la communication des agences de sécurité sanitaire a pris le dessus à l'aide d'articles de presse. La motivation des croyants et leur maîtrise technique leur permet d'obtenir une exposition tout à fait correcte. De plus, les résultats des recherches sont influencées par la requête: ajouter «complot» à toute recherche comme cet auditeur de radio cité dans le livre va évidemment donner un grand nombre de résultats penchant dans ce sens!

Le livre s'intéresse ensuite à l'influence de la concurrence entre média dans la diffusion des croyances. Pour Gérald Bronner, le mouvement de libéralisation des fréquences et l'apparition d'Internet ont provoqué un trop-plein de concurrence. En voulant toujours aller plus vite que le voisin, il est tentant de ne plus vérifier. En voulant attirer le chaland avec des nouvelles fracassantes, il est tentant de relayer des rumeurs farfelues. Le point de l'auteur n'est pas que le milieu médiatique soit malhonnête mais que la logique concurrentielle pousse à relayer des croyances. La vitesse de publication en particulier oblige les journaliste à prendre les raccourcis intellectuels qui donnent une perception faussée de la réalité.

Enfin, la combinaison de ces trois éléments met en danger la démocratie. La démocratie repose sur des décisions prises en commun et elles sont sujettes aux biais de raisonnement lorsque ceux-ci poussent toujours dans le même sens de décision. Les erreurs de raisonnement peuvent être corrigées au cours du temps nécessaire à l'élaboration de la décision: voter une loi y prend du temps. Mais comme les croyances ont de plus en plus d'exposition, notamment dans les média, il est de plus en plus difficile de prévaloir sur les biais cognitifs. Si, auparavant, la correction des erreurs de raisonnement n'avait rien d'obligatoire, elle devient de plus en plus difficile, car la voix des croyants motivés a de plus en plus de résonnance. Gérald Bronner s'attarde sur deux processus apparus plus ou moins récemment dont l'idée était de faire apparaître un consensus rationnel grâce à la délibération ou la publication d'éléments de fait, ce qu'on appelle la transparence. La délibération est illustrée par les débats publics pour la construction d'infrastructures. Le problème est que ne participent à ces débats que les gens motivés. Ce sont pratiquement toujours des opposants. En conséquence, ils sont surtout l'occasion pour les opposants d'exprimer leur point de vue sans relâche. La transparence est illustrée par la publication de toutes sortes de statistiques sur des sites web dépendant de l'état. Le problème est une nouvelle fois qu'on peut en faire un usage biaisé: dans une telle masse de données, on peut faire apparaître des choses qui ont l'odeur du scandale en n'en regardant qu'une partie, mais qui le sont nettement moins quand on regarde un ensemble plus grand. L'auteur prend l'exemple de la soi-disant vague de suicides à France Télécom où le taux de suicide était en fait très comparable au reste du pays.

Quels remèdes?

À l'opposé ce qu'on entend souvent sur la question, Gérald Bronner ne plaide pas pour plus d’éducation pour lutter contre cette progression des croyances farfelues. Il constate en effet que l'irrationalité ne disparaît pas avec la hausse du niveau d'éducation. C'est par exemple ce qu'on peut constater dans le domaine de l'énergie. Par contre, ce qui est constaté, c'est que statistiquement, avoir un diplôme du supérieur scientifique réduit cette proportion. En conséquence, Gérald Bronner suggère d'insister sur des enseignements qui vont à l'encontre des pentes naturelles de l'esprit — et qui ont souvent une coloration scientifique.

Il demande aussi que les journalistes soient mieux formés à ces mêmes biais cognitifs et aux formes usuelles de légendes urbaines. Il appelle aussi à la formation d'un organe professionnel pouvant sanctionner les errements les plus graves de la profession. Enfin, il recommande une modification de la communication de la part des scientifiques, tant dans la forme que dans l'engagement.

Ce que j'en ai pensé

Je trouve que la lecture de ce livre est tout à fait recommandée. J'ai particulièrement apprécié la description des nombreux biais de l'esprit qui nuisent à une compréhension rationnelle du monde par l'ensemble d'entre nous. Ces biais sont utilisés, consciemment ou pas, par les tenants des croyances. La position de l'auteur sur le danger pour la démocratie, ou plus exactement sur la possibilité de prendre des décisions rationnelles en démocratie, est aussi largement fondée. Sur beaucoup de sujets où la technique est fort présente, on peut constater que ce n'est pas le consensus scientifique sur la question qui borne l'univers des possibles.

Les deux types biais qui m'ont semblé très pertinents. La première catégorie est celle liée à la logique mathématique et notamment aux probabilité conditionnelles. Ayant dans ma prime jeunesse suivi des cours de maths, je peux confirmer que les réflexes en la matière ne s'acquièrent qu'avec une certaine pratique et que même alors, ce n'est pas aussi naturel qu'on pourrait le penser. Ce cursus m'a aussi permis de m'apercevoir que les énoncés probabilistes étaient le meilleur exemple de l'énoncé pourri, celui qui vous induit en erreur. L'entrainement en la matière n'est certainement pas inutile, puisque j'ai trouvé que certains énoncés donnés dans le livre étaient incomplets pour qu'on puisse apporter une réponse. Il faut cependant remarquer une nouvelle fois que nombre d'exposés actuels sont en termes de probabilités ou de statistiques et qu'ils sont donc intrinsèquement difficiles à appréhender. On ne peut pas non plus facilement modifier l'énoncé d'un problème qui fait polémique pour le sortir de l'ambiguïté!

La deuxième catégorie est celle du biais que Gérald Bronner nomme «effet Fort» où l'argumentation procède par une logique d'accumulation et où tout ce qui est avancé en faveur d'une thèse n'a en fait même pas besoin de l'être. Je trouve que l'exposé de ce biais, dont la logique est celle de «il n'y a pas de fumée sans feu», trouve de nombreux échos dans le débat public actuel. Cela explique aussi la grande difficulté des contradicteurs «rationalistes»: pour répliquer il faut bien connaître les arguments de ses adversaires, ce qui est nettement plus difficile quand il y en a beaucoup! Les experts qui voudraient contredire se trouvent aussi parfois en position de concéder des points à ceux dont ils contestent les thèses. Ce faisant, ils renforcent la validité de la thèse adverse, même si le point concédé ne devrait pas logiquement venir en soutien de cette thèse. Pour contester efficacement une thèse farfelue, on conçoit alors que la motivation devient primordiale. Or cette motivation est un des aspects fondamentaux du prosélyte qui cherche à répandre sa croyance.

Ce qui m'amène à la critique principale du livre: les solutions proposées ne semblent pas à la hauteur du problème. Commençons par l'évolution de la communication de la part des scientifiques et experts. Outre que ceux-ci sont souvent mal préparés à intervenir dans les médias, en partie faute de la motivation propre aux prosélytes, il faut bien constater que recourir aux biais de l'esprit amène sur une pente glissante et à pouvoir répandre des croyances. Pour prendre un exemple, je vais partir d'un élément contenu dans le livre: un sondage a trouvé que 65% des français pensent que respirer l'air des villes est aussi dangereux que fumer du tabac (figure 12, p19). Il m'est difficile de ne pas rapprocher cela des fameux 42000 morts des particules, qui sortent tout droit de la communication qui a entouré une étude scientifique sur la question, et dont j'ai tenté de montrer, tant bien que mal, que ces morts n'avaient rien de comparable aux morts du tabac. User des biais de l'esprit emporte donc à mon sens un certain nombre de risques que les tenants de la rationalité peuvent à bon droit rechigner à prendre.

L'enseignement de la logique mathématique aux journalistes me semble se heurter à un obstacle de taille: le manque de goût qu'ont sans doute ceux-ci pour les maths! En effet, s'ils ont choisi une autre voie d'enseignement, c'est sans doute que les maths n'étaient pas leur matière préférée. Et on voit là que statistiquement le fait que les journalistes soient de formation littéraire les rend plus sensibles aux croyances, notamment dans les domaines techniques. Toujours sur le sujet des journalistes, si on peut certainement blâmer la situation du marché de l'information pour la qualité du traitement, ce ne peut être le seul élément. La malhonnêteté de certains ou leur idéologie les conduit à privilégier et répandre des croyances. Le cas du témoignage de Djamel, jeune homme qui prétendait avoir été violé par Dominique Baudis mais dont on avait coupé au montage les déclarations comme quoi il se disait aussi fils de Michael Jackson et violé par Sarkozy, est exemplaire à ce sujet: c'est là un acte qu'il est difficile de qualifier autrement que de malveillant. Quant à espérer un virage vers un journalisme de qualité tombant moins dans le piège de l'urgence, on risque de prolonger la tendance à la segmentation du marché par préférences politiques … et on risquerait alors de voir plus de reportages du type de celui où on va à la rencontre des électro-hypersensibles sans aucune distance critique.

Au final, ce livre me semble salutaire en ce qu'il expose clairement un certain nombre de biais dont nous pouvons tous être victimes, ce qui est un premier pas pour essayer de s'en prémunir. Le livre est aussi convaincant dans l'enchainement qui cause la piètre qualité du débat public sur nombre de question à forte composante technique. Mais, même si l'auteur se veut optimiste en présentant ses solutions, il est difficile de ne pas finir la lecture de ce livre plus pessimiste qu'on ne l'a commencée.

23 août 2013

Le marché des quotas de CO₂ a-t-il échoué?

Le rapport de la Cour des Compte sur les énergies renouvelables comporte une partie où elle tente d'évaluer les bénéfices des diverses politiques d'aide mises en place. Pour cela, il est pratique de pouvoir donner un prix aux tonnes de CO₂ dont on aura évité l'émission, puisque c'est là un des buts avoués de la politique en faveur des énergies renouvelables. Elle distingue divers modes de valorisation parmi lesquels le marché des droits à polluer, la valeur tutélaire — qui est une sorte de valorisation intrinsèque des bénéfices de moindres émissions — et la valorisation fiscale. Après avoir constaté le faible prix des droits à émettre du CO₂, elle affirme que en raison de l'échec du marché à valoriser le carbone, la seule valorisation qui intègre les dommages environnementaux reste une valorisation théorique publique, appelée valeur tutélaire du carbone. C'est une antienne qui est souvent reprise dans les média tant francophones qu'anglophones et qui me semble attribuer à ce marché une tache qu'il ne pouvait effectuer.

L'essence du marché du carbone est la suivante: les états de l'UE (et quelques autres) émettent des titres qui donnent le droit de rejeter dans l'atmosphère du CO₂, avec 1 tonne de rejet pour 1 titre. Pour des raisons pratiques, seul un certain nombre d'industries sont obligées d'en détenir, les particuliers en sont par exemple dispensés. Le principe est alors de placer une limite supérieure globale aux rejets des grandes industries comme la sidérurgie, la fabrication de ciment et d'électricité. Cette limite supérieure, actuellement d'un peu plus de 2Gt, décroît d'année en année, il est prévu que la quantité de titres créés par les états baisse de 1.7% par an d'ici 2020. De cette façon, les rejets de CO₂ peuvent être progressivement amenés à un niveau ne mettant pas trop en danger l'équilibre climatique de la planète. Ces titres sont prévus pour être échangeables contre de l'argent — y compris auprès des états qui mettent aux enchères une partie des titres émis chaque année — ce qui fait que la répartition des efforts de réduction des rejets n'est pas fixée à l'avance, et devrait commencer par là où c'est le moins cher, les industries où il est plus facile d'éviter de rejeter du CO₂ revendant leurs crédit aux autres ou passant leur tour lors des enchères. Si une entreprise rejette du CO₂ sans avoir acquis de droit à polluer, elle doit payer une amende, ce qui fait que lorsque la limite supérieure des rejets est dépassée, ce système se transforme en taxe carbone. On voit donc que le résultat est de se donner une quantité maximale de pollution émise chaque année.

En fait, les états ne sont pas la seule source de droits à polluer. Le protocole de Kyoto a créé des certificats de réduction des émissions via ce qui est pompeusement désigné sous le nom de mécanisme de développement propre, alias CDM. L'ensemble des certificats émis représente environ 1.4Gt de CO₂, ils peuvent être utilisées dans l'UE au même titre que les droits émis par les états. Ce sont donc 1.05Gt qui se sont retrouvés ces 5 dernières années sur le marché européen. Soit environ 10% du total des titres émis par les états ou l'équivalent des titres créés par la Pologne. La même Pologne qui a tenté d'obtenir le droit de donner des crédits gratuits pour des usines inexistantes. Dans le même ordre d'idées, des manœuvres ont fait que les crédits obtenus par le CDM ne sont valables qu'à condition qu'ils n'aient pas été attribués pour la construction d'une centrale nucléaire ou pour la création d'une forêt, par exemple. Pourquoi ces exceptions, alors que construire certains types de centrales au charbon y donne droit? Eh bien, parce que! … Ou bien plus exactement qu'il faut bien faire un compromis pour faire passer certaines mesures. Dans le cas d'un marché comme les droits à polluer, les compromis sur les quantités de titres sont fondamentaux. Une fois qu'ils sont actés, il est très difficile de revenir dessus … et difficile de blâmer le marché du carbone lui-même pour les décisions qui ont mené là: après tout, la contrainte majeure de ce marché est cette quantité de titres créés!

Un autre exemple de cette dépendance à la quantité de titres est le marché US des droits à émettre du dioxyde de soufre (SO₂), gaz qui entraîne des pluies acides. Ce système est souvent vanté comme ayant très bien marché. Il est crédité d'une baisse des émissions de 43% entre 1990 et 2007. Mais comme le nombre de permis émis chaque année n'a pas varié depuis 2000, car le Congrès n'a pas réussi à trouver un accord, le prix des permis s'est effondré. En fait, il s'avère que ce système pêche par sa rigidité: pour modifier le paramètre principal qui est le nombre de titres émis chaque année, il faut passer par le Congrès. La réglementation est nettement plus facile à modifier et c'est ce qui s'est passé aux USA: la réglementation a été durcie au point où il est impossible d'atteindre le plafond d'émissions. On a aussi assisté à un retrait du charbon au profit du gaz de schiste dans la production d'électricité. Mais personne ne dit que le marché du SO₂ est un échec parce que le prix des permis est trop bas; pour constater si les buts sont atteints, on regarde si le plafond a été respecté et combien cela a coûté. On ne se pose même pas la question de savoir s'il eût été possible de faire mieux, or il s'avère que dans le même temps, l'UE a fait bien mieux. Les émissions de SO₂ y ont été divisées par 3, certains pays comme le Royaume-Uni les ont divisées par 6. La cause en est que l'UE a édicté des réglementation strictes notamment via les directives GIC (LCP en anglais) et IED.

Dans le domaine des émissions de CO₂, on constate que l'UE a aussi adopté toute une série de réglementations qui visent à diminuer les émissions. On peut citer les engagements sur les énergies renouvelables, sur l'efficacité énergétique ou même les directives LCP et IED qui vont faire fermer de vieilles centrales au charbon et au fioul. Des évènements non prévus au départ peuvent aussi permettre de respecter le plafond sans effort. La dépression actuelle en fait partie: de nombreuses aciéries et cimenteries ont fermé, la demande en électricité stagne voir baisse à cause de la faillite de nombreuses entreprises et de la baisse du niveau de vie des habitants. Évidemment, peu souhaitaient que le respect du plafond d'émissions passe par une crise pareille et le scénario prévu était que des investissements permettraient de conjuguer croissance et limitation des émissions de CO₂. C'est simplement ignorer que devenir l'Albanie est une façon de réduire drastiquement les émissions de CO₂. Après tout le marché du CO₂ ne dit pas comment réduire les émissions, mais fixe juste la limite à ne pas dépasser. Le prix des permis ne fait que refléter l'effort qu'il faut faire pour être sûr de ne pas dépasser le plafond ou alors, lorsqu'on est trop près ou delà du plafond, le prix de l'amende.

Comme le prix des permis reflète surtout l'effort à faire pour rester sous le plafond prévu à l'origine, il n'y a aucune raison que ce prix reflète le coût pour la société de la pollution. On peut même dire que les promoteurs d'un tel système espèrent ouvertement que le prix des permis soit nettement inférieur au coût de la pollution. Que les prix du carbone sur le marché soient bas n'est pas en soi-même un échec. S'en plaindre, c'est surtout se plaindre que les évènements n'ont pas été conforme à ce qui avait été prévu. Or sur le marché du carbone, le prix s'ajuste en partie par ces évènements imprévus, qu'ils soient bons ou mauvais. Cela veut aussi dire que les valorisations théoriques et via le marché n'ont pas les mêmes significations. Une valorisation théorique donne une idée des sommes qu'on peut rationnellement payer pour éviter une pollution, en dehors de toute autre considération, notamment de savoir s'il existe une façon plus économique de faire. La valorisation par le marché a pour but de rechercher la façon la plus économique d'atteindre une certaine quantité de pollution. En ce sens, il n'y a pas à se prévaloir d'un éventuel échec du marché pour se référer à une valorisation théorique, d'une part parce que le marché ne couvre pas l'ensemble des des émissions, d'autre part parce qu'il peut finalement devenir rationnel de diminuer la pollution plus qu'il n'était prévu au départ. Inversement, un prix bas sur le marché du carbone signale surtout que les objectifs fixés au départ vont être atteints sans beaucoup d'efforts, mais sans rien dire sur la situation générale de l'UE.

Finalement, on peut dire qu'on affuble la situation actuelle du marché du CO₂ du nom d'échec pour de mauvaises raisons. Ce qui est regretté, c'est que les choses ne sont pas passées comme prévu: c'est la crise qui a fait s'effondrer les émissions dans le secteur industriel, pas une quelconque innovation. C'est oublier que le marché ne fait que fixer un maximum d'émission — qui peut être dépassé en payant une amende, d'ailleurs — et que d'autres politiques que le seul marché du CO₂ sont en place pour essayer de faire baisser les émissions, comme par exemple les subventions aux énergies renouvelables. Il est inévitable que ces subventions exercent une pression à la baisse sur les prix des permis … en engageant parfois des dépenses astronomiques. On ne peut pas non plus confondre le coût théorique de la pollution et le prix des permis, puisqu'en fait l'espoir est que la pollution sera réduite en dépensant moins que ce que la pollution coûte à la société. Au fond, le marché du CO₂ n'est que la voiture balais des politiques européennes sur le sujet, c'est une tentative de fixer un plafond annuel d'émissions. Se plaindre de son échec du fait du bas prix des permis, c'est un peu se plaindre que la voiture balais soit vide à l'arrivée d'une étape du Tour de France. L'étape était peut-être trop facile, peut-être le peloton n'est-il composé que de dopés, mais rien de tout cela n'est la faute de la voiture balais.

7 avril 2013

Léger accès de cynisme

Il faut revenir de Mars pour avoir manqué ce qui semble l'évènement du mois en politique nationale: que Jérôme Cahuzac a avoué posséder 600k€ sur un compte non déclaré au fisc, récemment encore ouvert chez une banque singapourienne. Depuis se succèdent, de tous bords, déclarations scandalisées et émues et appels à plus d'éthique qui, je dois le dire, me laissent de marbre.

Commençons par l'aveu de Jérôme Cahuzac. Il a donc avoué avoir caché au fisc 600k€ à la date d'aujourd'hui, le compte bancaire ayant changé de domiciliation au cours du temps. Si cette somme représente plus de 4 fois le patrimoine médian d'un français, d'autres dissimulations plus importantes encore n'ont pas fait l'objet de scandale. Qu'on en juge: lors de la campagne électorale de 2007, la candidate d'alors du PS, Ségolène Royal a dévoilé une évaluation de son patrimoine, tel que déclaré au fisc. J'en avais déjà parlé lorsque j'avais évoqué la réforme de l'ISF, mais il est intéressant d'y revenir. Dans le Canard Enchaîné du 7 mars 2007, cette déclaration était taillée en pièces pour cause de sous-estimation systématique. L'essentiel du patrimoine consistait en des biens immobiliers. Il s'avérait, notamment, qu'une villa à Mougins était déclarée comme valant 270k€, moins que la valeur du terrain (295k€ selon le Canard), et ne représentant qu'à grand' peine le tiers de la valeur totale du bien, l'estimation minimale donnée dans l'hebdomadaire étant de 850k€ … et il laisse aussi lourdement entendre qu'elle vaudrait 1M€. Il était aussi question de l'appartement de Boulogne-Billancourt, évalué à 750k€, moins que sa valeur d'achat, et alors que les prix de 2005 le donnaient à environ 1.2M€. On comprend donc que la déclaration de la candidate, même si le patrimoine à déclarer ne recouvrait pas l'ensemble de la valeur, était minorée d'au moins la même somme qu'on reproche aujourd'hui à Jérôme Cahuzac d'avoir dissimulée. On se souvient de la tempête qu'avait provoquée cet article … ou pas. On ne peut alors que remarquer la différence d'appréciation entre les 2 cas et simplement remarquer qu'il est alors fort dangereux d'appeler à ce que ceux qui dissimulent leur patrimoine au fisc soit frappés d'inéligibilité à vie.

On est en fait largement en face d'une énième illustration de ce que la détention d'un patrimoine financier est vue comme illégitime par une large part de la population française. Déjà en 1971, un scandale avait éclaboussé Jacques Chaban-Delmas qui n'avait pas payé d'impôt sur le revenu pendant plusieurs années, grâce au système de l'avoir fiscal. L'avoir fiscal représentait l'équivalent de ce qui était perçu comme impôt sur les société et mis au crédit de celui qui percevait les dividendes pour éviter une double imposition. La réaction de l'époque de Françoise Giroud montre combien ça ne la choque pas que les revenus financiers puissent être taxés du même fait plusieurs fois. Alors que, dans le même temps, l'immobilier, qui ne donne lieu à aucun flux financier quand on occupe soi-même le bien, est de ce fait libre d'impôt et c'est même un des arguments souvent avancés pour pousser les gens à acheter leur résidence principale. Il est donc bien vu d'avoir un bien notoirement sous-évalué, et dont la détention permet de faire des économies d'impôts. Il me semble donc que le scandale provoqué ait pris l'ampleur actuelle non seulement parce qu'il fait suite à un mensonge éhonté de la part du ministre du budget, mais aussi à cause de la mauvaise image du patrimoine financier en France. Pendant ce temps-là, un sénateur sur lequel pèse des soupçons d'association de malfaiteurs — en clair, d'avoir extorqué des fonds à la communauté via un système mafieux — est toujours membre du PS et ne fait pas la une des journaux, alors que Jérôme Cahuzac se serait exclu lui-même du PS par son comportement.

Tout ceci pour dire que cet épisode me fait penser à un ouvrage bien connu pour son cynisme mais jetant un éclairage intéressant sur le comportement de nos hommes politiques. Il y est dit, dans un chapitre majeur, qu'ils ne doivent rien dire à destination du public qui ne respire le Bien et toujours paraître vertueux — ce qui explique qu'aucun politique ne se réclame des enseignements de ce livre. C'est non seulement ainsi qu'a agi Jérôme Cahuzac jusqu'à ce qu'il ne puisse faire autrement, mais aussi, maintenant, l'ensemble de la classe politique. On peut aussi constater que la majeure partie de ces discours est dénuée de tout raisonnement. Personne ne se demande si, par hasard, le fait que des gens riches planquent leur argent dans des paradis fiscaux, dans des sociétés écrans ou encore minorent largement leur patrimoine n'est pas dû au fait que l'impôt sur la fortune est considéré comme illégitime, même par certains de ses défenseurs? Que les taux de taxation sur le capital découragent toute autre forme d'investissements que ce qui est exonéré, sans risque ou alors camouflé? Au lieu de cela, nous avons droit à des éditoriaux clamant que la finance offshore est l'ennemi patenté de la démocratie qui ne prennent même pas la peine d'apporter un seul élément montrant que les paradis fiscaux menacent la tenue d'élections libres, la liberté de parole, les droits individuels des citoyens, la séparation des pouvoirs, etc. Rien n'est dit sur le fait qu'en proposant un moyen de payer moins d'impôts, ils participent à limiter le pouvoir discrétionnaire de l'état, un élément essentiel de la démocratie. On peut certes arguer qu'ils permettent d'opérer en secret, mais ceci est aussi possible dans des pays qui ne sont pas considérés comme des paradis fiscaux, comme les États-Unis, par exemple.

Un autre point très important du Prince est que ce sont surtout les résultats qui comptent. Pour se maintenir, tous les moyens sont bons, conception qui, en démocratie, est devenue la fin justifie les moyens — ce qui est un progrès considérable, puisqu'on doit se justifier! Or, force est de constater que c'est le reproche principal qui est fait aux politiques: le manque de résultats, surtout, d'ailleurs, quand on les compare aux discours. On peut dire qu'en fait, pour Machiavel, les politiques d'aujourd'hui seraient de mauvais hommes d'état, puisqu'ils voient régulièrement leurs mensonges et leurs contradictions leur revenir dans la figure, ce qui doit être évité à tout prix si on comprend bien le livre!

Il faut bien dire que trouver une issue à cette situation n'est pas facile. En effet, pour arriver au pouvoir, un politique a intérêt à promettre tout ce qu'il faut pour arriver au pouvoir, même si ça doit le mettre dans une situation impossible ensuite. Il n'y a pas non plus de force de rappel contre ceux qui tiennent des propos qui ne peuvent mener qu'à la déconsidération générale des politiques s'ils l'emportent. Un bon exemple de cela est la mystification à laquelle s'est livrée Laurent Fabius lors de la campagne référendaire de 2005. Laurent Fabius a argué qu'il ne fallait adopter du traité présenté au référendum que la partie institutionnelle et que la présence du reste devait faire voter non. Comme il l'a emporté, c'est le traité de Lisbonne qui a été adopté mais tout le monde a bien vu ce qui avait été annoncé par les tenants du oui: que procéder ainsi revenait à adopter en fait le traité soumis à référendum, puisqu'en dehors des questions institutionnelles, il n'y avait pas grand chose de neuf. L'adoption du traité de Lisbonne est ainsi vue comme une filouterie démocratique alors qu'en fait il s'agissait de faire ce qu'avait proposé l'homme qui avait probablement fait basculer le scrutin.

Les politiques ne sont pas les seuls d'ailleurs à empoisonner le puits. Si la presse aide certainement à faire la lumière sur certains des mensonges des politiques, elle peut prêter le flanc voire organiser certaines mystifications. Un des exemples les plus parlants est celui du nuage de Tchernobyl. Après avoir publié les communiqués du SCPRI mentionnant le passage du fameux nuage au-dessus de la France, la presse a accusé le Pr Pellerin, dirigeant du SCPRI, d'avoir menti à ce sujet. La réalité a beau eu donner raison au Pr Pellerin sur ce qu'il a annoncé — à savoir que le nuage de Tchernobyl n'aurait aucune incidence sur la santé en France —, rien n'y fit. On peut aussi se poser des questions sur l'apparition de certaines assertions, qui se trouvent être des déformations d'informations publiées par ailleurs depuis longtemps, ainsi en est-il des 42000 morts du diésel dont on a déjà abondamment parlé.

En appeler à plus d'éthique me semble largement inutile. D'une part, comme le signale Machiavel, être en tous temps vertueux peut s'avérer nuisible pour un homme d'état; d'autre part, les nécessités de la gestion de l'état peuvent conduire à prendre des décisions qui sont contraire à une éthique individuelle. Chacun comprend bien par exemple, qu'il est bon pour chaque individu de partir tôt à la retraite, mais que pour la société dans l'ensemble, il vaudrait mieux qu'ils travaillent tous le plus longtemps possible pour qu'il soit possible de payer le plus de prestations sociales possibles. Jérôme Cahuzac fournit aussi un tel exemple: chacun a intérêt à payer le moins d'impôts possible; le ministre du budget cherche à récupérer le plus d'argent possible en dépensant le moins d'énergie possible.

Il me semble quand même qu'une partie de la mauvaise situation est due à un discours déconnecté des réalités, notamment financières, auxquelles l'état est confronté. Il y a des dépenses qui suivent une pente haussière structurellement plus rapide que le PIB. Les impôts sont déjà un niveau très élevé, ce qui impose donc de faire des économies. Le scandale provoqué par l'aveu de Jérôme Cahuzac ne vient en fait que couronner une dizaine de mois où l'impression qui se dégageait était une suite de renoncements et d'inversions de direction par rapport à ce qui avait été compris durant la campagne par les électeurs. On ne saurait donc trop conseiller aux candidats sérieux de travailler un peu. La matière est disponible, les fonctionnaires français sont souvent chargés de publier des rapports sur tous sujets, ils sont compétents et honnêtes. Cela permet de se faire une idée des options irréalistes, ce qui évite les propos aventureux qui se transforment en piège une fois au pouvoir ainsi que l'impression d'impréparation et d'incompétence qui se dégagent lorsque ce piège se referme. Cela peut aussi permettre de trouver des slogans pour lutter face aux démagogues: ceux-ci véhiculent parfois une image datée de la situation.

17 mars 2013

Des implications du plan de «sauvetage» chypriote

Ce samedi matin, le gouvernement chypriote a annoncé un plan visant à assainir son secteur bancaire et qu'il allait recevoir 10G€ d'aide — de prêt en fait — des pays de l'UE en état de le faire ainsi que du FMI. Ce plan était attendu depuis 9 mois, une fois que les conséquences de la faillite de l'état grec sur les banques chypriotes connues. Parmi les mesures imposées figure une taxation des dépôts de moins de 100k€ de 6.75%: si vous aviez 1000€ sur votre compte chypriote, il ne vous en restera plus que 932.5€ si le plan est voté par le parlement. Les dépôts supérieurs à 100k€ se voient, eux, amputés par un taux de taxation de 9.9%, digne d'une publicité de supermarché. Sans surprise, les chypriotes se sont donc rués sur les distributeurs automatiques de billets, puisque suite à une coïncidence inexplicable, la décision a été annoncée lors au début d'un long week-end, ce lundi marquant opportunément le début du carême orthodoxe, période de privations. Le plan prévoyait qu'en échange de la confiscation des actions des banques seraient distribuées, mais la perspective d'un bank run a amené le président chypriote à promettre une partie des éventuels revenus gaziers du pays pour ceux qui laisseraient leurs économies dans les banques.

L'échec de l'euro

À l'origine l'euro était prévu pour que les valeurs relatives des sommes placées dans la poche des détenteurs ou déposées sur un compte ne varient plus d'un pays à l'autre en fonction de la conjoncture ou des décisions politiques locales. Le moins qu'on puisse dire, c'est que c'est raté. De fait, même si cette décision ne transforme pas la zone euro en système monétaire à parités fixes et qu'elle n'est pas équivalente à une dévaluation puisque seules les dettes des banques envers leurs clients sont affectées, il s'agit d'une diminution arbitraire du patrimoine des déposants.

Cette décision fait suite aux diverses avanies qu'a subies la zone euro depuis 2008. Alors que l'euro devait aider à faire converger les niveaux de vie et les économies des divers pays participants, on a vu en fait d'énormes divergences se créer, avec à la clef de graves crises en Grèce, en Irlande, au Portugal, en Espagne et en Italie. Comme le remarquait Verel avant de prendre connaissance du plan, les objectifs politiques ont aussi été manqués et de loin. Il ne manque plus en fait qu'un pays sorte de la zone euro pour cocher toutes les cases des échecs possibles. Il faut à ce propos remarquer que Chypre correspond bien aux types de pays qui pourraient sortir. Chypre est un petit pays, imprimer suffisamment de billets et de pièces prendrait sans doute peu de temps, mais peut-être pas beaucoup plus qu'un mois. On s'achemine aussi vers un bank run. On coche toutes les cases de la liste des prérequis qu'avait préparé Barry Eichengreen il y a un peu plus de 5 ans.

La zone euro continuera sans doute d'exister: malgré la confiscation d'une partie des dépôts à Chypre, la population semble toujours favorable à l'euro à cause de son statut de monnaie forte qui protège de l'inflation. Un certain nombre de pays restent à cause des conséquences très néfastes qu'aurait une sortie: la situation doit vraiment devenir désespérée pour qu'une sortie devienne intéressante. Pour d'autres pays d'Europe du Nord, la situation est au contraire acceptable.

La fin des espoirs fédéralistes

Cette confiscation des dépôts est aussi à mon sens la fin des espoirs fédéralistes en Europe. En juin dernier sur blog, j'avais exprimé ma faveur pour une garantie européenne des dépôts qui mutualiserait les sauvetages bancaires, ce qui les rendait nettement plus faciles à gérer: c'est parfaitement clair dans le cas chypriote où les dépôts sont trop gros pour l'état chypriote mais faibles à l'échelles de l'ensemble de la zone. Il y a déjà une directive en place, selon laquelle la garantie minimale est de 100k€. Mais comme la garantie doit être assumée par l'état où est établie la banque, elle n'est aussi solide que la signature de cet état. En l'occurrence, Chypre est trop petit pour assumer cette obligation, d'où la taxe, spécialement destinée à contourner la législation. On a rarement vu des contribuables recevoir des actions de banques suite à la levée d'un impôt nouveau; recevoir des actions alors qu'on était créancier d'une entreprise en faillite est nettement plus courant. À cet égard, la communication de l'Union Européenne est simplement désastreuse, où un porte-parole assume totalement ce détournement. Le montage de ce plan est donc de la pure real-politik.

C'est important car ce qui différencie l'Union Européenne d'un simple zone de libre-échange, c'est qu'il y a un ensemble étendu de règles communes à respecter, notamment en matière commerciale. Au départ, la CEE édictait des règles techniques communes pour éviter que les obligations du marché commun ne soit vidées de leur sens par les participants. Sans cela, chaque pays pourrait édicter ses propres règles techniques, ce qui permet d'écarter les produits de l'étranger par trop gênants. Ces règles se sont étendues par la suite à de nombreux secteurs au fur et à mesure que le marché commun se développait et que des fonctions traditionnellement souveraines étaient confiés à l'Union, comme par exemple la monnaie. En matière financière, il est donc devenu de facto impossible à une banque d'un petit pays de proposer ses services à ceux de grands pays: les dépôts ne sont pas garantis de la même façon, ils n'ont pas exactement la même valeur. Par contre, les habitants des petits pays peuvent déposer dans les pays jugés les plus sûrs et les banques de ces pays proposer leurs services à tous les habitants de l'union. Ces règles étaient aussi garanties par l'existence d'une Cour de Justice qui avait le pouvoir d'obliger les états à respecter les directives et les traités. Dans ce cas, c'est impossible: Chypre ne peut pas assumer ses obligations s'il n'y a pas de garantie commune. Or, l'Union Européenne est en grande partie fondée sur le droit. Si les habitants des petits pays ne peuvent faire appel à la justice pour se voir reconnaître leurs droits, l'intérêt de l'Union diminue pour eux! Et on voit alors s'éloigner la perspective d'une intégration fédérale qui suppose que le pouvoir central est capable de faire respecter les lois qu'il édicte. Dans la cas présent, il s'avère que le pouvoir central est complice du dévoiement de ces règles.

L'absence de perspectives d'intégration est aussi visible dans les commentaires de certains des plus favorables à une fédération. Ainsi, Jean Pisani-Ferry qui dirige le think tank Bruegel a justifié la taxe par le rendement servi par les banques chypriotes. Ce rendement était lié aux difficultés connues de ces banques: tout le monde savait plus ou moins qu'elles détenaient beaucoup d'obligations d'état grecques, le taux d'emprunt de l'état chypriote a aussi augmenté à cause de la perspective d'avoir à voler au secours de ses banques. Bref, le taux servi était dû à la fragmentation nationale du système bancaire. Avec une garantie commune et le régulateur qui va avec, de tels taux auraient été impossibles, empêchés par le régulateur. Sans compter que, si on suit le tableau, les petits déposants n'ont pas de rémunération mirobolante. Autrement dit, pour Jean Pisani-Ferry, déposer dans un pays en crise est à éviter: tous les épargnants de ces pays se doivent donc de déposer dare-dare leurs économies dans les pays sûrs sous peine d'être responsables de ce qui leur arrive. Difficile de faire plus centré sur les états. Une autre variante était de justifier cela par les dépôts venant de Russie et les pratiques peu reluisantes les accompagnant: une nouvelle fois, c'est un faux-semblant. Dans un état de droit, ce serait une question de police, pas une question de garantie des dépôts. Bref, même les plus fédéralistes des commentateurs rejettent les conséquences d'une fédération, ils rejettent donc la mise en place de cette fédération.

Et la France?

En France, il paraît pour l'heure impossible que le secteur bancaire soit menacé d'une telle confiscation. Cependant, il faut remarquer que l'état français voit sa dette se rapprocher des 100% du PIB. L'ensemble des dépôts à vue représentent 1500G€, soit plus de 75% du PIB. En cas de problème similaire à Chypre, ou même face à un problème de bulle immobilière laissant énormément de créances douteuses comme en Espagne et en Italie, l'état français serait devant un choix similaire à celui de Chypre. Dans ce cas, loin d'être un modèle à éviter le modèle chypriote pourrait s'imposer. Des calculs montrent même qu'il faudrait saisir à peu près 20% des avoirs financiers des ménages si l'état devait intervenir de cette façon pour rétablir la soutenabilité à long terme de l'ensemble des dettes françaises (tant publiques que privées). Dans un pays où il est vu comme normal de taxer les patrimoines et comme acceptable d'imposer des taxes à usage unique sur la même assiette, la réponse de savoir ce qui se passerait dans une situation de réelle crise comme à Chypre ne se pose pas vraiment: la réponse est sans doute qu'il se passerait la même chose ici! Si des vents véritablement mauvais devaient se lever, on ne peut pas dire que les épargnants français seraient spécialement protégés.

Il n'est donc pas certain que ce soit une bonne idée d'avoir montré qu'un pays englué dans une grave crise économique, dont l'état est fortement endetté et dont les banques sont en difficulté pouvait revenir sur la garantie accordée aux épargnants classiques. Si jamais les épargnants des pays en difficulté (Italie...) prennent ce qui se passe à Chypre comme l'exemple de ce qui se passera ailleurs, des moments sportifs se préparent.

17 janvier 2013

L'état d'esprit de la politique en France et la numérisation à la BNF

En 2005, c'est à dire pendant la préhistoire, Jean-Noël Jeanneney, alors directeur de la Bibliothèque Nationale de France, avait tempêté contre Google qui venait de démarrer son programme de numérisation des fonds de littérature présents dans les bibliothèques de grandes universités américaines. Ce programme a depuis été étendu à diverses bibliothèques de par le monde, y compris celle de Lyon. Les œuvres tombées dans le domaine public y sont disponibles librement, comme on peut le constater. Jeanneney dénonçait alors le risque d'une domination écrasante de l'Amérique.

En 2008, la rumeur courut que, finalement, un accord eût pu se conclure avec l'implacable ennemi, mais rien ne se fit. En 2013, 8 après le début du projet de Google, on apprend que la bibliothèque va numériser son fonds via un partenariat public-privé. Les entreprises privées se rémunéreront en commercialisant le contenu des ouvrages numérisés et disposeront d'une exclusivité de 10 ans sauf pour une petite partie qui sera publiée immédiatement sur Gallica, qui rassemble ce qui a déjà été numérisé. Le travail s'étalera sur 10 ans. On peut donc constater que les conditions sont bien moins favorables pour le public que ce qu'a pratiqué Google: la totalité des ouvrages numérisés ne sera disponible librement qu'en 2033, alors même qu'ils sont libres de droits et qu'avec Google, ils seraient sans doute déjà disponibles.

Cet évènement, même s'il est d'une dimension limitée, est révélateur de travers de la vie publique française. C'est d'abord un révélateur de l'impécuniosité de l'état français. Le patrimoine culturel français est concédé en partie à une entreprise privée parce que la BNF n'a pas les moyens de payer l'ensemble des frais de numérisation et n'a aucun espoir d'obtenir les crédits nécessaires. Elle a donc développé un partenariat public privé où l'entreprise privée valorisera son travail pour recouvrer les sommes manquantes. Les partenariats public-privé sont très populaires dans les projets d'infrastructures, car ils permettent d'éviter d'augmenter la dette de l'état: l'engagement de verser à intervalles régulier des sommes d'argent est simplement compter dans les dépenses annuelles à prévoir. Le revers est que les sommes à verser sont bien supérieures à ce qu'il aurait fallu verser si l'emprunt avait bien eu lieu à la place: les taux de rémunération du capital sont bien plus élevés que les taux des OATs. Dans le cas qui nous occupe le but de la BNF est de conserver les ouvrages dans le meilleur état possible mais aussi de permettre leur consultation, de préférence par le plus grand nombre. Or, il s'avère que la BNF va privatiser une partie du domaine public, ce qui va empêcher de consulter les copies numériques de certains documents dont justement la consultation devrait être libre. La manque d'argent pousse ainsi l'état à prendre des décisions douteuses du point de vue des finances et des buts qu'il poursuit.

Ensuite, on peut voir le biais cocardier. Le problème n'était pas que Google puisse être ou devenir une société trop puissante, mais qu'elle soit américaine. Autant une certaine méfiance peut être de mise dans les domaines militaires, autant dans le domaine culturel, s'il s'agissait de faire connaître la culture française, la nationalité de l'entreprise qui numérise le fonds de la BNF importe peu. L'important est plutôt que ce qui est numérisé soit facilement et immédiatement à la disposition du plus grand nombre. La politique culturelle de la France est en grande partie bâtie sur cette hostilité envers l'étranger. C'est ainsi que les productions étrangères, américaines au premier chef, se voient exclues par des quotas de productions françaises à diffuser obligatoirement; il y a des obligations de financement de l'industrie locale payées in fine par les consommateurs, comme au cinéma. Bref, toute une démarche protectionniste est mise en place et débouche sur des errements, comme des acteurs sur-payés ou le refus d'une possible aide étrangère.

Enfin, il y a la peur de la nouveauté et un état d'esprit qui ne voit que les menaces et pas les opportunités. De fait, s'allier à Google était une opportunité: la mise à disposition du public aurait été faite gratuitement, Google a numérisé des fonds sans demander d'argent aux bibliothèques, ni d'exclusivité dans la numérisation et la diffusion. Cet état d'esprit s'accorde très bien de l'esprit cocardier. Cette focalisation sur les menaces pousse en plus à de graves erreurs d'analyse du marché des biens culturels. En France, il est quasiment impossible de lancer de nouveaux services sur les marchés culturels car, immédiatement, par peur de perdre des revenus, les intervenants déjà présents veulent que le nouvel entrant paie immédiatement de grosses sommes. C'est le cas avec des choses assez futiles comme la VoD, mais c'est sans doute aussi le raisonnement tenu par la BNF: quelqu'un pourrait lancer une activité à succès sur la numérisation de son fonds et ne jamais rien lui reverser. On ne peut pas dire que ce soit un état d'esprit qui favorise l'innovation et l'adoption de nouvelles techniques...

Au final, on voit que ce dossier a été particulièrement mal géré et que les citoyens français n'ont pas eu les résultats auxquels ils auraient pu s'attendre. La numérisation du fonds de la BNF a déjà avancé, on peut par exemple consulter les premières version imprimées des pièces de théâtre de Corneille ou Racine, mais tout ne sera pas disponible avant 2033 faute d'avoir su saisir une opportunité. Malheureusement, sous ces péripéties, on voit poindre un état d'esprit qui me semble être bien présent dans la politique en général: manque d'argent qui amène des comportements néfastes, comportement cocardier qui confine parfois à la xénophobie, focalisation sur les menaces et oubli des opportunités.

6 novembre 2012

Imposer le silence

Le 22 octobre dernier, 6 personnes ont été condamnées à 6 ans de prison ferme pour homicide involontaire parce qu'ils faisaient partie d'une commission d'évaluation des risques et avaient conseillé aux habitants de L'Aquila de ne pas s'inquiéter outre mesure de la multiplication des secousses dans la région. Ils étaient apparemment même allés jusqu'à dire que les secousses constituaient un signal favorableLe 6 avril 2009, une semaine après la réunion, un séisme dévastait la ville et faisait 309 morts, entre autres.

La lourdeur des peines et l'absence de différentiation entre les prévenus me semble signer la désignation de boucs émissaires, comme le pointait Dirtydenys avec justice. Et comme le pointait aussi Bruce Schneier — qui se risque lui aussi à des propos dangereux — c'est une perte sèche pour la société: un tel verdict ne peut avoir comme effet que de limiter la parole publique des experts. Il n'a d'ailleurs pas fallu attendre bien longtemps pour que les suspects habituels se précipitent dans la brèche: ainsi Corinne Lepage ne s'est point privée de faire connaître sa volonté de poursuivre en justice tout expert qui émettrait un avis favorable sur la sécurité des OGMs dans un cénacle officiel.

Ayant moi-même infligé à mes lecteurs les plus intrépides une série de billets sur le principe de précaution et surtout sur son dévoiement, je me suis rappelé qu'une augmentation de la fréquence des poursuites en justice dirigées contre les experts était esquissée dans un ouvrage publié voilà plus de 10 ans. La prévision qui y était faite d'une possibilité symétrique de poursuites entre celles suscitées par les partisans d'une approche de dommage zéro et celles suscitées par les partisans d'une approche plus risquée mais plus féconde en bénéfices ne m'avait pas vraiment convaincu, on va y revenir.

Les avis des experts sont en première approche comme des conseils, les experts sont d'ailleurs toujours prompts à rappeler qu'ils ne font pas de gestion des risques, tâche réservée aux politiques, mais seulement de l'analyse des risques. Condamner quiconque pour de simples conseils est suffisamment problématique pour que Hobbes, bien connu pour son laxisme, affirme qu'on ne peut le faire en équité. Son argument est que, finalement, un conseil étant généralement sollicité, il est impossible de sanctionner un avis argumenté qu'on a soi-même demandé. En passant, Hobbes connaissait déjà le problème du conflit d'intérêts puisqu'un conseil est, entre autres, défini par le fait qu'il profite à celui qui le reçoit et non d'abord à celui qui le donne. Cela montre bien que le thème du conflit d'intérêts est loin d'être nouveau. Cela dit, dans nos sociétés modernes, il est bien difficile de s'abstraire de toute conséquence de ses propres conseils, cela requerrait en fait de se retirer du monde en dehors du moment où on donne des conseils. Cette vie d'ermite est bien souvent incompatible avec l'expertise qui requiert de maintenir à jour ses connaissances donc d'avoir des contacts avec autrui. Comme signalé dans cet entretien, l'indépendance de l'avis ne peut alors être assuré que par le cadre institutionnel et non par l'absence de conflits d'intérêts de chacun des experts consultés.

Une autre différence avec le cadre hobbésien, c'est que, de nos jours, bien loin d'être soumis aux caprices d'un souverain, les individus ont des droits, ce qui fait que l'état ne peut donner des ordres sans justification rationnelle. Dans le cas des tremblements de terre, il s'agit de savoir quand faire évacuer: dire qu'à l'Aquila des gens auraient pu être sauvés en dormant dehors me laisse sceptique. Mais comme les tremblements de terre sont toujours impossibles à prévoir avec une précision suffisante, cet ordre ne peut jamais être donné. Par contre, dans le domaine proche de la volcanologie, il est possible de faire des prédictions plus précises et d'évacuer la population, comme ce fut le cas avec l'éruption du Pinatubo. Dans le cas des OGMs, chaque individu est libre de faire ce qu'il veut pour peu qu'il ne blesse personne, d'où l'insistance des opposants sur les thèmes des dangers pour la santé et pour l'environnement. On voit donc que les avis n'ont pas tous le même effet: si un conseil peut, pour Hobbes, être ignoré en toute circonstance, dans une société libérale, il restreint les possibilités d'action de l'état en privant certaines action de justifications acceptables.

Pour contrebalancer cela, il y a une grande dissymétrie entre les prévisions optimistes et pessimistes, comme je l'avais noté à propos du principe de précaution. En dehors de la communauté scientifique, il y a peu à craindre d'émettre des prévisions alarmistes. Parmi ceux qui lancent des fausses alertes, seuls ceux qui récidivent avec insistance sont punis, tels les petits rigolos qui appellent les pompiers sans raison. On peut par contre s'assurer dans certains cas un passage dans les médias, où en cas d'erreur, on sera vite oublié, mais où, si la prévision se réalise même fort approximativement, on peut devenir un grand gourou de certains domaines. De fait, des poursuites judiciaires ne seront jamais engagées que pour une insuffisance de précaution ou des prévisions paraissant après coup comme trop optimistes. La communauté scientifique est un peu à l'abri de ce genre de phénomène, puisqu'il faut que les modèles utilisés collent à la réalité, ce qui nécessite d'avoir un modèle et permet d'évacuer ceux qui ne sont pas meilleur que le hasard. Cependant, le fond des débats scientifique ne parvient pas toujours au public, ou bien de façon déformé. Cette dissymétrie de perception entre les prévisions optimistes et pessimistes dans le public permet d'enclencher un cycle où on pourra demander des mesures, souvent d'interdiction, envers certaines choses ou certaines techniques. Le cas des OGMs illustre l'efficacité de cette tactique.

Elle présente toutefois un défaut: en cas d'opposition purement idéologique, il faut renouveler les articles et autres déclarations qui sont au fur et à mesure discréditées par les scientifiques. Faute de quoi, l'interdiction finit par être levée. Cela implique qu'il faut susciter des articles scientifiques ou de nouvelles hypothèses. Mais on peut vouloir freiner les réfutations publiques de ce qu'on a avancé. Dans ce cas, Hobbes peut encore venir à la rescousse: si la pensée est libre, la parole l'est toujours nettement moins. Nos sociétés libérales défendent certes la liberté de parole, mais avec des exceptions. Si, comme dans le cas de L'Aquila, on peut arriver à faire condamner des experts pour des déclarations imprudentes, l'incitation à se taire est grande. On peut aussi harceler d'autres personnes, même si on sait que l'action en justice n'a aucune chance d'aboutir à une condamnation: ainsi en a-t-il été des cancers de la thyroïde en France dont on a voulu rendre responsable le nuage de Tchernobyl et le Pr Pellerin. On voit donc que la menace de poursuite est crédible et sérieuse: peu importe en fait que la condamnation soit définitive, les mauvais esprits peuvent être importunés, à l'aide des moyens de l'état, sans risque pour qui lance la procédure. On voit donc tout l'intérêt d'avertir les experts, de façon à bien limiter leur liberté de parole. Après tout s'il reste des courageux, il sera toujours temps de faire un exemple.

7 juillet 2012

L'échec de la concurrence dans le domaine énergétique

Il y a quelques jours Le Monde publiait un article qui revenait sur le peu de succès des opérateurs alternatifs aux monopoles de fait dans la fourniture du gaz et de l'électricité, GDF et EDF. On peut retirer de l'article qu'aller voir la concurrence représente en fait peu d'intérêt — à peine quelques pourcents sur la facture dans le meilleur des cas — à cause de la prééminence de coûts régulés encore forts présents et de la compétitivité de l'électricité nucléaire. Les perspectives d'avenir tracées à la fin semblent considérer que cet état de fait va durer à moins qu'une tarte à la crème prenne subitement de l'importance: que des clients paient pour être au service des producteurs pour recevoir des conseils sur comment mieux consommer.

Il me semble qu'il est important de revenir sur les raisons probables de cet échec et de le comparer avec le succès de l'ouverture à la concurrence des télécoms.

Les raisons du succès de la concurrence dans les télécoms

Au début des années 90, l'UE a décidé d'ouvrir les marchés des télécoms à la concurrence. Dans un premier temps, cela a concerné les minutes de communication. On pouvait alors choisir un opérateur qui facturerait moins cher les minutes de communication. Cela reposait en fait, au départ, sur la capacité des opérateurs alternatifs à acheter en gros les minutes de communication puis de les revendre au détail, sans être encombré par les dépenses de personnel de France Télécom. La liberté de tarification de France Télécom sur le marché de gros était réduite de façon à ce que les concurrents puissent s'installer, un peu à la manière dont comptent agir les autorités communautaires sur le marché de l'énergie. Mais, moins de 20 ans plus tard, cet aspect est marginal sur le marché des télécoms: le véritable succès vient d'ailleurs, de profonds changements technologiques.

Le premier changement qu'on peut nommer est l'arrivée à maturité des technologie de transport de l'information par fibre optique. Au début des années 90, ce n'était pas vraiment une nouveauté, le principe était connu depuis 20 ans, mais les progrès ont été si rapides, tant dans les matériaux que dans les techniques de modulation et de multiplexage, que le coût de transport de l'information est devenu nettement plus intéressant. Les fibres sont maintenant incomparablement transparentes, il faut faire parcourir de l'ordre de 15 à 20km pour que le signal perde la moitié de son intensité. Les techniques de modulation ont permis d'augmenter le débit sur un seul canal, les techniques de multiplexage ont permis de multiplier les canaux sur une seule fibre. Il est aussi relativement facile de déployer un réseau de fibre optique: on peut suivre des axes déjà bâtis comme les autoroutes, les voies de chemin de fer; il n'y a pas de grands travaux de BTP à mener, il s'agit en général d'une simple tranchée à creuser sur le bas-côté avec des guitounes pour réamplifier le signal de loin en loin. On peut aussi installer les lasers nécessaires au fonctionnement des canaux au fur et à mesure des besoins, ce qui limite le coût d'investissement initial. Il n'y a aussi aucune opposition au déploiement de ce réseau vu sa faible empreinte. Bref, il est devenu possible de transporter de grandes quantités d'informations sur grandes distances, à un coût raisonnable, sans grandes difficultés d'installation. Cela a permis à de nouveaux entrants de construire leur propre réseau qu'ils ont pu rentabiliser en quelques années.

Le deuxième changement est l'arrivée de l'ADSL. Cette technologie permet d'utiliser le réseau existant pour faire passer nettement plus d'information. Ce réseau étant déjà largement amorti et régulé pour la phase téléphonie classique, cette technologie est peu coûteuse. Le plus dur est d'arriver à ce que des firmes autres que le monopole aient accès au répartiteur pour y installer leurs équipements. Le développement concomitant d'Internet permet d'avoir une demande pour ce type de technologie: finalement, les clients sont prêts à payer plus pour un nouveau service. Les nouveaux arrivants peuvent aussi proposer des services combinés avec Internet, téléphone illimité & télévision: de toute façon le coût marginal de l'octet échangé est pratiquement nul, il s'agit surtout de convaincre les clients de payer les coûts d'investissement dans un premier temps.

Le troisième changement est la téléphonie mobile. Avec la téléphonie mobile, plus besoin de construire un réseau filaire local puisqu'on utilise des bornes radio. Ça permet d'introduire de la concurrence parce qu'installer des bornes radio est moins cher que de construire ce réseau local. Le réseau à longue distance est, lui, construit grâce à la fibre optique. Une nouvelle fois, on apporte un service supplémentaire aux clients, qui sont prêts à payer pour. Les téléphones portables sont devenus des objets communs sans qu'on ait forcé qui que ce soit. Avec les offres à 2€/mois, les offres mobiles sont devenues bien plus compétitives que les offres filaires si on veut «juste» téléphoner. Installer des bornes téléphoniques est devenu un peu plus compliqué dernièrement à cause d'hurluberlus, mais ils ont arrivés trop tard pour empêcher le décollage d'une invention qui est indéniablement profitable à la société.

Au final, la libéralisation des télécoms a été un succès grâce à l'apparition de nouveaux services rendus possibles par des changements technologiques. Cela ne veut pas dire que les sociétés ne formeront pas des oligopoles peu concurrentiels à l'avenir — comme le montre l'exemple de la téléphonie mobile avant l'arrivée de Free ou l'ADSL ailleurs qu'en France — mais qu'en phase de changement technologique, la concurrence peut accélérer les choses et répandre des technologies de façon très rapide. Mais ça ne marche bien que si les clients sont prêts à payer pour ces fameux services supplémentaires. On peut aussi voir que la question des tarifs du téléphone a presque disparu de l'agenda récurrent des politiques: personne ne hurle contre les hausses de tarifs, on constate plutôt des baisses de prix à service constant sous la pression du changement technologique. La demande pour les nouveaux services suffit à rentabiliser rapidement les investissements comme le montre le cas de Free, l'intervention publique est relativement limitée et souvent très technique.

Le cas de l'énergie

Les cas du gaz et de l'électricité sont très différents.

Le gaz est un type d'énergie dont on aimerait se passer pour cause de manque de ressources et d'ennuis climatiques. On n'attend pas non plus de rupture technologique dans le transport du gaz. Investir dans le réseau n'est donc pas forcément très intéressant. Il y a par contre des nouveautés dans la production, avec les gaz non conventionnels qui pourraient résoudre les problèmes d'approvisionnement ... mais aggraver le problème du réchauffement climatique s'ils ne font que s'ajouter aux ressources existantes. Une certaine opposition est aussi apparue contre ce mode de production. L'extension du réseau d'électricité, notamment à haute tension, rencontre une opposition intense de la part de ceux qui habitent à proximité. Impossible donc d'étendre ce réseau sans planification ni implication forte de l'état. Là non plus pas vraiment de rupture technologique en vue: les supraconducteurs ne sont pas spécialement bon marché. Contrairement aux télécoms, il n'y a pas à attendre grand chose de ce côté. La distribution de gaz et d'électricité reste pour l'essentiel et pour le futur prévisible un monopole naturel. C'est d'ailleurs pensé comme tel: les réseaux de transport de gaz et d'électricité sont considérés comme des monopoles naturels à réguler séparément du reste. Pour ce qui est des réseaux locaux, ils sont vus comme les réseaux d'adduction d'eau: des réseaux à concéder — ou pas — qui ne sont rien d'autre qu'une juxtaposition de monopole naturels locaux.

Les fournisseurs finaux pourraient penser procéder comme pour les minutes de téléphone: acheter en gros et vendre au détail, en voulant profiter de moindres frais d'organisation pour être plus compétitif que le monopole naturel. Malheureusement, cette voie est aussi largement barrée: alors que le coût marginal d'une minute de téléphone est très proche de 0, ce n'est pas le cas du m³ de gaz ou, en général, du kWh d'électricité. Les gains d'échelle sont donc fondamentalement limités. On se retrouve rapidement à devoir demander l'intervention de l'état, face à laquelle le monopole en place peut montrer que ses coûts marginaux sont bien réels. On se retrouve au bout du compte avec une tarification qui ressemble plus ou moins à ce qui présidait avant avec la facturation des coûts moyens. Ce n'est donc pas un hasard si on a vu apparaître l'ARENH, prix et conditions diverses fixés par l'état pour l'électricité nucléaire qu'EDF doit vendre à ses concurrents.

L'autre voie serait de vendre des services supplémentaires. Mais on voit mal quels services nouveaux sont permis par la fourniture d'électricité et vraiment demandés par les clients. On parle beaucoup des smart grids dans ce domaine. Cependant les fournisseurs finaux n'installeront sans doute pas les nouveaux compteurs: il faut s'assurer de la compatibilité mutuelle des équipements et les temps d'amortissement sont plutôt comparables avec des activités de réseau. Ils se contenteront donc des services. Ils proposeraient aux clients de moins consommer: on voit mal ce qu'ils apporteraient de plus que les services d'un architecte ou d'un artisan faisant des travaux chez soi. On voit aussi mal comment ils se rémunèreraient différemment d'un architecte dans ce cas: après les travaux, les volumes vendus diminueraient. Pour le gaz, c'est le service qui semble possible, vu que la diminution de la consommation est l'objectif officiel. Pour l'électricité, les choses sont un peu différentes: là, les smart grids prennent un tour plus orwellien. Il s'agirait de déplacer la consommation pour éviter les pointes ou carrément pallier aux insuffisances de production, qui sont plus ou moins regroupées sous l'appellation consommer mieux. On se doute que s'il s'agit de ne pas pouvoir regarder le match de foot sur son écran plat, le client risque de ne pas être convaincu par l'amélioration. Il faut donc disposer de consommation qu'on peut déplacer et actuellement, il s'agit essentiellement du ... chauffage électrique. Ce point est d'ailleurs parfois pris en compte par certains scénarios "100% renouvelables". C'est aussi l'idée qui fonde le tarif heures pleines - heures creuses en France. On note toutefois une certaine différence entre les désirs des promoteurs du consommer mieux et la réalité que semble devoir impliquer le concept. Étant donné l'opposition au chauffage électrique dans certains milieux politiques et la faisabilité du reste, il me semble que cette idée de vendre des services supplémentaires soit vouée à rester d'une ampleur limitée.

Si on veut une concurrence dans le domaine de l'énergie, la question des prix de production — donc des moyens — semble donc incontournable.

La vexante question des prix et des coûts de production

Lorsqu'on se tourne vers la question de la production, on s'aperçoit qu'en fait, sur ce sujet, il n'y a jamais eu de monopole légal de la production tant de gaz que d'électricité. La seule production significative de gaz sur le territoire français a été le gaz de Lacq. La conséquence a été que dans le Sud-Ouest, le réseau de distribution de gaz est organisé autour de l'ancien gisement et toujours détenu par l'exploitant de celui-ci, Total, qui l'a hérité d'Elf. Ce gisement ne suffisant pas à satisfaire les besoins français, on a procédé à des importations. De toute façon, le gaz étant une énergie régionale et substituable au pétrole, les prix de la matière première sont déterminés sur les marchés internationaux. Et pour l'Europe, la tendance semble être à la hausse des prix. En effet, l'exploitation des gisements de la Mer du Nord décline, actuellement lentement, mais ce déclin s'accélèrera après 2020-2025. La Russie a déjà du mal à fournir toutes les quantités demandées. Faire venir du gaz par méthanier coûte relativement cher à cause du processus de liquéfaction qui est gourmand en énergie. Enfin, le gouvernement français a interdit — pour l'instant du moins — d'exploiter d'éventuels gisements de gaz de schiste. Face à cette contrainte sur les volumes à consommer, la demande ne faiblit pourtant pas, le gaz étant de plus en plus employé à la place du charbon pour produire de l'électricité car il pollue moins et s'adapte mieux au contexte réglementaire et politique européen. Le gaz est aussi de plus en plus demandé dans les pays d'Asie. Le prix de l'énergie étant un sujet majeur de la politique, les différents gouvernements s'acharnent à ignorer ces réalités et cherchent à bloquer les prix, sans égards pour les conséquences. Dans ce contexte, on voit mal comment pourrait se développer la concurrence: l'ancien monopole est forcé de proposer des tarifs inférieurs aux prix qu'imposeraient les marchés internationaux. Pourquoi quitter le fournisseur qui propose les prix les plus bas et sera le dernier à augmenter ses tarifs?

Pour ce qui est de l'électricité, de même, il n'y a jamais eu de monopole de production. L'exemple le plus frappant est celui de la Compagnie Nationale du Rhône qui a échappé à la nationalisation après la Libération. Ainsi en est-il aussi d'autres barrages. Reste qu'EDF pouvait connecter les centrales un peu comme bon lui semblait, mais avec l'ouverture à la concurrence, les risques de discrimination ont disparu. Aujourd'hui, le problème vient qu'à peu près tous les moyens neufs de production ont un coût moyen du kWh produit supérieur aux prix du marché: personne n'a donc vraiment envie d'en construire sans subvention, ou qui conduit ceux qui s'y sont risqués à la faillite. Ce problème est amplifié en France par l'importance du parc nucléaire: comme le prix de l'électricité nucléaire ne dépend que marginalement du prix du minerai, les prix de vente aux particuliers, fixés par l'état, ont faiblement varié par rapport à d'autres pays comme le montrent les graphes ci-dessous. prix_elec_ttc.jpg prix_elec_ht.jpg Les prix hors taxes reflètent le plus fidèlement les prix du parc déjà installé au début des années 2000: on voit qu'EDF échappe à la hausse généralisée à partir de 2005 du fait de sa faible dépendance aux combustibles fossiles. Comme c'était rappelé dans l'article du Monde, les autres producteurs ne peuvent pas rivaliser avec le parc nucléaire. Ce n'est pas seulement dû à l'amortissement du parc, mais aussi au fait que tous les concurrents commenceraient par construire des centrales demandant des investissements moindres: difficile pour un nouvel arrivant de dépenser plusieurs milliards d'euros avant de se constituer une clientèle.

Cette importance des investissements dans l'industrie électrique se retrouve aussi dans le modèle imposé par la Commission. Pour empêcher que le monopole en place n'interdise l'entrée de concurrents, elle a poussé pour que la facturation de la production d'électricité se fasse en fonction du prix spot et a entravé les contrats à long terme. Dans le cas contraire, il aurait suffi à EDF de faire signer des contrats à long terme aux industriels pour enlever tout espoir de développement à la concurrence. De ce fait, pour minimiser les risques, le mode de production privilégié sera celui qui nécessitera le moins de nouveaux investissements et dont le coût marginal sera donc proche du coût total. Cela permet de passer assez facilement les hausses de tarifs aux clients — puisque le coût marginal se reflète dans le prix spot — et d'éviter les risques de pertes en capital. Cet état de fait est très bien expliqué dans ce papier de William Nuttal. Le seul point qui peut perturber cet attrait du gaz est qu'il y a besoin d'une corrélation entre le prix du gaz et de l'électricité, qui a tendance à disparaître lorsque le parc nucléaire est important. Une autre conséquence de la libéralisation est la faible planification pour remplacer les moyens de production existant et leur utilisation maximale: investir représente un risque conséquent et un coût à faire assumer par les clients. Et après de longues années, quand vient le temps de remplacer de vieilles centrales, par peur du black out, on voit le gouvernement anglais changer quelque peu de position.

À la suite du contre-choc pétrolier et la mise en exploitation du gaz de la Mer du Nord, le gaz est devenu très compétitif au Royaume-Uni, d'autant que les sources locales de charbon se sont taries. Tant ce prix intéressant que les faibles besoins en investissements ont fait que le Royaume-Uni tire aujourd'hui presque 50% de son électricité de turbines à gaz à la suite de la libéralisation du secteur de l'électricité. À la fin des années 90 et du début des années 2000, les spécialistes du gaz expliquaient que les CCGTs étaient la moins chère des façons de produire de l'électricité, ce qu'on peut voir sur les graphes de prix: les pays spécialisés dans le gaz ont les prix HT les plus bas au début des années 2000. On comprend bien alors le bénéfice que voyait la Commission à libéraliser le secteur: on pouvait voir là une source de baisse de prix. Depuis, les choses ont quelque peu changé et, même s'il en émet moins que le charbon à énergie égale, les émissions de CO₂ dues à la combustion du gaz le rendent indésirable à terme. Le méchant monopole EDF a donc vu le choix du nucléaire dans les années 70 payer de nouveau quand sont réapparues, après 2005, des circonstances similaires au choc pétrolier ayant présidé à ce choix.

En plus de cela, les prix TTC montrent que l'action des états n'est pas neutre non plus: certains états affichent une forte différence entre les prix HT et TTC, notamment l'Allemagne. On aura reconnu les pays qui se sont lancé dans une politique de productions renouvelables. Comme elles sont fort chères et que leurs production ne sont pas corrélées à la demande et très intermittentes, personne ne les construirait sans subventions. Le mode de subvention choisi est la vente à un prix garanti. Aucune concurrence n'est donc possible: tous les producteurs vendent à ce prix garanti, l'état lève la même taxe sur tous les particuliers quelque soient les fournisseurs finaux. Ces modes de production partagent avec le nucléaire le fait d'être des industries à coûts fixes qui se prêtent très bien aux contrats à long terme ou aux tarifs régulés, des modes de rémunération plutôt centrés sur le coût moyen que le coût marginal. Et c'est pourquoi, en Allemagne, des voix se font entendre pour que les règles changent et que la Commission change de position sur la question de la tarification pour favoriser les renouvelables.

Quelques conclusions

Le projet de libéralisation de l'énergie reposait au fond sur une situation de fait qui a depuis changé: le faible prix des combustibles fossiles et notamment du gaz. Mais comme l'approvisionnement en gaz se fait plus incertain et que les préoccupations climatiques occupent, au moins officiellement, le devant de la scène, l'intérêt est devenu clairement douteux. À ce moment, dans les années 90, la technologie de la turbine à gaz semblait devoir s'imposer définitivement et elle est très adaptée à un marché libéralisé: faible investissement, coût dirigé par le prix du combustible.

Malheureusement, le fait que le prix de l'énergie soit un sujet récurrent du débat public empêche, au moins en France, de suivre les soubresauts du prix du gaz imposés par les marchés financiers. Aucun concurrent ne peut s'implanter: l'ancien monopole est forcé de mener une politique de prix bas, voire de vendre à perte en période de forte hausse. Pour ce qui est de l'électricité, on comprend bien que dès lors que le nucléaire, et surtout les centrales de Génération II déjà construites, devient extrêmement compétitif, seuls les moyens subventionnés sont construits. On voit donc mal sur quoi se jouerait la concurrence et on voit même des industriels demander à payer pour assurer l'avenir du nucléaire et se protéger contre la prévisible hausse des prix. Autrement dit, les évolutions du prix des combustibles fossiles ont fait redevenir la production d'électricité ce qu'elle fut dans les années 70: une activité qui ressemble énormément à un monopole naturel.

26 mai 2012

Pour une garantie des dépôts européenne

La crise de la zone euro recouvre trois types de situations pour les états en mauvaise posture:

  1. Celui de l'état qui a trop dépensé et délibérément maquillé ses comptes: la Grèce. De ce fait, l'état grec n'est plus solvable et ses créanciers ont ou vont tous perdre une partie de leur mise.
  2. Celui des états où s'est développée une bulle immobilière massive. C'est le cas de l'Irlande et de l'Espagne. Le problème n'est pas que ces états ont trop dépensé avant la crise, leurs budgets étaient en excédent auparavant. Ce sont les banques qui sont très malades car les emprunteurs ne sont plus solvables. Dans ce genre de cas, la dette des banques se transforme en dette de l'état ce qui alourdit énormément les charges de celui-ci, au moment où le taux de chômage les oblige à maintenir le budget largement en déficit.
  3. Celui des état non compétitifs. Ce sont l'Italie et le Portugal. Ces pays avaient des comptes publics dégradés et leur situation économique et démographique est mauvaise. Ils verront prochainement leur population baisser et leurs produits se vendent mal. Ils sont donc vu une croissance faible avant la crise, sont en récession presque permanente depuis et n'ont pas vraiment de perspectives d'amélioration rapide. Un effet boule de neige peut s'enclencher pour mener à l'insolvabilité de ces états.

Dans tous les cas, ces états pourraient ne pas rembourser en totalité leurs emprunts — c'est une certitude pour la Grèce. Parmi les créanciers figurent les banques — et les assurances — qui se servent de ces actifs comme d'un matelas pour faire face à leurs engagements, au premier rang desquels figurent les dépôts des clients. Si les créances sur les états ne valent pas ce qui était promis, les déposant peuvent perdre confiance dans la capacité à récupérer leur argent. Ils vont donc chercher à le mettre ailleurs, généralement tous en même temps, déclenchant une ruée bancaire ou bank run.

Depuis la crise de 1929, des fonds de garantie ont été prévus pour les empêcher. Ils reposent sur un système d'auto-assurance des banques, souvent imposé par la loi. Ces systèmes n'ont pas besoin d'énormément d'argent en caisse pour fonctionner. Le fonds de garantie français possède ainsi environ 1.9G€ d'après le rapport annuel 2010 (p7), alors que les seuls dépôts à vue représentent presque 1500G€. En général, peu de banques font faillite et ce sont en général des petites. Le fonds de garantie peut aussi saisir une banque avant qu'elle ne fasse complètement faillite et trouver une autre banque qui voudra bien reprendre certains actifs en contrepartie des dépôts — ainsi que parfois une somme d'argent. Cette somme d'argent est modique au regards des dépôts, les banques fonctionnant avec un capital détenu en propre ne constituant qu'une fraction des dépôts. Enfin, ces fonds bénéficient de la garantie plus ou moins explicite de l'état. Cette garantie est claire dans le cas de la FDIC américaine; ce n'est pas aussi clair en France, mais il suffit de regarder ce qui se passer avec des banques mal en point comme Dexia.

Au fond, le système de la garantie repose in fine sur une garantie des états et donc sur leur capacité à l'honorer. Même si les sommes à trouver sont bien inférieures aux dépôts, elles n'en sont pas moins importantes vis-à-vis des moyens des états en cas de difficultés généralisées du système bancaire. Dans le cas grec, cette capacité est nulle: si l'argent promis à l'état grec et pour la recapitalisation des banques n'arrive pas, l'état grec ne pourra pas assumer la garantie des dépôts, surtout que le problème de la sous-capitalisation des banques provient de sa propre faillite. Dans le cas de l'Irlande, la recapitalisation du système bancaire a demandé plus de 20% du PIB de ce pays, ce qui a précipité le plan à destination de l'Irlande. D'une certaine façon, l'Irlande a gaspillé de l'argent sur ses banques alors qu'elle aurait pu étaler l'effort d'austérité sur une plus longue durée sans cela.

Le cas irlandais est caricatural: si les banques avaient été recapitalisée par l'ensemble des états de la zone euro, le coût aurait été de moins de 0.5% du PIB de la zone. En plus, le sauvetage des banques peut rapporter de l'argent: c'est ce qui s'était passé en Suède dans les années 90, c'est aussi ce qui s'est passé en France après 2008. Les pertes d'argent sont donc moins à craindre pour les états de la zone qui subissent moins la crise que dans le cas de prêts à un état comme la Grèce.

Au début de la crise en 2008, l'Irlande avait garanti toutes les dettes des banques — ce qui l'a menée à devoir accepter le plan d'aide. Ce comportement a forcé la Commission Européenne à proposer une harmonisation des différents systèmes existant dans l'Union. Le résultat de ces efforts a été une garantie de 100k€ par compte à vue, mais garanti séparément dans chaque état. L'étude d'impact donne toutefois des informations intéressantes au sujet d'un véritable système communautaire (p70): cela permettrait d'économiser 40M€ par an et le système pourrait mobiliser jusqu'à 230G€, capacité d'emprunt comprise, mais hors secours de l'état.

L'autre avantage est qu'un tel système permettra de clarifier les actions à mener en cas de faillite bancaire. Jusqu'ici, les états européens ont assumé presque tous les risques dans les faillites bancaires, seuls les actionnaires ont été rincés. Les porteurs d'obligations, eux, ont été jusqu'ici protégés. Étant donné que les états ont de plus en plus de mal à trouver l'argent dont ils ont besoin, c'est peu dire qu'une certaine pingrerie dans le domaine est nécessaire: rembourser ces créanciers ne devrait pas être la priorité. Cela permet aussi de créer un début d'union bancaire: le système de garantie pouvant saisir les établissements les plus faibles, il fixe les standards minimum à respecter, d'abord au niveau de la capital requis, puis au niveau de la régulation puisqu'un régulateur laxiste verra ses banques régulièrement saisies puis sans doute vendues à des banques étrangères. On peut d'ailleurs penser qu'une des raisons pour lesquelles il est très difficile de mettre en place un système pan-européen est que les politiques perdraient sans doute, via un affaiblissement de leur pouvoir sur les banques para-publiques comme les Landesbanken allemandes, les Cajas espagnoles ou encore comme Dexia en France, une parcelle très réelle de leur pouvoir d'attribuer de l'argent à leurs projets préférés.

Je vois quatre obstacles principaux à la mise en place d'une garantie des dépôts:

  1. L'impréparation générale du personnel politique européen. Elle est visible, il est étonnant que la garantie des dépôts, institution utile s'il en est, n'ait fait l'objet que d'un toilettage après le début de la crise en 2008. Que le premier ministre irlandais se soit précipité pour garantir toutes les dettes des établissements de son pays montrait bien qu'il y avait un problème. Dans une zone où les mouvements de capitaux sont libres et où il n'y a qu'une seule monnaie, le problème de la garantie des dépôts ne peut se régler que si l'ensemble de la zone est incluse dans le schéma et non découpée selon les frontières des états.
  2. L'opposition à la perte de souveraineté que cela représente. C'est un problème récurrent de l'UE: elle est vue comme un édifice technocratique qui ne tient aucun compte des désidérata de la population et impose des oukases insensés. Il est bien clair que l'apparition d'une garantie des dépôts aura des conséquences sur le statut des banques dans la zone euro ... et sur la répartition des taxes qu'on peut lever sur elles.
  3. Le problème de la supervision et des flux financiers. Dans un premier temps au moins, il est clair que l'argent ira des pays qui n'ont pas subi de bulles immobilières et ont des comptes publics en ordre vers les autres. À plus long terme, si les régulateurs restent nationaux, certains seront sans doute plus laxistes — ou plus malchanceux — que d'autres et les institutions qu'ils surveillent seront plus souvent saisies par le système de garantie. Ce problème porte en lui-même sa solution avec l'éviction progressive des régulateurs laxistes qui n'auront plus de banques à superviser au bout d'un (long) moment. Mais en attendant, la taille des flux financiers sera telle que bien des dents vont grincer.
  4. Le problème des «états voyous». Le cas de la Grèce l'illustre bien: maquillage des comptes publics, menaces de sortir de la zone euro, etc. Un pays pourrait menacer de quitter la zone euro et de spolier ses résidents après l'intervention du fonds de garantie. Cet état saisirait alors les fonds versés par le système de garantie après avoir fait défaut sur sa dette, rendant le système inopérant. Il faudrait alors trouver un moyen de verser l'argent en euro aux résidents de ce pays. Sans disposer de la force publique, cela paraît assez illusoire face à un état prêt à tout pour se financer.

Malgré tout, il semble urgent qu'une garantie des dépôts réellement européenne se mette en place. Si les déposants quittent les banques domestiques des pays les plus faibles, celles-ci disparaitront de façon chaotique, ce qui serait dramatique dans des sociétés modernes où, par exemple, les salaires doivent obligatoirement être versés sur un compte. Il est important de savoir si la zone euro est mûre pour un tel système et une sorte d'union bancaire à court terme, son avenir dépend sans doute de la réponse à cette question. Il vaudrait mieux que la réponse soit positive: des bank runs généralisés sonneraient le glas de la zone euro, comme une lecture a contrario du fameux article d'Eichengreen le laisse penser. Si les états ont du mal à se refinancer, que les banques sont en faillite, qu'il y a eu des bank runs, le risque de disparition de l'euro est très réel.

26 mars 2012

La réforme de la constitution de 2008

En juillet 2008, Nicolas Sarkozy a réussi à faire passer une réforme constitutionnelle à 2 voix près. Elle portait sur de nombreux sujets de la limitation des mandats du président de la République à la procédure parlementaire.

Sacrifiant à la tradition, on y trouve de la poudre aux yeux avec des mesures qui ne mènent à rien de concret, comme l'article 75-1, selon lequel les langues régionales appartiennent au patrimoine de la France. Dans le même ordre d'idées, on trouve le référendum d'initiative partagée, dont les conditions sont telles que les politiques auront déjà réagi avant qu'il ne soit organisé. Rassembler plus de 4 millions de signatures, même électroniques, en 3 mois relève de l'impossible sur des sujets qui ne sont pas passionnels et si un sujet devait susciter un tel engouement, les politiques voteront rapidement une loi qui barrera la voie au référendum. La loi organique nécessaire à son entrée en vigueur est d'ailleurs scotchée au Sénat où elle restera probablement. Cette modification de l'article 11 est donc allée rejoindre le rayon des modifications constitutionnelles attendant un certain temps leur loi organique.

Les réformes de procédure n'ont pas changé grand chose. Comme prévu, le changement de nom de l'urgence en procédure accélérée n'a en rien freiné la frénésie gouvernementale, mais juste enlevé le côté ridicule d'avoir un tiers des lois «urgentes». La discussion sur la base des textes des commissions oblige surtout le gouvernement à venir défendre sa position en séance publique, ce qui ne l'empêche pas d'y dire n'importe quoi et de compter sur des députés venus, bien chaussés, faire du remplissage loyal. De même, il est difficile de voir ce qu'a changé la modification de composition du Conseil Supérieur de la Magistrature, l'expérience montrant qu'un homme politique trouve toujours, de nos jours, le moyen de dire que la justice est éloignée du peuple.

Certaines mesures se sont avérées néfastes: la logique de la réforme était de donner plus de pouvoir aux parlementaires. La place supplémentaire accordée aux propositions de loi s'est surtout traduite par un surplus de textes idéologiques venant de la gauche et par l'apparition d'une voie détournée permettant au gouvernement de faire passer les textes qu'il avait honte ou peur de faire passer par la voie habituelle

D'autres mesures sont bienvenues, comme la limitation de l'article 16, un certain général ayant pris ses aises après le putsch des généraux en allant jusqu'au bout des 6 mois alloués. De même, la limitation à 2 mandats consécutifs, de fait, l'exercice de la fonction de président de la République est une bonne chose.

Mais la mesure principale, celle dont l'importance ne s'est pas démentie et ne se démentira pas à l'avenir est celle de la question préalable prioritaire de constitutionnalité. Il faut dire que c'est un droit attribué à chacun de faire valoir ses droits. Il est donc naturel que tous ceux qui ont une cause à faire valoir ne s'en laissent pas compter et fassent passer en revue les dispositions qu'ils jugent contestables. En termes d'efficacité, c'est sans doute la meilleure façon de procéder, il ne fait aucun doute que les requérants sont motivés et qu'ils présenteront les arguments de la meilleure façon possible. On lui doit déjà, en partie, la réforme de la garde à vue et la fin du délai d'oubli de 10 ans pour se prévaloir de l'excuse de vérité en cas de procès en diffamation.

À l'époque, il semblait surtout que la gauche s'opposait à cette réforme parce qu'il ne fallait pas laisser Nicolas Sarkozy enregistrer un succès. Les arguments utilisés allaient surtout dans ce sens. Les espoirs d'une tactique de négociation pour modifier le mode d'élection à une assemblée prétendûment éternellement à droite étaient franchement illusoires: si la révision n'était pas passée à l'été 2008, il n'y en aurait pas eu du tout, comme le montre l'exemple de la taxe carbone, remballée quand il est apparu qu'elle était impraticable. Il est clair que cette révision est à mettre au crédit de Nicolas Sarkozy, c'est même sans doute ce qu'il a fait de mieux et qui, grâce à la question préalable prioritaire de constitutionnalité, aura la plus grande postérité et les effets les plus durables.

edit: modifié l'intitulé de la QPC pour sa véritable signification.

4 mars 2012

Sarkozy et la justice

Les problèmes de la justice en France n'ont rien de nouveau. Le rapport «Quels moyens pour quelle justice?» a une première partie titrée «Le constat: une justice asphyxiée». Il date de 1996. La lecture du rapport laisse à penser que l'encombrement de la justice est surtout dû à l'explosion des contentieux civils: ceux-ci furent multipliés par plus de 3 entre 1974 et 1994. Au delà des complaintes de vieillards cacochymes sur la fin des traditions, on peut penser que la généralisation des divorces, la création de nouvelles missions — comme le surendettement — ainsi que la complexification du droit expliquent cette forte progression. On peut noter aussi que, déjà, on se plaint de la mauvaise qualité de (la) rédaction des textes normatifs.

Si le nombre de contentieux avait explosé, le nombre de magistrats n'avait augmenté que d'environ 20% et le rapport notait que les effectifs de magistrats étaient similaires en 1994 et avant la première guerre mondiale. Étant donné que la situation est peu à peu devenue critique et que le nombre de contentieux a continué à augmenter, les gouvernements n'ont pas eu vraiment le choix: ils ont augmenté le nombre de magistrats comme on peut le voir ci dessous, sur les graphes construits à partir du rapport, des chiffres clés de la justice (2011) et du budget 2011 de la justice. Quelques chiffres sur la justice

Le rapport, quoique vénérable, formule de nombreuses recommandations dont certaines pouvaient être tout à fait d'actualité en 2007, lorsque Nicolas Sarkozy est devenu Président de la République.

Le gouvernement a décidé dès le début du quinquennat de modifier la répartition des tribunaux en France, la carte judiciaire. Après avoir annoncé de grandes ambitions, il n'a finalement été décidé que de supprimer des tribunaux sur des critères qui sont restés obscurs. La comparaison de l'édition 2007 des chiffres clés de la justice avec celle de 2011 montre qu'au final 170 tribunaux d'instance ont été fermés, ainsi que 61 conseils de prud'hommes, 50 tribunaux de commerce et 21 tribunaux de grande instance. Le rapport, quant à lui, préconisait aussi d'en ouvrir de nouveaux, de mettre en place des audiences foraines et d'établir un plan à réaliser sur 10 ans. Le rapport signalait aussi pour le cas de la généralisation du juge unique que des locaux supplémentaires devaient être prévus, remarque qui peut s'étendre au cas de la carte judiciaire. Il ne semble pas que la refonte de la carte judiciaire ait donné lieu à une grande activité constructrice.

Au lieu de stabiliser le droit et de rédiger des textes de plus grande qualité, il a continué dans la ligne «un fait divers, une loi» qui lui avait été testée lors du quinquennat de Jacques Chirac. Ces lois sont uniquement des lois de circonstances destinées à faire accroire qu'on peut supprimer totalement le risque d'assassinats horribles. Leur valeur pratique et juridique est donc en conséquence nulle. La loi sur la rétention de sûreté est ainsi contraire au droit européen. Quant aux lois sur la récidive, elles consistent principalement en l'enfermement prolongé de ceux qui les subissent, ce qui ne fait pas grand chose d'autre que de retarder le moment de la récidive si on souscrit à l'idéologie qui les sous-tend. Cette tactique a créé de nouvelles tâches pour l'institution judiciaire, alors qu'elle est déjà surchargée. La conséquence est que, à la suite du meurtre de Laëtitia Perrais, le gouvernement de Nicolas Sarkozy s'est attaqué aux personnels, mais il est vite apparu que l'institution était gravement sous-dotée.

Le gouvernement de Nicolas Sarkozy a aussi choisi d'ignorer les arrêts de la CEDH sur la garde à vue. L'argumentaire déployé affirmait contre toute logique que les arrêts rendus contre d'autres pays par la CEDH n'avaient aucune conséquence en France (cf ce billet de Maître Éolas par exemple). Si on peut comprendre une attitude de déni temporaire de façon à gagner un peu de temps, ce n'est pas ce à quoi on a assisté. Le premier arrêt signant la mort de l'ancienne procédure date de fin 2008 (Salduz c. Turquie), mais le gouvernement a attendu que le Conseil Constitutionnel rende une décision sur QPC en juillet 2010 pour admettre le besoin de changer les pratiques et la loi. Les condamnations se sont enchaînées, avec pour conséquences que certaines gardes à vue se sont vues annulées et que le gouvernement a demandé l'application de le nouvelle loi avant son entrée en vigueur prévue. Non seulement le gouvernement n'a pas reconnu la vérité, mais il a aussi pris des risques avec des procédures en cours. Cette attitude est irresponsable.

Pour couronner le tout, il a été imposé une taxe de 35€ pour accéder à la justice, avec une longue liste d'exceptions à la logique difficilement perceptible et une autre de 150€ pour faire appel. La première taxe doit financer l'indemnisation des avocats commis d'offices pour leurs interventions en garde à vue, la deuxième pour indemniser les avoués, profession supprimée en cours de législature. On peut noter aussi que le nombre de jurés d'assises a été réduits pour pouvoir décorer certaines chambres correctionnelles avec 2 jurés, sous le prétexte de rapprocher la justice des citoyens.

En guise de conclusion, le bilan de Sarkozy en matière de justice me semble simple: il a tout fait à l'envers de ce qui aurait dû être fait. La justice souffre depuis bientôt 30 ans d'un afflux de dossiers sans que les moyens de les traiter aient été suffisamment augmentés. La priorité devrait alors être de limiter les tâches supplémentaires à ce qui est vraiment nécessaire, les droits de la défense tel que la CEDH les voit au premier rang. Au lieu de cela, il y a eu un déluge de textes mal rédigés, empilant des procédures nouvelles sur une institution déjà incapable de faire face correctement et rapidement à celles qui existent. La démagogie a régné sans partage, d'une part pour flatter la partie la plus répressive de l'électorat, d'autre part pour retarder le plus possible les évolutions qui dérangeaient.

8 décembre 2010

This time is different, Reinhart & Rogoff

Dans leur ouvrage ''This time is different'', Carmen Reinhart et Kenneth Rogoff dressent un historique général des crises financières. Leur travail est extraordinaire, en ce qu'il comprend des données remontant loin dans le temps — jusqu'au Moyen-Âge pour les questions monétaires, jusqu'au début du 19e siècle et parfois au-delà pour les données de dette publique — et couvrant un grand nombre de pays — seuls des pays ayant une présence négligeable dans la finance sont ignorés, faute de données. En établissant une telle base de données, ils peuvent donner un aperçu des différents types de crises, de leur prévalence, de leurs liens réciproques, des éventuels remèdes et aussi des raisons pour lesquelles les crises financières n'ont pas cessé et ne cesseront probablement jamais. Ce dernier point donne d'ailleurs son titre au livre: les crises sont en partie dues à la capacité qu'ont les hommes à se convaincre que, cette fois-ci, les choses seront différentes, qu'aujourd'hui, les causes des crises passées n'en entraînent plus du fait de circonstances nouvelles. Bien souvent, il s'avère bien qu'aux mêmes causes, il faille bien voir les mêmes conséquences et que ces circonstances nouvelles n'ont rien de fondamental.

Les auteurs commencent par définir les différents types de crises, s'intéressent au phénomène de répétition des défauts de paiements par les états, à la constitution de leur base de données. Ils passent ensuite à l'étude des crises proprement dites. Dans l'ordre de traitement, on trouve la répudiation de dette publique externe puis interne, les crises bancaires et enfin, les crises monétaires: forte inflation et hyperinflation, krachs monétaires. Les auteurs concluent leur ouvrage en étudiant la crise financière actuelle et tirent des conclusions.

La dette publique et sa répudiation

Le propos sur la dette publique et sa répudiation constitue sans doute le cœur du livre. La dette publique est une dette qui n'apparaît qu'à partir du moment où l'institution de l'état se sépare de la personne propre de son dirigeant. Cela est une nécessité pour les républiques et les auteurs situent ainsi en conséquence la naissance du marché international de la dette publique en Italie. Cette évolution institutionnelle a aussi lieu dans les monarchies européennes, ce qui fait que dès le 14e siècle les auteurs signalent la répudiation de sa dette extérieure, principalement due aux banquiers italiens, par la couronne d'Angleterre. Auparavant, les états cherchant des ressources monétaires rapidement ont parfois recours à des méthodes plus frustres qui se sont poursuivies longtemps. À partir du 19e siècle avec le décollage financier des principaux états européens et le délitement de l'empire colonial espagnol, le marché dette publique se développe et avec lui le cortège de répudiations.

Les auteurs différencient deux types de dette publique, la dette extérieure, émise sous la loi d'un autre pays, de la dette intérieure. Ils ont sans doute rassemblé la quasi-totalité des cessations de paiement sur la dette extérieure qui présente l'avantage d'être bien suivie. Ils ont par contre constaté qu'un tel travail était nettement plus ardu pour la dette interne. Même pour des états démocratiques de longue date et au système financier développé, ils ont rencontré des difficultés pour rassembler des données exhaustives. Il apparaît ainsi que les engagements internes ont aussi un caractère opaque pour une partie. La dette intérieure est aussi presque toujours importante du fait des outils dont bénéficie l'état pour forcer ses citoyens à lui confier — souvent via les banques — leur argent.

Un élément qui apparaît nettement dans le livre, c'est que les répudiations interviennent souvent en groupe et ce depuis fort longtemps. Ainsi, l'Espagne répudie sa dette en 1557, la France suit en 1558. Les états sud-américains sont aussi de bons exemples de ces cycles. Les auteurs dégagent une cause de répudiations: la guerre, surtout quand elle est perdue. Les autres paraissent plus obscures, mais sont liées au montant total de dettes et aux inversion de flux de capitaux. Se dégage en effet l'idée que la dette totale comparée aux revenus de l'état est un point important: il semble que les gouvernements répudient leurs dettes lorsque celle-ci franchit 3.5 ou 4 fois les revenus annuels. Un phénomène est aussi pointé, celui des séries de répudiations par certains pays. Si un pays répudie sa dette, il a de grandes chances de le refaire dans un futur assez proche créant ainsi une longue suite de répudiations. On constate cela pour les monarchies absolutistes européennes (France, Espagne), les pays d'Amérique Latine, bref tous ce qu'on pourrait appeler des pays "émergents". Ces pays ont aussi tendance à répudier les dettes à des niveaux plus faibles. Les auteurs expliquent cela par un phénomène d'intolérance à la dette qui se comprend relativement bien: ces pays paient des taux plus élevés et ont sans doute une réticence moindre à employer cet outil. On retrouve le thème du livre, les investisseurs comme les gouvernements semblent régulièrement penser que les choses ont changé pour retomber dans les mêmes travers.

Pour finir, on peut sortir de l'état de drogué de la faillite. L'exemple de la France en est un bon exemple: après avoir répudié sa dette à de nombreuses reprises sous l'Ancien Régime et un final exubérant lors de la Révolution (assignats, banqueroute des deux-tiers, etc) restructura sa dette une dernière fois en 1812. D'autres exemples sont remarquables: les Pays-Bas n'ont jamais répudié leur dette et, depuis la Glorious Revolution, le Royaume-Uni bénéficie d'institutions financières fortes. La dette britannique a ainsi pu atteindre 300% du PIB (cf ce graphique) d'alors au sortir des guerres napoléoniennes sans provoquer de répudiation. Le fait de repayer ses dettes semble ainsi très lié aux institutions du pays. En retour, le fait de pouvoir s'endetter énormément permet aux états de gagner les guerres longues, en ruinant leurs ennemis et en les dépassant en termes de moyens militaires. Cela permet aussi de mener des politiques contra cycliques en cas de crise, un avantage très substantiel.

Les crises bancaires

Les crises bancaires sont définies comme la faillite ou la prise de contrôle par l'état, à la suite de difficultés financières, d'une grande institution bancaire ou d'une multitude de petites. En consultant ce que les auteurs considèrent comme une crise bancaire, on remarque que cela rassemble des événements catastrophiques, comme la crise argentine de 2001, et des événements plus bénins, comme la faillite du Crédit Lyonnais. En conséquence, l'influence moyenne des crises bancaires sur la croissance du PIB est notable, mais pas extraordinaire. Par contre, les conséquences d'une crise importante sont bien souvent une récession, parfois profonde, suivie d'une croissance plus lente le temps que les dettes soient épongées.

Les crises bancaires entraînent une augmentation brutale de la dette publique. L'indicateur utilisé par les auteurs est curieux — ils comparent les niveaux relatifs de la dette avant et après la crise — mais il semble bien montrer que les états sont conduit à connaître de forts déficits en période de crise bancaire. Ce n'est pas tant à cause du coût du sauvetage en tant que tel, puisqu'il arrive même aux gouvernements de faire un profit sur ce type de plan proprement dit. La cause principale de la hausse de la dette publique est la crise économique qui est entraînée par la crise bancaire. Ainsi, les coûts du sauvetage peuvent presqu'être considérés comme mineurs.

Les crises bancaires frappent principalement les centres financiers internationaux, elles semblent plus courantes quand la circulation des capitaux est plus libre. Cela semble logique car d'une part, la libéralisation permet de prendre plus de risques dans des endroits éloignés et d'autre part, elle favorise les afflux de capitaux qui servent à alimenter les bulles de crédit généralement à la base des crises bancaires. Un corollaire de ceci est qu'aucun pays ne peut se targuer d'être vacciné contre les crises bancaires.

Les crises monétaires

Le dernier type de crises abordé est celui des crises monétaires, décomposé en chute du taux de change ou dévaluation, forte inflation et altération de la monnaie. Ici aussi leur gravité est variable: en systèmes de changes flottant, les mouvements de change sont erratique et le seuil fixé par les auteurs couramment dépassé. Ainsi l'euro a connu un crash vis-à-vis du dollar après la faillite de Lehmann Brothers, suivi d'un crash du dollar vis-à-vis de l'euro! Si elles ne sont pas forcément dramatiques en changes flottants, les dévaluations sont plus néfastes dans les systèmes où un taux de change est fixé par avance. Les dettes sont alors souvent contractées dans la monnaie suivie ce qui créée ensuite des problèmes de dettes. Cela dit, la baisse de la valeur de la monnaie permet aussi au pays victime de cela d'exporter plus et de profiter de la demande étrangère pour relancer son économie lors d'une crise. Les dévaluations paraissent ainsi des événements relativement bénins sauf lors d'événements particulièrement sévères où ils s'accompagnent d'une forte inflation.

L'inflation est la perte de valeur réelle de la monnaie. En conséquence, elle est utilisée depuis l'époque où les monnaies métalliques ont commencées à être frappées. Le livre contient ainsi un historique du contenu en argent des monnaies européennes depuis le Moyen-Âge jusqu'au 19 siècle, la perte moyenne est de 90%. Il faut aussi noter que certaines années ont vu des dévaluation de l'ordre de 50%, surtout après des défaites militaires, mais aussi des réévaluations lors de retours à meilleure fortune. L'intérêt pour les états était clair: ainsi on peut faire mine d'honorer les engagements pris. De nos jours le lien avec les métaux précieux a disparu et il est aisé de pratiquer ce genre de sport. Les gouvernements ne s'en sont pas privés, car cela permet bien d'alléger la charge de la dette, d'une part en diminuant son poids réel, d'autre part en collectant des revenus de nulle part. Même si l'inflation n'a pas des conséquences caractérisées par leur justice, elle a au moins le mérite d'une certaine efficacité sans avoir d'effets extraordinairement délétères lorsqu'elle est utilisée à dose élevée mais raisonnable. Mais si le gouvernement est surtout endetté à court terme, cela peut ne pas suffire et la fuite en avant jette le pays dans l'hyperinflation. Les effets sont alors dramatiques puisque, de fait, les moyens de paiement deviennent sans valeur et cela empêche tout commerce. Une autre cause de l'hyperinflation est la défaite militaire, comme le montre le cas de l'Allemagne en 1923 et de la Hongrie en 1945. Les états qui ont connu des épisodes d'hyperinflation voient souvent, de nos jours, leur monnaie disparaître au profit du dollar ou d'une monnaie vue comme non manipulable par le gouvernement. Ce qui n'empêche pas le gouvernement de forcer la conversion des dépôts lors des crises les plus graves ensuite, comme en 2001 en Argentine. On peut constater que les épisodes de forte inflation ont été réglés dans les pays développés avec l'indépendance des banques centrales.

Le livre se poursuit ensuite par une description de la crise actuelle qui est un parfait exemple de crise bancaire et une illustration du propos des auteurs.

Conclusion

Ce livre est principalement descriptif. Dans ce domaine, il est sans doute inégalé jusqu'ici au point que les tableaux occupent une bonne part des pages du livre. L'avantage est que cela permet d'avoir une vision d'ensemble et voir des corrélations de long terme. Le désavantage est que cela semble prendre un peu le pas sur l'explication des phénomènes et la détermination des causes. Cela dit il n'est pas sûr qu'il soit possible de dégager des causes, les différents types de crises se produisant parfois en même temps lors des événements les plus graves, et aussi, du fait de l'importance des choix des gouvernements sur la survenue de certains événements — comme l'hyperinflation. Les propositions de remèdes sont principalement institutionnelles: tant le problème de l'inflation que des répudiations de dette leur semble avoir été résolu de cette façon. Ils appellent aussi à plus de transparence dans les engagements des états, mais cela semble bien difficile à obtenir, surtout quand on constate que les dettes bancaires peuvent constituer de gigantesques engagements "hors bilan" et que les banques ont souvent intérêt à masquer une partie de leurs engagements.

À la suite de la répudiation équatorienne, les auteurs finissent pas une prédiction comme quoi les répudiations dans les pays émergents pourraient reprendre. Cela dit, il semble plutôt que les problèmes de dettes sont concentrés dans les pays développés.

28 novembre 2010

In memoriam fonds de réserve des retraites

Institué par le gouvernement Jospin dans la loi de financement de la sécurité sociale pour 1999, le fonds de réserve a reçu pour mission de gérer un capital pour faire face au vieillissement de la population en comblant au moins partiellement les déficits du régime général postérieurs à l'année 2020. Toutefois, le gouvernement a décidé d'utiliser ce capital dès 2011 pour combler au moins en partie les déficits prévus jusqu'en 2018.

Vider le fonds ou quand nécessité fait loi

À l'occasion de la réforme des retraites, le gouvernement a annoncé qu'il utiliserait le capital accumulé dans le fonds de réserve pour combler les déficits qui vont s'accumuler d'ici à 2018 pour la CNAV, date à laquelle le système serait à l'équilibre. Afin de faciliter la vie de chacun, le gouvernement ne précise pas le montant annuel pris sur le capital accumulé sur son site dédié. Il a aussi jugé bon de s'abstenir de mettre ce montant dans le projet de loi sur les retraites, mais le donne dans la loi de financement de la sécu pour 2011 (LFSS) à l'article 9 dont la rédaction mérite un prix pour sa clarté. Cette manière de procéder, d'ailleurs identique pour toutes les mesures financières, a d'ailleurs attiré les réprimandes d'un dangereux révolutionnaire, le rapporteur sénatorial Dominique Leclerc. Le fonds devra ainsi verser 2.1G€ tous les ans à la CADES à partir de 2011 et jusqu'en 2024; il n'aura plus de recettes fiscales.

Comme un calcul le montre, cela nécessite de mobiliser environ 24.5G€ maintenant en obligations d'état français. Au 30 septembre dernier, la valeur du portefeuille du FRR valait 35.1G€ dont 3.5G€ au titre de la soulte des industries énergétiques et gazières. Cette dernière doit être versée à la CNAV en 2020, c'est une contrepartie du soutien du régime général au régime spécial d'EDF-GDF. En fait, seuls 31.6G€ sont mobilisables pour combler les trous futurs. Le fonds ne sera donc pas entièrement liquidé en 2024, il restera un capital d'entre 10 et 20G€ probablement. Ce capital résultera des 7.1G€ actuellement «libres» et sans doute d'une fraction du capital à verser aux échéances les plus lointaines qui permettent de prendre quelques risques.

Les sénateurs s'opposaient, le 18 mai 2010, dans un rapport à l'utilisation du FRR pour combler les déficits actuels en ces termes:

Le FRR est l'un des rares signes adressés aux jeunes générations pour leur montrer que les pouvoirs publics préparent l'avenir en prélevant dès à présent des ressources pour financer les retraites des cotisants d'aujourd'hui. L'utilisation de ses réserves ne pourrait que renforcer l'inquiétude et la méfiance des plus jeunes à l'égard du système de retraite par répartition.

C'était alors. Un peu plus tard:

Certes, la date d'entrée en jeu du FRR est anticipée de neuf ans, mais il n'en reste pas moins que sa finalité est préservée puisqu'il contribuera au financement du système de retraite entre 2011 et 2024 et cela à double titre : (...)

Sous le bénéfice de ces observations, votre commission vous demande d'adopter les dispositions relatives à l'assurance vieillesse du projet de loi de financement de la sécurité sociale pour 2011.

Il faut dire qu'entre temps le gouvernement a fait connaître son projet et publié sa position:

Dans tous les pays où existent des fonds de réserve dédiés au financement des retraites, le principe est de constituer des réserves quand les régimes de retraite sont en excédent et de les utiliser en période de déficit. Le cas français constitue donc une anomalie : le FRR accumule des réserves alors que les régimes de retraite sont confrontés à des déficits importants depuis 2005 : 21,2 Md d'euros de déficit cumulé pour la CNAV entre 2005 et 2009 et 9,3 Md d'euros de déficit prévisionnel pour 2010.

La crise a encore accentué le caractère peu logique de cette situation en augmentant fortement le niveau des déficits. (...)

Le Gouvernement propose donc d’utiliser les ressources du fonds de réserve pour les retraites (FRR) pour financer l'intégralité des déficits du régime général et du FSV pendant la période de montée en charge de la réforme. Les régimes de retraite ont connu une accélération de 20 ans de leurs déficits : il est donc logique de mobiliser plus tôt que prévu le FRR dont le calendrier de décaissement devait débuter en 2020.

Au fameux article 9 de la LFSS pour 2011, le gouvernement prévoit que le montant des dettes que la CADES peut reprendre au titre des déficits des caisses de retraites est de 62G€. Cette somme correspond approximativement au cumul des déficits si on interpole linéairement les données du gouvernement. On s'aperçoit qu'il y a une certaine contradiction avec l'assertion selon laquelle l'intégralité des déficits du FSV et de la CNAV serait financée intégralement par l'utilisation du capital du FRR. Même si on considère que les recettes du FRR sont transférées à la CADES, les recettes pérennes du FRR ne sont que d'environ 1.5G€ par an. La CNAV prévoit aussi d'être en déficit de 4G€ en 2020 (2e §) et qu'il était de 4.6G€ en 2007.
Si ces remarques marginales ne font que peu tiquer les commissions parlementaires, habituées au pipeau gouvernemental, c'est qu'en fait ce qui leur importait, c'était que le FRR serve bien à éponger les déficits du système de retraite. En la matière, l'argumentation du gouvernement porte: il ne sert pas à grand'chose de garder une réserve alors que les déficits importants sont là. Nécessité fait loi.

L'abondement du fonds ou à la recherche de l'argent introuvable

À l'origine, le fonds de réserve devait constituer un capital de 1000 milliards de francs, soit environ 150G€, en 2020. Il s'agissait de francs constants, c'est-à-dire sans prendre en compte l'effet de l'inflation des 20 années postérieures à 2000. Si on prenait une hypothèse d'une inflation de 2% par an de 2000 à 2020 — hypothèse assez bien réalisée de 2000 à 2010 —, le montant réel à obtenir en 2020 aurait été de 225G€ environ. Dès cette époque, il paraissait toutefois peu probable que cet objectif soit réalisé, qu'on prenne en compte l'inflation ou pas, d'ailleurs. Cela dit, il est intéressant de comparer cet objectif à ce qui a finalement été obtenu.

Pour obtenir une somme donnée au bout de 20 ans, il faut commencer par trouver de l'argent pour alimenter le fonds. Vu que l'argent prélevé va être placé, on espère évidemment que les rendements seront positifs et par voie de conséquence qu'il faut prélever moins que la somme finale. Cela dit, des estimations réalistes de prélèvements et de rendement montrent qu'il faut au moins que les sommes prélevées soient égales à la moitié du capital final. En effet:

  • Si on prélève la somme d'un seul coup, obtenir un capital final double au bout de 20 ans implique un rendement de 3.5% par an. Si le rendement paraît relativement réaliste, prélever la moitié de la somme d'un coup l'est nettement moins: les 150G€ représentaient et représentent toujours plusieurs points de PIB. La moitié de cette somme (75G€) est toujours un montant considérable (environ 4% du PIB de 2009) et ce d'autant plus que, si les placements effectués se révèlent mauvais, rien ne peut rattraper cela que des rendements supérieurs les années suivantes.
  • Si on prélève une somme constante jusqu'à l'échéance et que les rendements sont constants, la somme des prélèvements n'est égale à la moitié du capital final que si le rendement est de l'ordre de 7% par an. Si ce rendement est le rendement nominal, cela est presqu'envisageable; s'il s'agit du rendement réel (le rendement nominal duquel on retire l'inflation), cela relève plus du rêve qu'autre chose.

On peut retrouver les calculs sur cette feuille Google.

De fait, on peut se dire que prélever progressivement 80G€ est véritablement un minimum. On peut donc se baser sur un objectif de 4G€ par an. Les rapports parlementaires préparatoires aux lois de finances permettent de retracer l'historique de ces abondements. Cela donne le graphe suivant: abondements frr_2.jpg On remarque immédiatement que les versements n'ont été supérieurs aux 4G€ nécessaires qu'une seule année, en 2002. Ils ne s'en sont rapprochés que 3 fois, entre 2001 et 2003. On est donc très loin des objectifs annoncés à l'origine. Les déficits généralisés dans tous les secteurs de dépense publique, que ce soit le budget général ou l'assurance maladie n'ont à l'évidence pas permis de dégager des financements. L'alimentation du fonds n'est en quelque sorte que la conséquence de l'absence de préparation ou de l'incapacité à se préparer aux problèmes parfaitement prévisibles de déficit des caisses de retraite.
De fait on retrouve ces difficultés dans le type de sommes allouées au FRR. Le fonds a été alimentés par 3 types de sources:

  1. Un part du prélèvement social de 2% sur les revenus du patrimoine. Cette part est fixée à 65% depuis 2003: le FRR a perçu 1.3% de ces revenus ces 7 dernières années. C'est pratiquement la seule ressource de 2004 à 2009.
  2. Les excédents de la CNAV et du FSV. Ce sont respectivement la retraite générale des salariés et le fonds ad hoc qui cotise par exemple à la place des chômeurs pour qu'ils continuent d'accumuler des droits.
  3. Des recettes de privatisation, sous une forme ou une autre. Cela recouvre les privatisations proprement dites ainsi que les ventes de parts de Caisses d'Épargne ou de licences UMTS.

La répartition est donnée ci-dessous. Compo FRR_2.jpg La part du prélèvement de 2% est prépondérante, les excédents ne représentent qu'un peu plus de 20% des versements. Depuis 2006, la CNAV est d'ailleurs en déficit. Cela veut dire que 80% des prélèvements n'ont que peu à voir avec le problème des retraites. On a finalement pris de l'argent là où on en trouvait, c'est-à-dire ailleurs que dans les caisses de retraite.
Cela pose un problème de principe. En effet, un tel fonds se conçoit surtout comme un lissage des conditions dans lesquelles sont accordées les retraites. Sa présence permet d'adoucir la hausse des prélèvements ou la période de transition vers des conditions plus dures. Il doit s'agir de constituer, comme son nom l'indique, une réserve à partir des cotisations présentes de façon à ce que les cotisants préparent leur retraite sans grever outre mesure les revenus de ceux qui resteront au travail après leur départ à la retraite. Cela doit normalement être possible lorsqu'une classe pleine cotise, son nombre devant permettre des excédents. Le raisonnement est un peu le même pour les générations dont l'espérance de vie croît. Si on se situe dans une logique de salaire différé, les fonds doivent provenir au moins majoritairement des cotisations des salariés. On vient de voir que ce n'est pas le cas. Même s'il est marginal par rapport aux sommes allouées aux retraites dans leur ensemble (d'ores et déjà plus de 10% du PIB par an), l'alimentation du fonds de réserve est symptomatique de la façon dont est géré le système de retraite: comme le reste du budget de l'état. On n'accorde finalement des droits que pour se trouver une justification des prélèvements, ces prélèvements servant à honorer une dette que l'état s'est constitué ... en s'engageant à verser des retraites. La constitution de cette dette n'obéit pas de façon logique à des règles définies auparavant: ainsi l'état a pu faire assumer au régime général les retraites de divers régimes spéciaux, évidemment plus généreux dans l'ensemble. Il faut trouver de l'argent pour honorer ces dettes, la provenance importe en fait peu.
Un autre point à souligner est qu'à partir du moment où les caisses de retraites sont en déficit, l'accumulation dans le fonds ne présente un véritable intérêt que si son rendement est supérieur à celui des obligations finançant le déficit.

L'état, un bon investisseur?

Il est toujours intéressant de savoir ce qui est fait de l'argent public: il a été prélevé à des personnes qui aurait pu en faire un autre usage, souvent à leurs yeux plus utile. Dans le cas présent, il s'est agi d'épargner de l'argent pour pouvoir lisser du mieux possible la transition démographique en cours, le vieillissement de la population. Il y a deux critères de jugement. Le premier est de savoir si, en partant d'une stratégie donnée le fonds a fait mieux ou moins bien que ce qu'un investissement indiciel aurait donné. Le deuxième est de savoir si l'arbitrage entre emprunter moins pour l'état et alimenter le fonds de réserve a été favorable ou pas. Étant donné que la période 1999-2010 a été marquée par deux fortes baisses des marchés actions, la réponse est avant tout calcul sans doute défavorable.

Pour effectuer une comparaison, les «placements» concurrents sont les suivants:

  • L'inflation, pour comparer la performance du fonds à l'érosion monétaire. Si le fonds contient plus que ce que donne l'inflation, sa valeur réelle a augmenté. Les données ont été récupérées sur le site de l'INSEE, l'évolution retenue est de mois d'octobre en mois d'octobre.
  • L'EONIA, le rendement du taux au jour le jour. Il est approximé par un rendement moyen mensuel. Les données ont été trouvées sur le site de la BCE.
  • Le taux des obligations d'état français à échéance longue. Ce placement fait sens pour le FRR, étant donné qu'il devait parvenir à échéance en 2020. Pour évaluer la performance, le taux long a été approximé par le taux à 10 ans. Le placement est basé sur des obligations 0 coupon d'échéance 2020 pour se faciliter le calcul. Les données de taux ont été trouvées sur le site de l'INSEE.
  • L'évolution des marchés boursiers. 2 indices ont été utilisés: le CAC40, indice vedette de la place de Paris, et le Stoxx 600, indice large de la zone euro. Les sociétés éditant ces indices ont la bonne idée de publier des indices de retour net à l'investisseur, ce qui facilite les calculs. On s'aperçoit que les performances sont quasiment équivalentes.
  • Un mixte de 50% d'obligations à échéance longue et de 50% d'actions. La répartition moitié-moitié est réajustée en début d'année. Cette stratégie est grosso modo celle adoptée par le FRR.

La valeur du fonds retenue est celle au 30 septembre dernier, la dernière valeur connue hors soulte EDF, de 31.6G€. On peut recréer le graphe ci-dessous grâce à cette feuille. Perfs FRR_2.jpg On s'aperçoit que le fonds a fait à peine mieux que l'inflation, un peu moins bien que l'EONIA et les marchés d'actions (bien que cela puisse être dû aux différentes dates de fin de relevé) et nettement moins bien que la stratégie panachant actions et obligations. Les obligations à long terme ont été le meilleur placement sur la période du fait du rendement supérieur aux placements à court terme et à la baisse des taux d'intérêt. Seuls des placements sur des marchés émergents hors d'Europe auraient pu dépasser ces rendements. Il reste que le fonds a représenté un coût net pour les finances publiques puisqu'il a rapporté moins que d'éviter une dette équivalente.
Le rendement constant menant à la même valorisation du fonds est d'environ 1.8% par an.
On ne peut que conclure que la performance financière du fonds a été peu convaincante. L'état semble être donc un piètre investisseur.

Quelques conclusions

Le fonds de réserve partait d'une analyse juste de la situation démographique. Son but de lissage était et est toujours louable, mais sa gestion rend peu optimiste pour ce genre d'institutions, en tous cas dans la situation politique actuelle en France.
Les objectifs de versement ont été assez largement ignorés. C'est dû à la gestion plus générale des finances publiques françaises, toujours en déficit, souvent important, sur la période d'approvisionnement du fonds. Il faut aussi remarquer que la caisse du régime général n'a pas eu les excédents escomptés, mais c'est grandement lié aux prévisions trop optimistes du gouvernement au moment de la réforme de 2003. Ce biais optimiste se retrouve un peu partout dans la gestion des comptes publics en France. Par exemple, aucun des programmes budgétaires prévisionnels envoyés à la Commission Européenne n'a été respecté, souvent du fait de prévisions de croissance extrêmement optimistes.

Le fonds a été victime des 2 crises boursières de la période. Sa performance aurait donc été médiocre de toutes façons, inférieure au coût correspondant de la dette. Mais sa performance est éloignée de la performance d'une gestion de type indicielle constituée à moitié d'obligations et à moitié d'actions, ce qui est anormal.

Ce type de fonds a aussi vocation à être utilisé juste après une crise. En effet, il est conçu pour absorber les déficits des caisses de retraites. Plus on s'approche de la date prévue d'utilisation, moins il y a de chances que les caisses soient en excédent. Comme leurs recettes dépendent de l'activité économique, le premier moment où on va utiliser le fonds est sans doute juste après que les recettes aient subi l'effet d'une récession ou simplement d'un ralentissement économique. Or ces périodes sont les plus défavorables aux marchés d'action, ce qui fait que le fonds risque de perdre de sa valeur juste avant qu'on s'en serve. Dans le cas présent, l'anticipation de l'usage est très importante du fait de la magnitude historique de la crise, mais aussi des prévisions gonflées des gouvernements successifs. La perte de valeur en 2008 a été très forte et, évidemment, impossible à compenser depuis.

2 novembre 2010

Un gouvernement à l'écoute

En 1993, l'affaire des écoutes de l'Élysée éclatait. Il apparaissait que personnes de la cellule anti-terroriste de l'Élysée avaient organisé des écoutes téléphoniques visant une grande quantité de personnes. La plupart des personnes écoutées n'avaient qu'un lointain rapport avec le terrorisme, on y trouvait par exemple l'actrice Carole Bouquet, mise sur écoute à cause de son compagnon d'alors qui intéressait lui aussi ladite cellule. Il s'agissait alors de toute évidence surtout de prévoir l'éclosion d'éventuels scandales en tous genres et de savoir ce que disaient certaines personnes à des postes politiquement sensibles. Un des motifs d'écoute était l'existence de Mazarine Pingeot, fille naturelle de François Mitterrand, que le vulgaire ignorait encore. Un autre motif était le suivi par les journalistes d'affaires sensibles comme les Irlandais de Vincennes. La cellule fut dissoute à la fin du premier septennat de François Mitterrand. Une loi fut aussi votée en 1991 pour acter les conditions dans lesquelles les écoutes téléphoniques sont légales — ce qui veut dire entre autres qu'auparavant les écoutes étaient illégales. Cette loi prévoit que des écoutes pouvaient être réalisées par le pouvoir exécutif seulement si:

  1. Elles sont ordonnées par le Premier Ministre. Ce dernier est donc l'autorité responsable du déroulement des ces écoutes.
  2. Ces écoutes doivent grosso modo concerner la sécurité nationale ou l'espionnage.
  3. Elles doivent être approuvées par la une commission ad hoc, la CNCIS (commission nationale de contrôle des interceptions de sécurité). Cette dernière ne dispose que d'un pouvoir de contrôle a posteriori, mais elle doit donner son accord au maximum dans les 7 jours suivant l'ordre du Premier Ministre.

En avril 2010, une rumeur selon laquelle les époux présidentiels ne seraient pas strictement monogames apparaît et fait contre toute attente l'objet d'un démenti officiel, alors que la règle dans la politique française est de ne jamais commenter ce type de rumeurs. On apprend aussi que l'Élysée soupçonne l'ancienne ministre de la justice Rachida Dati d'être à l'origine de cette rumeur, sans qu'on sache vraiment ce qui fonde ces préventions. En effet, selon Carla Bruni, Il n'y a aucune enquête de police, alors que quelques heures plus tard, Bernard Squarcini, directeur de la DCRI (renseignements intérieurs), affirmait avoir été chargé d'identifier la source.

En juillet 2010, l'affaire Bettencourt se poursuivait et prenait l'allure d'un feuilleton. On apprenait par exemple que Liliane Bettencourt faisait usage de 50k€ d'argent liquide par semaine ou encore que des personnalités politiques venaient de temps en temps chercher des enveloppes. On retrouvait les PVs d'audition dont l'encre était à peine sèche dans les journaux. Un record est certainement détenu par le Figaro, pour sa publication des procès verbaux de la deuxième audition de Claire Thibout, ancienne comptable personnelle de Mme Bettencourt. Le Monde, quant à lui, publiait le 18 juillet des extraits des déclarations à la police de Patrice de Maistre, intendant de Mme Bettencourt. Le 13 septembre, ce même journal annonce porter plainte pour violation du secret des sources. Le gouvernement aurait ordonné à la DCRI d'identifier la source du Monde, en faisait notamment usage des factures détaillées des abonnements des téléphones portables. Cette source serait David Sénat qui est aussitôt identifié promu dans un placard à balais, la mise en place de la Cour d'appel à Cayenne; on attend toujours l'identification de la source exceptionnelle du Figaro.

Suite à cela, le Canard Enchaîné publie 3 semaines de suite des articles sur ce sujet, les 22 et 29 septembre et le 6 octobre. Selon ces articles, les services de police font illégalement usage de l'article 20 de la loi sur les écoutes qui prévoit des écoutes aléatoires sur le spectre radio sans nécessité d'en référer à la CNCIS. Cette pratique est basée sur une autorisation du Premier Ministre à procéder de la sorte. Cette autorisation fut donnée lors que des méthodes similaires furent découvertes par la même CNCIS. Il s'agit donc d'une façon de continuer des pratiques interdites déjà découvertes par d'autres moyens. Suite à la plainte contre David Sénat, le procureur de Paris a demandé les éléments à charge contre lui à la DCRI qui avait affirmé avoir mené des vérifications techniques; il se voit opposer le secret défense, de même que dans les années 90, le secret défense avait été opposé à l'enquête sur les écoutes de l'Élysée. Il a été procédé de même pour débusquer Rachida Dati comme source de la rumeur. Il faut bien dire que l'explication du Canard est extrêmement plausible car il est difficile de connaître la source d'une rumeur sans remonter aux contacts des gens qui la diffusent. Non seulement, comme le Canard le narre, on peut logiquement soupçonner le gouvernement de consulter sans retenue les factures détaillées, mais aussi de prendre connaissance du contenu de ces communications et notamment des SMS.

Ainsi, le gouvernement piétine allègrement les procédures donnant quelques garanties aux citoyens contre l'arbitraire. Il fait procéder à des enquêtes sans titre, puisqu'il ne dépose plainte qu'une fois découverts les auteurs et que, de toute évidence, nous ne sommes pas dans le cas d'un flagrant délit. Il fait mener des actes éminemment attentatoires aux libertés individuelles sans s'embarrasser des procédures placées là pour éviter les cas les plus criants d'abus. On ne saurait limiter le secret des correspondances au seul contenu: le fait même de savoir qu'on a appelé quelqu'un peut porter atteinte à sa vie privée, il suffit de songer aux relations sentimentales cachées. Et lorsqu'il s'agit de révéler les éléments à charge, ceux-ci ne sont pas consultables. Il piétine tout aussi allègrement les institutions en se moquant de la CNCIS chargée de contrôler les écoutes administratives. Il est scandaleux de constater que les règles ne comptent pour si peu, les droits des personnes pour rien.

En outre, ces déviances s'intègrent tout à fait dans l'analyse de la société de défiance, portée par Yann Algan et Pierre Cahuc. La société de défiance n'est pas limitée aux domaines économiques, elle s'étend dans divers aspects de la société. Comment faire confiance à d'autres quand ils sont prêts à faire fi des règles, légales ou simplement traditionnelles, quand cela les arrange? L'état n'est d'ailleurs pas en reste dans ce domaine, il est sans doute un des acteurs qui engendre le plus de défiance, de part son pouvoir et l'usage de l'arbitraire qui n'est jamais loin. Dans le cas présent, alors que les citoyens sont droit d'attendre qu'on respecte leur vie privée et qu'en conséquence des formes soient mises quand on les surveille voire qu'on les espionne, il est difficile de croire que ceux qui interviennent dans le débat public se sentent tranquilles. Pour preuve, l'intervention le 18 septembre de Jean-Louis Bourlanges dans l'émission Médiapolis (entre 3'45 et 7'). Il y déclare notamment:

  1. Que chacun sait que dès que vous avez une responsabilité plus ou moins importante, vous êtes écouté
  2. J'applique à mes propres conversations — insuffisamment d'ailleurs — le principe de précaution

Quand on sait de quelle façon est traitée la piétaille, il est difficile de se dire que ceci ne concerne que quelques personnes s'intéressant de près aux affaires touchant le parti au pouvoir. Le fait est que ceci montre que faire confiance à l'administration et, dans le cas présent, à la police est une aventure de tous les jours.

Un autre aspect à noter est que les institutions avaient été mises en place pour éviter les dérives du premier septennat de François Mitterrand ainsi que celles probables des époques précédentes. À l'époque, comme il a été narré plus haut, il s'est entre autres agi d'affaires sentimentales ainsi que d'essayer d'anticiper ou de réagir rapidement à la sortie d'affaires dans la presse. Il est extraordinairement frappant que, de nouveau, l'absence d'une quelconque contrainte en la matière induit exactement les mêmes dérives. On cherche qui répand des rumeurs touchant les relations amoureuses et à savoir qui alimente la presse et quelles sont les intentions des journalistes. Le problème, c'est que cette fois-ci, on voit mal quel pourrait être le remède. Si le gouvernement a le droit d'effectuer des écoutes, c'est qu'il existe effectivement des motifs légitimes. Il est par exemple impossible ou presque de démasquer des espions pouvant menacer, comme au temps de l'URSS, la défense nationale sans recourir à des écoutes. Le piétinement des institutions rend les solutions improbables. Comment croire que le gouvernement n'utilisera pas de nouveau un prétexte fondé sur du vent ou tout simplement le secret pour, quand cela l'arrangera, se passer de ces contrôles bien embêtants? De fait, on peine à imaginer des procédures satisfaisantes et comment le pouvoir pourrait être arrêté par un autre pouvoir tout en préservant la possibilité d'écoutes.

Un aspect qui reste mystérieux est l'absence de réaction médiatique d'ensemble. Alors que cette affaire semble une redite de dérives passées, les réactions ont été mesurées, au point qu'on puisse considérer comme Jean-Louis Bourlanges que cette histoire a fait flop. Le Monde relate régulièrement les événements liés à ses plaintes, le Canard continue à publier des articles sur les conditions dans lesquelles ces écoutes se sont réalisées. Cela montre tout de même une banalisation de cette intrusion dans la vie privée. Le fait que les députés du parti au pouvoir ne trouvent rien de mieux que de renvoyer l'opposition à ses turpitudes passées en scandant Mitterrand, Mitterrand montre aussi, s'il en était besoin, qu'être au pouvoir obscurcit quelque peu le jugement.

On pourra se consoler en se disant qu'en la matière, le gouvernement exauce sans doute le vœu de nombreuses personnes, être écouté. Quoi de mieux que d'être écouté dès lors qu'on a une responsabilité? On entend aussi souvent les personnes intervenant dans le débat public se plaindre du manque d'écoute du gouvernement. Ces événements montrent qu'il n'en est rien, au contraire, le gouvernement est toujours très intéressé.

14 octobre 2010

Retour sur Tracfin & Julien Dray

À la fin de l'année 2008, des informations sont publiées par les journaux Le Monde et Le Parisien selon lesquelles Julien Dray est soupçonné de divers délits financiers au détriment de plusieurs associations proches du PS comme SOS Racisme. En janvier 2009, l'Est Républicain publie une note de Tracfin relatant divers mouvements sur les comptes de Julien Dray, de personnes qu'il connaît ainsi que d'associations dont il est proche. Ainsi, il est fait mention de mouvements qui peuvent sembler douteux aux yeux du vulgaire entre les comptes des associations et ceux de leurs responsables. Julien Dray n'est pas un de ces responsables mais en est un proche, et des mouvements connexes visant ses comptes sont mentionnés, dont des mouvements très importants liés à sa passion pour les montres de collection. Bref, ces informations mettent en cause l'honnêteté de certaines personnes engagées en politique mais aussi jettent le discrédit Julien Dray en faisant connaître les sommes importantes qu'il engage dans sa passion. Quoiqu'il puisse être intéressant pour le public de connaître de la gestion de certaines associations intervenant dans le débat public et dont la conception de la rigueur comptable ne semble pas correspondre aux standards actuels en la matière, on peut s'interroger sur plusieurs points douteux.

Le premier est de savoir s'il est sain de voir étaler la vie privée, même d'un homme politique, alors que celle-ci n'a pas d'influence directe sur les positions dans le débat public. Les réactions suite à la publication de la note sont à cet égard révélatrices. Autant sinon plus que les pratiques douteuses dans la comptabilité de SOS Racisme, la passion de Julien Dray et les montants mis en œuvre constituent un motif d'opprobre. Trouver un moyen de jeter un jour peu flatteur sur cette passion est aussi une occasion de nuire à la carrière publique de Julien Dray. La manière dont a été révélée la note montre aussi une certaine déloyauté puisque Julien Dray n'en aura connaissance que par l'Est Républicain, alors que des articles ont déjà été publiés dans la presse un mois auparavant. Julien Dray a exprimé lui-même son point de vue dans une suite d'entretiens (parties 1, 2, 3, 4). La lenteur proverbiale de la justice (ou de la police, en l'occurrence) française participent aussi de ce côté nuisible. Cette affaire ne s'est conclue qu'à la fin de l'année 2009 par un simple rappel à la loi… Un an pour procéder à des vérifications de comptabilité!

Le deuxième est la manière dont le rapport a été monté et notamment le point de départ. Ce point est nettement plus spéculatif, car on ne saura jamais réellement quel est le point de départ. Il y a 2 hypothèses principales, soit Tracfin a été d'abord alerté sur les mouvements des comptes des proches de SOS Racisme, soit par les mouvements sur le compte de Julien Dray. La première hypothèse semble assez bizarre dans la mesure où les chèques qui auraient transité sont de quelques milliers d'euros au plus, pour des gens qui ne sont sans doute pas des smicards. On sait aussi que certains peuvent retirer 50000€ en liquide toutes les semaines sans que l'alerte ne soit donnée. La deuxième hypothèse, c'est que ce sont les mouvements sur qui ont donné l'alerte chez Tracfin. Julien Dray manie des sommes importantes du fait de sa passion. Ces sommes peuvent alerter Tracfin car elles représentent sans doute parfois une année de son indemnité de député. Julien Dray est aussi le centre de l'enquête, non seulement on parle de SOS Racisme, mais aussi de l'association qu'il a fondé comme véhicule de soutien à son action d'homme politique. Dans les deux cas, l'action de Tracfin est nettement plus intrusive que le fait de regarder s'il n'y a pas blanchiment d'argent ou fraude fiscale. Dans la première hypothèse, pourquoi aller s'interroger sur l'association de Julien Dray? Dans la seconde, comment se fait-il qu'en partant des mouvements de fonds finançant sa passion, Tracfin regarde aussi les comptes de proches alors que les mouvements vers et de ceux-ci sont d'un ordre de grandeur plus faible? Il semble que dans ce cas comme dans bien d'autre, un organisme profite de son pouvoir d'enquête et de surveillance officiellement limité à certaines infraction pour mener en fait une surveillance opportuniste nettement plus générale. En clair, si Tracfin n'outrepasse pas ses droits légaux, sa légitimité est mince quand il s'agit de procéder à des enquêtes de ce type, sur la légalité de la comptabilité d'individus ou d'associations. Ces vérifications relèvent en fait du pouvoir habituel du fisc, pouvoir qui jouit d'ailleurs de contraintes affaibli par rapport à d'autre enquêtes. Le fisc enquête régulièrement sur la comptabilité d'entreprises et d'associations et procède certainement à des redressements pour celles qui en ont une conception trop exotique. Mais on voit mal pourquoi un organisme dédié à des infraction a priori plus graves vient faire ici.

Pour finir, une conclusion que ceux qui entretiennent une dispendieuse passion peuvent tirer est qu'il vaut mieux avoir des réserves d'argent hors de la vue de tels organismes. Cela leur permet non seulement d'échapper aux ennuis pour eux-mêmes mais aussi de protéger les gens avec qui ils ont des relations courantes de la curiosité de l'état. On conçoit bien que les convictions et le métier d'homme politique de gauche de Julien Dray l'empêchent d'utiliser de tels moyens, mais cela n'est pas valable pour tout le monde. Ce n'est pas la moindre des ironies que d'encourager ainsi des gens honnêtes à utiliser des moyens dont seuls les délinquants ou les criminels devraient avoir vraiment intérêt à se servir.