Quels effets peut-on attendre d’une réforme des seuils sociaux ?

Par François Gourio (Réserve Fédérale de Chicago) et Nicolas Roys (Université de Wisconsin)

[Une version un peu allongée de notre article paru dans Les Echos le 11 septembre 2014]

Dans un contexte de stagnation économique persistante, il est naturel de remettre en question les réglementations qui  freinent la croissance. La question des seuils sociaux a ainsi été relancée par le gouvernement, qui propose de lancer une négociation entre partenaires sociaux.

Les seuils sociaux sont les nombreuses obligations légales et fiscales qui s’appliquent aux entreprises quand elles embauchent leur 10ème, 20ème ou 50ème salarié. Par exemple, après 50 employés l’entreprise doit créer un comité d’entreprise et un comité hygiène et sécurité ; payer des contributions sociales plus importantes pour la formation ; en cas de licenciements économiques elle doit soumettre un plan social ; et ainsi de suite, car la liste est en fait beaucoup plus longue. Du fait de ces régulations, un nombre important d’entreprises hésitent à franchir ces limites: il y a 2 à 3 fois plus de firmes avec 49 employés qu’avec 50, une discontinuité remarquable. En freinant la croissance des entreprises situées en dessous des seuils, on réduit évidemment l’emploi mais aussi l’efficacité productive car les entreprises renoncent à leur configuration d’emploi idéale.

Certains proposent un « lissage » des seuils, c’est à dire étaler les obligations au lieu de les concentrer à 50 employés,  ou une augmentation des seuils, de 50 à 100 employés. On lit parfois que ces mesurent permettraient de gagner des centaines de milliers d’emplois, ou plusieurs points de PIB. Mais en fait les travaux récents[1] suggèrent des effets plus limités.

Une première approche, naïve, pour quantifier les effets des seuils est de compter le nombre d’entreprises situées juste en dessous du seuil et d’estimer leur croissance si le seuil était retiré. On arrive à un chiffre de 20 ou 30 mille emplois pour le seuil de 50.

Une approche plus sophistiquée estime les coûts indirectement à partir du comportement observé des entreprises. Estimer les coûts est mieux que les mesurer comptablement car certaines réglementations (comme les 0.2% de masse salariale redistribués par le CE) sont équivalent à du salaire, plutôt que des pertes pures. Ceci peut conduire à surestimer les coûts réels si utilise les coûts comptables. Mais on peut aussi imaginer l’inverse : la comptabilité ne rend pas bien compte des coûts d’apprentissage et d’adaptation aux régulations, et d’aspects difficile à chiffrer comme l’organisation des salariés à travers  le CE ou l’incertitude inhérente à ces règles. Cela tend à sous-estimer les coûts réels. Enfin, bien que les entreprises en dessous du seuil soient clairement pénalisées, on peut imaginer que celles au-dessus du seuil embauchent plus en raison de la compétition amoindrie.

Dans notre recherche, nous avons estimé un coût d’adaptation à environ 30.000 euros la première année que le seuil est franchi, et un coût faible les années suivantes. Cette approche suggère que supprimer entièrement les régulations qui s’appliquent à 50 employés conduit à 0.3% de PIB supplémentaire chaque année, soit 6 milliards d’euros par an. Les gains en termes d’emploi dépendent du fonctionnement du marché du travail mais seraient probablement inférieurs à 10 ou 20 mille emplois, un chiffre comparable à celui obtenu par la méthode naïve, et bien inférieur aux centaines de milliers parfois annoncés.

Ces résultats sont entachés d’une importante incertitude, mais deux faits simples plaident en faveur d’effets limités. D’abord, il y a relativement peu d’entreprises proches des tailles critiques : plus de 40% de l’emploi réside dans des entreprises de de plus de 250 employés, et 20% dans des microentreprises. Ensuite, bien qu’il y ait beaucoup plus d’entreprises juste en-dessous du seuil (45-49) que juste au-dessus (50-54),  il y a quand même un nombre significatif d’entreprises dans le second groupe. Cela suggère que le coût des régulations est limité, car si les régulations étaient très coûteuses,  on ne verrait pratiquement aucune entreprise avec 50, 52 ou 54 employés. Enfin de façon générale ceci reflète que les entreprises les plus productives passent le seuil dans tous les cas, car les profits de l’expansion dépassent les coûts des régulations. Ne sont « bloquées » que celles qui ne croîtraient pas beaucoup de toute façon.

Nous sommes particulièrement sceptiques sur la proposition d’un lissage des seuils, qui revient juste à disperser les coûts. Augmenter le seuil à 75 ou 100 serait plus bénéfique mais déplacerait le problème, et les gains à attendre sont donc encore plus faibles que nos estimations.  Au final, bien que les seuils aient des effets significatifs, il ne faut pas croire que les réformer aura un effet fondamental sur la croissance et l’emploi. Il faut chercher ailleurs (concurrence, marché du travail, innovation, éducation) les freins à la croissance. Enfin, une réforme des seuils sociaux devrait plutôt discuter de l’utilité et de l’efficacité des dispositifs déclenchés par les seuils, par exemple comment améliorer les comités d’entreprise.

[1] Parmi ces recherches, on peut lire notre article « Size-Dependent Regulations, Firm Size Distribution, and Reallocation », publié dans « Quantitative Economics » en Juillet dernier, ainsi que les études de Ceci-Renaud et al. http://www.insee.fr/fr/themes/document.asp?ref_id=iana2 et de Garicano et al. http://cep.lse.ac.uk/pubs/download/dp1128.pdf. Enfin, Cahuc et Kramarz dans leur rapport de 2004 « de la précarité à la mobilité » présentent une analyse des seuils sociaux en annexe 1.

Publicité

Réformer les seuils sociaux: quels effets?

Par François Gourio et Nicolas Roys

Nous avons écrit un article dans Les Echos, paru jeudi dernier, sur la réforme des seuils sociaux:

http://www.lesechos.fr/politique-societe/politique/0203767251705-une-reforme-des-seuils-sociaux-naura-que-peu-deffets-sur-lemploi-1041468.php

Nous publierons dans une semaine une version « blog » de cet article, qui est basé sur notre recherche.

L’investissement immatériel

Par François Gourio

J’ai posté il y a quelques jours un petit billet sur l’évolution récente de l’investissement productif en France, qui reste négative. Cette mesure d’investissement ne rassemble que les investissements dans des actifs « physiques » ou « matériels » (en anglais,  «tangibles»): ordinateurs, camions, machines-outils, bureaux, usines, centres commerciaux, … Cela correspond à l’idée que la capacité de production repose essentiellement sur ce capital physique. Mais de plus en plus, la  production repose sur des actifs « immatériels » ( «intangibles») comme les brevets ou plus généralement les améliorations apportées par la recherche-développement. Par exemple, une entreprise comme Apple a peu d’actifs physiques ; elle préfère externaliser la production de l’iPhone et se concentrer sur la conception. La comptabilité privée autorise depuis quelques années les entreprises à valoriser les brevets comme un actif à part entière. Une part importante de la valeur de certaines entreprises est ainsi liée à ce stock de propriété intellectuelle. Par exemple, Google a récemment acquis Motorola en bonne partie pour son stock de brevets. Kodak actuellement finance sa réorganisation (en redressement judiciaire) par la vente de ses brevets à d’autres entreprises de technologie. De la même façon, des entreprises ayant acquis le copyright d’œuvres artistiques (comme Sony, EMI ou autres) en dérivent des revenus réguliers importants.

Economiquement, investir c’est dépenser des ressources aujourd’hui pour acquérir un actif durable (au moins un an) qui sert à produire dans le futur, ayant des droits de propriété définis. Cela peut être un artiste qui écrit une chanson qui rapportera des droits pendant des années. Ou une entreprise qui paye un employé à chercher des améliorations à sa logistique. Ou même un étudiant qui paye des frais d’inscriptions pour obtenir un diplôme qui lui donnera accès à un certain emploi. Ou encore une entreprise qui investit dans de la publicité et du marketing pour acquérir des clients récurrents. D’un point de vue conceptuel, il n’y a pas de raison donc que la comptabilité nationale se limite à mesurer les investissements physiques.

En fait la comptabilité nationale (comme celle de l’INSEE que j’ai discutée dans le billet précédent) est principalement limitée par la difficulté à assembler et organiser des données fiables dans un temps court : il est plus facile de compter les camions construits que les innovations. Mais l’importance de l’investissement immatériel a conduit les systèmes statistiques à améliorer leurs mesures. Le Bureau of Economic Analysis (BEA), qui organise les comptes nationaux américains, a dans sa dernière itération introduit une mesure de l’investissement en « produits de propriété intellectuelle », qui recouvre d’une part l’investissement en logiciels (qui était déjà mesuré), l’investissement en R&D, et la création d’œuvres de divertissement donnant lieu à copyright (films, livres, télévision, théâtre, etc.). A terme, l’INSEE va aussi être amené à une modification similaire, qui est recommandée par les instances internationales.

Conceptuellement, cela revient à reconnaître que la production d’un film ne fait pas qu’augmenter le flux de divertissement aujourd’hui, mais permet aussi une augmentation de la production de divertissement dans le futur. Le BEA a estimé la durée de vie des différentes œuvres, et ainsi la hausse de production future et donc la valeur de l’investissement. (Voir ici pour la documentation technique.) Au final, ces changements ont augmenté le niveau du PIB d’environ 3%. L’investissement en produits de propriété intellectuelle représente environ un tiers de l’investissement total des entreprises.

La figure ci-dessous montre l’évolution de l’investissement en produits de propriété intellectuelle. Comme les autres types d’investissement, cette variable est volatile : elle varie fortement selon le niveau d’activité économique du pays (mais moins cependant que les achats de biens physiques durables comme les matériels de transport ou les ordinateurs).

ippd

Le PIB est non seulement égal à l’ensemble de la production mais aussi à l’ensemble des revenus, la somme des salaires et des profits de la production courante. De ce point de vue, reconnaître qu’une partie de la production est destinée à produire dans le futur conduit à prendre en compte qu’une partie des coûts des entreprises est effectivement de l’investissement et non pas une dépense pour la production courante. Cela conduit donc à réviser à la hausse l’estimation des profits.

A terme, on peut imaginer que les comptes nationaux incorporent aussi les investissements en marketing, en capital humain, et ainsi de suite. Certes les mesures risquent d’être plus imparfaites que dans des secteurs traditionnels de l’économie. Mais cela reflèterait de façon plus exacte les facteurs de production modernes.

 

La faiblesse de l’investissement en France

Par François Gourio

L’INSEE a publié le 14 août la première estimation de la production française (le PIB) pour le second trimestre 2013. La plupart des observateurs ont souligné le chiffre positif de +0.5% de croissance réelle (c’est-à-dire ajustée de l’inflation)  par-rapport au premier trimestre, soit un rythmne de croissance raisonnable de 2% par an.

Il faut prendre ces résultats avec précaution pour au moins deux raisons : d’une part, ces chiffres sont volatils d’un trimestre sur l’autre, et donc on ne peut guère extrapoler à partir d’une observation. D’autre part, il ne s’agit que de la première estimation, qui est sujette à des révisions. (L’INSEE rafine le calcul du PIB une fois que plus de données sont disponibles.) Pour donner un ordre de grandeur, la révision typique est de 0.3%  dans un sens ou dans l’autre.

Mais un aspect qui persiste depuis plusieurs années mérite d’être souligné : la faiblesse de l’investissement productif. La figure ci-dessous montre la part de l’investissement des entreprises dans le PIB. Pour faire simple, cela mesure la somme des achats de nouvelles machines de production (ordinateurs d’entreprises, camions, machine-outils etc.) et de la construction de nouveaux bâtiments de production (usines, centres commerciaux ou bureaux etc.), en part de la production totale.

invfrance2

Le déclin continu de l’investissement est inquiétant.

On voit bien qu’après une hausse importante entre 2006 et début 2008, l’investissement a baissé fortement (encore plus vite que le PIB) pendant la première phase de la crise (Lehman Brothers pour faire simple). S’est ensuivie une reprise qui a été complètement interrompue à partir de l’été 2011 par la crise de la zone Euro.

Les causes de la faiblesse de l’investissement sont probablement multiples : faible demande en Europe, restriction du crédit dans le contexte de la crise bancaire et de l’application des nouvelles règles de Bâle et de l’Union Européenne, augmentation des impôts sur le capital par le gouvernement Français, incertitude plus générale sur les perspectives à moyen-terme.

Quoiqu’il en soit, il est difficile de croire que la reprise française puisse continuer sans investissement accru. Le déficit extérieur ne ferait que se creuser, et l’emploi ne reprendrait pas de façon significative.

Pour être complet, la figure ci-dessous donne une perspective de plus long-terme sur ce ratio investissement-PIB : on voit bien les cycles économiques (points hauts en 1991, 2001 et début 2008).

invfrance1

Quelques compléments sur le vote pour les partis extrêmes et la situation économique

Par François Gourio

 

Ce billet complète le précédent et propose quelques variantes sur l’association entre situation économique d’un département et vote extrêmes.

  1. Autres mesures de la situation économique

On peut d’abord se demander si le taux de chômage capture effectivement la situation économique d’un département. Peut-être le revenu est un meilleur indicateur.

La figure suivante montre le vote extrême (défini toujours comme la somme des votes d’extrême gauche et d’extrême droite, en pourcentage des suffrages exprimés, au premier tour de l’élection présidentielle de Mai 2012) en regard du revenu médian par foyer fiscal, pour chaque département. On voit que la corrélation est fortement négative : les départements où le revenu médian est le plus élevé ont le moins de vote extrême.

fig1p

Cette corrélation est même plus forte si l’on considère le revenu du premier décile (les 10% de ménages qui gagnent le moins) au lieu du revenu médian :

fig2p

Cependant, le chômage est encore plus corrélé que le revenu.

2. Différences entre extrême gauche et extrême droite

Dans mon billet précédent, j’ai additionné les votes des partis d’extrême gauche et d’extrême droite. Cette simplification est-elle valable? Les figures suivantes montrent séparément le vote pour l’extrême gauche au premier tour de l’élection présidentielle de Mai 2012 (addition du vote Mélenchon, Arthaud et Poutou), et le vote Front National (Le Pen), en regard du taux de chômage.

fig3p

fig4p

La corrélation entre vote extrême gauche et chômage est de 0.31, contre 0.56 pour le vote Le Pen, et 0.70 pour le total des votes extrêmes. Ainsi, la somme des votes extrêmes est la variable la mieux corrélée avec le taux de chômage. Pour simplifier, on peut dire que dans certains départements, le chômage pousse le vote d’extrême gauche, dans d’autres il pousse le vote d’extrême droite, mais au final il pousse le vote des extrêmes de façon générale.

(3) Comparaison avec des variables non économiques

Il est évident que les variables économiques n’expliquant pas tout, il reste beaucoup d’espace pour des variables « sociologiques » ou plus généralement non-économiques.

Je souhaite illustrer toutefois qu’il n’est pas aisé de trouver des variables qui ont un pouvoir d’explication comparable aux variables économiques.

Par exemple, on pourrait penser que la structure par CSP ou le type d’habitat (maisons individuelles  ou habitat collectif) est corrélé avec le vote extrême. Ces corrélations sont faibles, par exemple :

fig5p

De même, la part d’habitants étrangers est faiblement corrélée avec le vote extrême :

fig6p

Cette figure est intéressante, car elle révèle une corrélation positive faible, qui est renversée au final par l’exception de l’Ile-de-France, caractérisé par des votes extrêmes relativement faibles et une forte proportion d’étrangers (nb : je crois que la définition d’étranger dans ces données est « né à l’étranger »).

Je termine cependant par deux corrélations assez robustes et peut-être surprenantes : d’une part, l’espérance de vie est associée négativement  avec le vote extrême :

fig7p

On peut vérifier que cette corrélation n’est pas l’effet direct du revenu.

 

D’autre part, le taux de fécondité des femmes jeunes (15-24 ans) est associée positivement  avec le vote extrême, de façon très forte :

fig8p

 

A l’inverse, la fécondité des femmes de 35-49 ans est associée négativement avec le vote extrême.

Note s sur les données : le premier post donne les liens sur les données.

Le vote pour les partis extrêmes et la situation économique

Par François Gourio

La situation économique en Europe fait craindre à de nombreux observateurs une augmentation du vote en faveur des partis extrêmes. Dans le cas de la France, le vote Front National ou extrême gauche pourrait bénéficier de l’impopularité actuelle du gouvernement, en particulier si l’opposition ne paraît pas crédible.

L’argument implicite est  que les déterminants économiques du vote sont importants, et en particulier qu’il y a une forte association entre hausse du chômage et vote extrême.

Dans ce billet, je vais illustrer cette corrélation de façon graphique, au niveau des départements. N’étant pas formé en sciences politiques, je présente ces observations de façon purement illustrative, et je suis ouvert à tout commentaire.

Pour définir le vote extrême, j’additionne le vote en faveur du Front National (à l’élection présidentielle de 2012, Marine Le Pen) et des candidats d’extrême gauche (en 2012, Nathalie Arthaud, Jean-Luc Mélenchon et Philippe Poutou). Bien que toute définition des « extrêmes » soit un peu arbitraire, ces candidats ont de commun qu’ils représentent des partis politiques qui n’anticipent pas de participer à une coalition gouvernementale. Les résultats présentés ci-dessous sont très similaires si l’on limite l’analyse à l’extrême gauche, ou à l’extrême droite.

Pour commencer, la première figure montre le vote extrême au premier tour de l’élection présidentielle de Mai 2012, en pourcentage des suffrages exprimés, en regard du taux de chômage en 2011 dans chaque département.

fig1Le numéro de chaque point sur la figure correspond au numéro du département. (Si vous faites partie comme moi des générations qui ont échappé à l’apprentissage des chefs-lieux et des numéros de département, vous pouvez consultez la liste ici.) La corrélation est élevée, proche de 0.7, bien qu’il existe de nombreuses exceptions comme Paris (75), les Hauts-de Seine (92) ou la Seine St-Denis (93), qui votent moins pour les partis extrêmes que leur taux de chômage ne le suggérerait. A l’inverse, le Jura (39) ou la Lozere (48) votent plus pour les partis extrêmes que leur taux de chômage ne le suggérerait.

En moyenne, une hausse du taux de chômage de 1 point est associée à une hausse du vote extrême de presque 1.8 point.

Il faut bien sûr prendre garde à ne pas extrapoler directement cette figures : il est possible que le taux de chômage ne soit pas un déterminant direct du vote extrême, mais que la corrélation entre chômage et vote extrême résulte d’une corrélation avec d’autres variables socio-économiques, elles-mêmes corrélées avec le taux de chômage. Pour prendre un exemple imaginaire, il est théoriquement possible que le vote extrême soit entièrement « causé » par la population immigrée, et que celle-ci soit plus forte là où le chômage est plus élevé. Dans ce cas, l’association relevée entre chômage et vote extrême résulterait d’un artefact, et non d’une relation causale stable.

Mais comment peut-on alors mesurer l’effet direct du taux de chômage sur le vote extrême? Une stratégie rudimentaire consiste à corréler la croissance du chômage par département avec la croissance du vote extrême. Ceci permet de contrôler pour les facteurs « sociologiques » propres à chaque département, si tant est qu’ils soient à peu près constants. (En jargon d’économètre, on met des « effets fixes. ») Par exemple, cela permet de retirer l’effet des structures anthropologiques discutés par Emmanuel Todd et Hervé Le Bras dans leur récent livre. La figure suivante démontre qu’en moyenne, les départements où le chômage a le plus cru entre 2007 et 2012 sont aussi ceux où le vote extrême a le plus cru :

fig3ext

La taille de l’effet est cependant inférieure à celui observé dans la première figure : 1 point de chômage supplémentaire correspond à environ 1 point de vote extrême. Ainsi, le contrôle des effets propres à chaque département conduit à une estimation plus modérée de l’effet causal du chômage.

Un élément sous-jacent intéressant est que l’association entre taux de chômage et vote extrême a changé au cours du temps. Par exemple, en 2002 on obtient la figure suivante :

fig3

La corrélation, quoique positive, est nettement plus faible qu’en 2012 (pour les amateurs, le coefficient de corrélation est de 0.44 contre 0.70 en 2012, et la pente de 1.2 contre 1.8). Il semble donc que le vote extrême soit devenu « plus économique » qu’avant.

Enfin, au niveau national, le vote extrême ne paraît pas fortement corrélé avec le taux de chômage: par exemple, le vote extrême a augmenté entre 1995 et 2002 alors que le chômage baissait nettement. Mais il est difficile de contrôler pour tous les autres facteurs qui ont pu affecter le vote extrême entre 1995 et 2002. L’avantage des données départementales est précisément qu’elles présentent plus de variation indépendante.

Conclusion

Que déduire de ces figures, avec bien des précautions ? Il y a effectivement une association forte entre chômage et vote extrême aujourd’hui, et plus qu’autrefois. En extrapolant l’évolution récente, une hausse du taux de chômage de 2 points par-rapport à 2012 conduirait à une hausse du vote extrême d’environ 2 points. Cependant, il faut garder à l’esprit que les variables économiques n’ont qu’un pouvoir d’explication limité : toutes ces corrélations demeurent imparfaites (on le voit bien sur la seconde figure en particulier ou la variation du vote extrême n’est que peu expliquée par la variation du chômage).

Notes sur les données : les données ont été créées en liant des variables socio-économiques disponibles sur le site de l’INSEE et les résultats des élections (source). Un fichier Stata® contenant les données collectées est disponible ici. Les intitulés de variables sont relativement explicites. Code Stata® ici. Cet autre code organise les données sous forme de panel. Il serait évidemment très intéressant de poursuivre cette analyse à un niveau plus désagrégé, chaque département étant très héterogène.

L’assurance à prix cassés

Dans les mois qui ont suivi la faillite de Lehmann Brothers en septembre 2008, les entreprises ont vu leur financement se tarir au-delà de ce que les plus pessimistes avaient pu imaginer. On se rend mieux compte aujourd’hui de la situation dramatique dans laquelle même les emprunteurs les plus solides ont été placés. La Fed a révélé en 2011 l’étendue des prêts d’urgence qu’elle avait consentis à l’époque ; ce graphique de Bloomberg  en donne une illustration frappante. Les institutions financières (dont beaucoup ne sont pas américaines) arrivent en tête, mais de nombreuses entreprises d’autres secteurs ont aussi eu recours à ces prêts.

Un article récent nous dévoile un autre aspect de cette crise de financement. Dans « The Cost of Financial Frictions for Life Insurers », Ralph Koijen (Chicago) et Motohiro Yogo (Minneapolis Fed) montrent comment dans les derniers mois de 2008, les grands assureurs  ont vendu certains de  leurs produits à prix cassés afin de se procurer des liquidités. Koijen et Yogo étudient le marché de l’assurance-vie ainsi que celui des annuities—on dirait en France des rentes. Les rentes sont un produit financier très simple. Prenons l’exemple d’une 10-year term annuity, soit une rente de dix ans :  en échange d’un  paiement initial, l’acheteur se voit garantir par l’assureur un paiement d’un dollar chaque année, pendant dix ans.  A l’échéance, l’assureur ne doit plus rien à l’acheteur, qui a simplement transformé un capital initial en un revenu régulier.  La somme des revenus est de dix dollars, mais la valeur de la rente est moindre : l’acheteur aurait pu aussi se garantir un flux de revenus équivalents  en se munissant de bons du Trésor américain par exemple, qui rapportent un intérêt. Dans des circonstances normales, une telle annuity se négocie autour de 8,5 dollars—une valeur proche du  prix du portefeuille  équivalent de bons du Trésor.

A la fin de 2008, la valeur des annuities s’est brutalement effondrée. Koijen et Yogo donnent l’exemple d’une rente de dix ans vendue par Met Life, un très gros assureur. En novembre 2008, Met Life proposait cette rente pour 7,74 dollars, alors même qu’il lui en coûtait….  8,48 dollars pour acheter le portefeuille équivalent au Trésor ! Ce n’est pas un exemple isolé : les auteurs estiment que les rentes ont été vendues bien au-dessous de leur coût en moyenne en novembre et en décembre 2008, et que les polices d’assurance-vie étaient bradées de manière encore plus spectaculaire.

Comment l’expliquer ? à l’automne 2008, il était devenu de plus en plus difficile pour les entreprises de se procurer des liquidités ; et celles qui en disposaient les gardaient précieusement dans la crainte d’avoir à les utiliser. Dans ces conditions, chacun essayait de vendre ce qui pouvait l’être afin de se procurer de l’argent frais. Pour les assureurs, il s’agissait de vendre des polices ; chaque  contrat vendu  leur permettait de se procurer des fonds, en espérant que leur situation se rétablisse avant qu’ils n’aient à verser l’essentiel des flux de revenus correspondants.  Les rentes de long terme ont les caractéristiques idéales, puisqu’elles laissent plus de temps à l’assureur pour se refaire une santé. C’est bien ce que l’on a observé : le taux de marge était proche de zéro sur les rentes à 5 ans, et atteignait… -20% sur les rentes à 30 ans.

Un mystère demeure : comment les autorités de contrôle prudentiel des assurances, habituellement très strictes, ont-elles pu autoriser ce type de stratégie acrobatique ? La réponse tient à une particularité de la régulation des rentes, qui autorise les assureurs à  actualiser leurs engagements à un taux indexé sur les rendements des obligations. Comme le rendement exigé par les prêteurs sur le marché des corporate bonds s’était envolé, les réserves requises des assureurs ont beaucoup diminué. Du coup, les assureurs ont pu solder ces produits  sans craindre de perdre leur précieux rating (la notation que leur attribuent les agences qui jugent de la solvabilité des emprunteurs).

D’autres stratégies étaient possibles, et de nombreux assureurs les ont explorées : acheter une banque (parfois pour la revendre une fois la crise passée), fusionner, etc. Mais cette solde de rentes a été pratique courante. On murmure  qu’aujourd’hui de grands assureurs ont créé des filiales de shadow insurance pour y parquer leurs engagements correspondants… mais ceci est une autre histoire.

Ô! La jolie bulle… (ou: l’affaire Bitcoin)

 

Bitcoin, qui avait fait parler de soi il y a deux ans, est de retour sur le devant de la scène.  Le graphique ci-dessus montre pourquoi.  Dans ce billet j’essaie de comprendre comment fonctionne le système bitcoin, avant de livrer quelques réflexions sur sa nature et son avenir.

1. Le Système Bitcoin

Les promoteurs de cette invention disent que c’est, plus qu’un système d’échange, une monnaie électronique ou virtuelle.   Les autres monnaies que nous connaissons (euros, dollars, livres) ont une incarnation physique, pièces et billets, créé par une autorité étatique.  Certes, beaucoup de transactions en dollars ou en euros sont immatérielles : un virement de mon compte au vôtre se fait par un message électronique.  Mais in fine ce message soustrait à mon compte en banque et rajoute au vôtre : or, un compte en banque n’est que le droit d’exiger de la banque des pièces et des billets émis par l’Eurosystème et le paiement entre les banques se fera sur les comptes tenus par l’Eurosystème.

Le créateur de bitcoin avait deux objectifs : créer un moyen de paiement purement virtuel, sans incarnation physique, et le gérer de façon décentralisée.  Le système qu’il a créé est récursif. À un moment donné, Paul est légitime propriétaire de sa Bitcoin parce qu’il l’a obtenue par une transaction validée.  Il la cède à Pierre en procédant à une transaction; cette transaction est validée par un réseau décentralisé qui vérifie (1) que Paul est bien le propriétaire et (2) que Paul a accepté de la donner à Pierre.  Après vérification, Pierre est légitime propriétaire.  Cette vérification est possible parce que le réseau, collectivement, établit une liste de toutes les transactions passées; les membres du réseau sont rémunérés pour leurs efforts par la création contrôlée de nouvelles Bitcoins.  

Ceci m’a paru un peu mystérieux, et j’ai essayé de comprendre la mécanique exacte de ce système. Voici quelques précisions :

Pierre installe un logiciel sur son ordinateur et acquiert une identité (une suite de lettres et de chiffres), voire plusieurs ; un code secret est associé à chaque identité.  Pierre trouve Paul prêt à lui céder un bitcoin en échange d’un bien, d’un service ou d’une monnaie comme l’euro.  Une fois l’accord conclu et confirmé avec les codes secrets, le logiciel diffuse la transaction proposée à un réseau « peer-to-peer », c’est-à-dire un ensemble de serveurs (appelés les « mineurs ») qui recueillent toutes les transactions proposées, toutes des messages de la forme : « Paul tient sa pièce de la transaction nº Z et propose de la donner à Pierre qui accepte ».  À intervalles réguliers (environ dix minutes) ces mineurs agrègent les transactions proposées dans un « bloc » et vont tenter d’ajouter ce nouveau bloc à la fin d’une grande liste ou chaîne de blocs, connue de tous, de toutes les transactions depuis le commencement.

Pour ce faire, ils  vérifient que la transaction nº Z n’apparaît pas dans la chaîne comme origine d’une autre transaction : autrement dit, que Paul ne tente pas une « double dépense ».  De plus, chaque mineur peut inclure dans le nouveau bloc une transaction sans partenaire qui lui attribue un nombre N de bitcoins (une création de monnaie).  Les mineurs s’attellent à une tâche mathématique qui consiste à calculer une fonction de cette chaîne et du nouveau bloc de transactions, pour en tirer une valeur, dite « hash », obéissant à certaines règles (soit x la chaîne dans son état actuel avec le nouveau bloc: il s’agit de varier une valeur de circonstance n pour trouver f(x,n) dans l’intervalle [0,α], où α est un paramètre fixé par le logiciel).

Trouver une solution à ce problème demande beaucoup de calculs bruts (il faut essayer beaucoup de valeurs de n), mais il est facile de vérifier a posteriori qu’une solution proposée est correcte (de même qu’il est difficile de factoriser un nombre N en m et p mais facile de vérifier que m*p = N).  Le premier mineur qui trouve une solution la diffuse aux autres membres du réseau qui la vérifient et incorporent le bloc à la chaîne.  Toutes les transactions dans le nouveau bloc, y compris la récompense de N bitcoins pour l’heureux mineur, sont validées (reçoivent un numéro) et les échanges correspondants sont définitifs.  Le même processus reprend dix minutes plus tard.

Le paramètre α régule la difficulté du problème : plus α est proche de zéro, plus il faut de temps et de processeurs pour trouver le bon n.  Le logiciel qu’utilisent les serveurs ajuste α au cours du temps, en mesurant le temps qu’il a récemment fallu pour trouver une solution.  Si ce temps se réduit, α est réduit aussi, pour tenir compte du progrès technologique et de l’accroissement du réseau.  Le paramètre N (la valeur de la récompense) est aussi ajusté au cours du temps pour planifier la croissance de la masse monétaire.  La trajectoire future de N est prévue de façon à ce que le nombre total de bitcoins plafonne à 21 millions (on est aujourd’hui à 10 millions, et il est prévu d’atteindre ce plafond dans vingt ans).  Quand la création de bitcoins cessera, les « mineurs «  se paieront eux-mêmes en prélevant une commission sur chaque transaction.

Ceci résume (a) comment les pièces sont créées et (b) comment elles sont échangées.  Les échanges sont validés et enregistrés par le réseau à un certain coût, et le travail accompli par le réseau est rémunéré en créant de nouvelles pièces.  La raison d’être de ce coût est le principe du « proof of work » : il rend la falsification coûteuse, parce qu’il faut fournir un effort pour ajouter un bloc à la chaîne.  Pour falsifier une partie de la chaîne, il faudrait fournir autant d’effort qu’il en a été fourni pour créer la chaîne authentique, ce qui devient vite prohibitif.

2. La monnaie du futur ?

Il est clair qu’à l’heure actuelle, bitcoin n’est pas une monnaie au sens commun du terme, parce que ce n’est pas un moyen d’échange généralisé.  Le nombre de transactions est faible (quelques milliers par heure), l’emploi en est essentiellement spéculatif : par conséquent la valeur en est extrêmement instable.

Mais admettons qu’il s’agisse de « douleurs de croissance ».  Le système bitcoin, tel qu’il est conçu, pourrait-il devenir à terme une véritable monnaie ?  Et serait-elle supérieure à celles que nous connaissons ?

Monnaie-marchandise ou monnaie fiduciaire ?

D’abord, de quel type de monnaie s’agirait-il ?

Le terme de « mineur » suggère une analogie avec l’étalon-or, mais imparfaite.  Mettons pour simplifier que quiconque peut faire des pièces, qu’il est coûteux de faire une pièce en or (parce qu’extraire l’or du sol est coûteux) et facile de vérifier si une pièce est en or ou non.  Ceci plafonne la valeur des pièces qui ne peuvent valoir plus que leur coût de production (or compris) sinon on en ferait plus.  Comme l’or est coûteux ce plafond est élevé, permettant aux pièces de valoir beaucoup.

Mais cela ne garantit pas la valeur des pièces : c’est le fait que l’or est utile en plus d’être coûteux, et qu’il est facile d’extraire l’or d’une pièce : il suffit de la fondre.  La valeur d’une pièce en or ne peut descendre en-dessous de la valeur de son contenu, sinon on la fondrait.  La dépense qui a été faite pour créer une bitcoin est perdue à jamais, et n’a servi à rien d’autre que sécuriser le réseau bitcoin.  Le détenteur d’une bitcoin ne peut rien en tirer d’intrinsèque, sa valeur provient uniquement de la capacité à l’échanger avec quelqu’un d’autre—sa liquidité.  En ceci la bitcoin est comme les autres monnaies fiduciaires.  Tout ce qu’on peut dire, c’est que si les bitcoins ont une valeur non nulle, et si ils sont échangés, cette valeur ne peut être inférieure au coût de production.

Voyons les ordres de grandeur.  Ce site permet de calculer ces coûts.  Une machine dédiée d’une puissance de 100W coûte $2 500 et calcule 50 gigahash par seconde (GH/s) à un coût de $0,36 par jour en électricité.  Le réseau Bitcoin dans son ensemble fait 50 000 GH/s, donc dépense $360 en électricité pour produire environ 5 000 bitcoins par jour.  Ajoutons à cela la dépréciation de mille machines sur un an, le coût total de production est de $0,69 par bitcoin, ou un demi-euro. On voit que les coûts de production sont loin de justifier la valeur actuelle (au 16 avril) 100 fois plus élevée.

Nous sommes en présence d’un avoir dont la valeur intrinsèque, ou fondamentale, est faible voire nulle, en tout cas largement inférieure à sa valeur marchande.  N’est-ce pas la définition d’une bulle ? Une définition possible en tout cas (intuitivement, on est aussi tenté d’identifier une bulle au vu d’un graphique comme celui supra, quand une valeur monte très vite puis tombe).  Mais la monnaie elle-même n’est-elle pas une bulle ? Un avoir qui n’a aucun rendement mais que j’achète dans l’espoir de le revendre à un autre.  C’est même une bulle utile…

Anonymat

Bitcoin est conçu pour remplacer l’argent physique.  Mais l’argent sous forme physique a certaines caractéristiques avantageuses :

  1. un billet ne peut pas être ici et ailleurs en même temps
  2. un billet étant un bien meuble, possession vaut titre
  3. l’authenticité d’un billet peut, dans une large mesure, être établie par examen direct
  4. un billet peut être échangé contre de la marchandise à travers un trou dans un mur, acheteur et vendeur peuvent être complètement anonymes l’un pour l’autre.

Le système Bitcoin essaie de reproduire ces caractéristiques.  Une pièce n’est plus un objet physique : c’est un numéro de transaction dans une liste ordonnée qui a un antécédent mais pas de successeur.  L’authenticité de la pièce ainsi que son titre de propriété résident dans cette liste. On peut penser à un cadastre.  Comment puis-je prouver que je possède mon champ ?  En consultant le cadastre, où est enregistré l’achat du champ par moi, et où n’est pas enregistré la vente du champ par moi.

Dans le cas du cadastre, l’enregistrement est fait par une autorité centrale.  Pour éviter cette centralisation, il a fallu payer un prix: créer un système décentralisé mais coûteux pour décourager la fraude.  Pour inciter les acteurs à payer ce coût, on les rémunère avec de la nouvelle monnaie.

L’anonymat, en revanche, est loin d’être parfait.  Presque par définition, il faut que les transactions soient effectuées entre des entités identifiables, les adresses bitcoin.  Certes, ces identités ne correspondent pas strictement à des individus, mais les individus doivent faire des efforts supplémentaires pour éviter d’être identifiables.

Monnaie et mémoire

« La monnaie est mémoire » : c’est le titre d’un bel article de Narayana Kocherlakota, aujourd’hui président de la Fed de Minnéapolis.  La monnaie est utile parce qu’elle permet des échanges qui n’auraient pas lieu sans elle.  Exemple classique remontant au juriste Paul (2e siècle ap. J.C.) : j’ai une pomme et je veux une orange.  Je rencontre quelqu’un qui a une orange mais lui veut une poire.  Nous ne pouvons faire d’échange.  Mais si la monnaie existe, je peux vendre ma pomme à quelqu’un qui en veut mais n’a pas d’orange contre une monnaie, puis j’achète l’orange à son possesseur qui l’accepte car il trouvera quelqu’un pour prendre la monnaie et lui donner une poire : les échanges sont effectués et nous en sommes mieux lotis.

On pensait depuis toujours que ce problème de « double coïncidence des besoins » donnait sa raison d’être à la monnaie.  L’article de N. Kocherlakota montre que c’est l’absence de mémoire.  Tous les échanges que la monnaie permet d’effectuer pourraient l’être si les agents en savaient assez sur les échanges antérieurs effectués par leurs partenaires.  Le possesseur d’orange me la donne (sans contre-partie) parce qu’il sait que j’ai toujours donné ma pomme à celui qui en avait besoin; et lorsqu’il rencontrera le porteur de poire, celui-ci saura qu’il m’a donné l’orange quand il le fallait.  Si l’un d’entre nous refusait de jouer son rôle dans cette chaîne d’échanges, il serait puni par ses futurs partenaires informés de son manquement.  C’est en ce sens que la monnaie est une forme de mémoire: tout ce qu’elle accomplit, une quantité suffisante d’information dans les mains des acteurs permettrait aussi de l’accomplir.

Le fait que la monnaie Bitcoin est définie par une chaîne de transaction, et l’existence du grand registre public où toutes les transactions sont inscrites, font penser que le papier (hautement théorique) de N. Kocherlakota se voit confirmé dans la pratique: la vie imitant la théorie.  Ce n’est pas si simple: d’une part, parce que l’information enregistrée dans le système Bitcoin ne contient que la valeur échangée, et non la contre-partie (pomme, poire, orange); d’autre part, parce que l’information dans la chaîne est plus ample que celle que résume la monnaie dans le papier de Kocherlakota (pour répliquer la monnaie, les acteurs ne savent pas nécessairement tout sur tous, et même ils ne doivent pas le savoir).  Donc Bitcoin contient à la fois plus d’information et moins d’information que la monnaie physique.

Décentralisation

Le cadastre décentralisé est présenté comme le grand avantage du système bitcoin.  C’est aussi sa grande vulnérabilité.

D’abord, tout repose sur un ensemble de logiciels.  Les bases en ont été posées par l’illustre inconnu Satoshi Nakamoto (nul ne sait qui se cache derrière ce pseudonyme), mais il ne semble plus prendre part au projet qui est maintenant mené par diverses personnes.  Les logiciels, faillibles, sont améliorés et de nouvelles versions proposées (on en est à la version 0.7).  Par qui ? Comment sont-elles acceptées et diffusées ? Le problème n’est pas théorique : il y a quelques semaines, un désaccord est apparu entre les serveurs sur version 0.7 et ceux sur version 0.8, résultant en une bifurcation de la chaîne de blocs.  Une intervention des éminences du monde bitcoin a pu sauver la situation.  Fort bien, mais on est loin de la démocratie utopique prônée par certains : au lieu d’une sympathique coopérative anarchiste, on voit un système extrêmement complexe gérée par une élite technocratique qui n’est redevable à personne…

De plus, le schisme fut évité parce qu’il était involontaire.  Mais le risque de schismes voulus et malveillants est sérieux.   Il suffit qu’une fraction suffisante du réseau décide de faire bande à part et de jouer selon de nouvelles règles : rien ne les empêchera.  L’investissement nécessaire n’est pas bien grand : vue la taille actuelle du réseau, il suffirait de quelques millions de dollars.  Et il n’est pas nécessaire de dépenser cet argent : les programmeurs astucieux savent très bien pirater des ordinateurs et exploiter leur puissance de calcul en masse.  Je ne parle même pas des attaques provoquées non par l’appât du gain, mais par la méchanceté pure : les sites sur lesquels s’échangent les bitcoins ont été victimes d’attaques « denial of service » pour des raisons qui sont peu claires.  Un système décentralisé est vulnérable parce que personne n’a suffisamment intérêt à investir les ressources nécessaires pour le protéger.

Et contre de telles opérations il n’y a aucun recours, car le système bitcoin s’est volontairement affranchi de toute dépendance étatique, ce qui veut aussi dire de toute protection étatique.

Déflation

Supposons que bitcoin devienne le moyen d’échange principal.   À terme, la monnaie serait en quantité fixe (21 millions de bitcoins).   L’économie, elle, continuera à croître, mettons à 2 ou 3%.  Les unités bitcoins sont divisibles à 10^8, donc le problème de divisibilité n’en est pas un dans l’immédiat (la masse totale sera de 2*10^15, soit mille fois plus que le nombre de dollars émis par la Fed à ce jour).  Mais une quantité de monnaie fixe est-elle un problème ?

La théorie monétaire permet seulement de dire qu’il peut exister un équilibre dans lequel  la valeur de la monnaie augmentera à la même vitesse que la croissance de l’économie : autrement dit, une déflation permanente.   Certains pensent que c’est un problème si les prix sont rigides (c’est un des reproches de Paul Krugman).  Impossible de dire si les prix dans un monde bitcoin seraient rigides ou flexibles ; je note simplement que les organisateurs de la conférence Bitcoin 2013 acceptent d’être payés en bitcoin, mais à un taux qui fluctue en fonction du dollar

La monnaie peut-elle s’affranchir de l’État ?

La théorie monétaire nous dit aussi que toute monnaie fiduciaire peut ne rien valoir : il suffit que les agents croient qu’elle ne vaut rien pour qu’elle ne vaille rien.  C’est le revers de la médaille (si je puis dire) d’un autre principe : je suis prêt à accepter une monnaie fiduciaire si je sais que je trouverai d’autres pour l’accepter à leur tour.

Donc une monnaie n’a pas logiquement besoin de s’appuyer sur un État pour exister : la coordination des anticipations, ou des croyances (ce qu’on peut appeler une norme ou une coutume) suffit.  Mais la réalité historique est que monnaie et États ont presque toujours été liés.  Il y a de nombreuses raisons à cela, et selon le degré de cynisme on peut mettre l’accent sur celles qu’on veut.  Émettre de la monnaie peut engendrer des revenus, comme tout monopole, encore qu’en temps ordinaire et pour une monnaie bien réglée ces revenus sont modiques.  Abuser d’une monnaie peut être autrement profitable, et les exemples abondent dans l’histoire.

Mais ce n’est pas seulement pour doter l’État d’un outil de taxation que la monnaie est une prérogative régalienne.  Cette tradition, profondément ancrée dans notre histoire et notre droit, se justifie par le caractère de bien public de la monnaie.  La monnaie facilite les échanges, et contribue donc au bien-être ; mais justement parce que sa valeur ne tient à rien elle se prête aux prophéties auto-réalisatrices et perd alors son utilité.  L’État, en dernier ressort, peut ancrer cette valeur, soit parce qu’il établit des normes légales (les contrats sont libellés en monnaie), soit parce qu’il accepte la monnaie pour une certaine valeur (les impôts sont obligatoires et payables en monnaie), soit parce qu’il peut intervenir si la valeur de la monnaie dévisse.

Une solution élégante à un faux problème

Le système bitcoin est admirable (et fascinant), mais le problème avec nos monnaies actuelles n’est pas qu’elles dépendent de l’État.  L’État peut en abuser, mais affranchir la monnaie de l’État crée d’autres difficultés.  Le système Bitcoin en résout certaines très astucieusement, mais ses vulnérabilités augmenteraient exponentiellement s’il devenait vraiment un moyen d’échange généralisé.  Et il y a fort à parier que l’État (ou les États) serait vite invité à s’en mêler.

La réforme de la zone euro

Emmanuel Farhi a co-écrit un article dans libération et une note du conseil d’analyse économique sur la réforme de la zone Euro:

http://www.liberation.fr/economie/2013/04/15/l-union-monetaire-n-est-pas-condamnee-a-l-echec_896373

http://www.cae.gouv.fr/+Completer-l-Euro-Note-du-CAE-no3-avril-2013+.html?lang=fr

 

 

Le marché au gré à gré des dérivés de crédit

Par Pierre-Olivier Weill

Depuis la crise, le marché des produits dérivés de crédit fait de plus en plus parler de lui. En 2008, l’assureur AIG y a fait des pertes colossales qui l’ont mis au bord de la faillite, avant d’être renfloué par l’État américain. L’année dernière, la banque JP Morgan annonçait des pertes importantes sur les positions spéculatives de la « baleine de Londres », un de ses traders. Chaque risque de faillite et chaque sauvetage fait resurgir le spectre du risque systémique et ranime le débat sur la meilleure manière d’organiser ou de réguler ce marché.

Le produit le plus échangé sur le marché des dérivés de crédit est un contrat d’assurance contre le défaut appelé « Credit Default Swap » (CDS). La structure d’un contrat CDS est très simple. Imaginons par exemple qu’une banque détienne des obligations émises par l’entreprise XYZ qui promettent de payer 1000 euros dans 5 ans. La banque peut se protéger contre le risque de défaut de XYZ (l’actif de référence) en achetant un CDS  à une autre banque: si l’entreprise XYZ paie moins que les 1000 euros promis, la banque qui a vendu le CDS promet de payer la différence.

Le marché CDS est organisé au gré à gré : les termes des contrats sont négociés au cas par cas par les acheteurs et les vendeurs.  En effet, les contrats CDS sont par nature difficiles à standardiser. Il y a, d’une part, un très grand nombre d’actifs de référence et il serait très couteux d’organiser un marché continu et centralisé (comme le marché des actions) pour chaque type de contrat. D’autre part, un acheteur de CDS désire ajuster les termes du contrat en fonction du « risque de contrepartie » posé par le vendeur (le risque que le vendeur n’honore pas sa promesse).

Le marché des CDS est très actif. Selon les dernières données du Depository Trust & Clearing Corporation (DTCC) il y a aujourd’hui plus de 2 millions de contrats CDS souscrits, pour un total de plus de 23 billions (mille milliards) de dollars. Ces contrats assurent contre le défaut de plus de 1000 actifs de références, émis par des entreprises ou des états souverains. Les banques  participent à ce marché pour trois raisons principales : pour se couvrir contre le risque de défaut, pour spéculer, et pour réaliser des profits d’intermédiation.

Les contrats CDS créent un réseau complexe d’obligations financières qui lient les banques les unes aux autres et menace de créer du « risque systémique ». On craint en effet que la faillite d’une institution financière qui a vendu un très gros volume de CDS, comme AIG, puisse créer une chaine de faillites: d’abord la faillite des banques qui ont acheté des CDS à AIG, puis celle des banques qui ont acheté des CDS aux banques qui ont acheté des CDS à AIG, etc…

Pour limiter ce risque systémique, les régulateurs ont proposé deux mesures. La première consiste à obliger les acheteurs et les vendeurs de CDS à utiliser une chambre de compensation, qui deviendrait la contrepartie de tous les contrats. Autrement dit, au lieu de vendre un CDS directement à une autre institution, AIG vendrait un CDS à la chambre de compensation, qui revendrait immédiatement  un CDS à cette autre institution. Le risque systémique serait alors remplacé par le risque de faillite de la chambre de compensation, qui pourrait être colossale si la chambre de compensation concentre tous les contrats CDS! Charge au régulateur de s’assurer que la chambre de compensation possède  suffisamment de fonds propres, et qu’elle gère le risque de contrepartie prudemment en exigeant que les contrats qu’elle achète soient garantis par suffisamment de collatéral. La seconde mesure discutée par les régulateurs est de créer un marché centralisé, transparent, et continu pour les CDS. Mais un tel marché ne pourrait pas complètement remplacer les transactions au gré à gré, car il  devrait se restreindre aux CDS les plus liquides et car cela nécessiterait de standardiser les contrats. Les transactions au gré à gré resteraient nécessaires pour les CDS moins liquides et plus exotiques, et pour pouvoir ajuster les termes du CDS en fonction des besoins spécifiques des acheteurs et des vendeurs. Un autre avantage à maintenir un marché au gré à gré est de promouvoir l’innovation financière : quand elle introduit un nouveau produit financier, une banque sait qu’elle pourra, à court terme, réaliser des profits sur les transactions aux gré à gré avec ses clients.

Pour en savoir plus :

Les données du DTCC peuvent être consultées sur : http://www.dtcc.com/products/derivserv/data_table_i.php?tbid=0)

Les motivations des banques et institutions financières qui participent au marché CDS sont discutés dans: http://www0.gsb.columbia.edu/faculty/moehmke/papers/OehmkeZawadowskiCDS.pdfhttps://sites.google.com/site/pierreolivierweill/otcderivatives.pdf?attredirects=0

La régulation du marché CDS est discuté dans le chapitre 9 de « The Squam Lake Report: Fixing the Financial System », publié par Princeton University Press et dans:

http://bs-initiative.org/index.php/notes-de-recherche/item/106-que-peut-on-attendre-de-la-regulation-des-produits-derives