Comme l’a remarqué non sans ironie l’économiste et bloggeur Tyler Cowen, beaucoup des articles de Jean Tirole montrent que la question qu’il étudie « est bien compliquée. » Pour un journaliste, un bloggeur, ou un politique, c’est assez embêtant : pas de conclusion simple, intuitive, et claire, peu de prescriptions évidentes, et rarement de solution clé en mains au problème posé. Mais si les leçons à tirer de ses travaux sont plus subtiles, certaines sont également très profondes. Plusieurs travaux de Tirole et de ses co-auteurs ont profondément changé la manière dont les économistes réfléchissent à l’organisation de la production, à ses formes de régulation, et aux outils disponibles pour l’améliorer. Et l’influence de ces travaux s’est étendue, au-delà des cercles académiques, aux organes de régulation de nombreux secteurs d’activité.

La Banque Royale de Suède a attribué à Jean Tirole le prix (à la mémoire d’Alfred) Nobel, en notant que ses travaux « sont caractérisés par le respect des spécificités de différents marchés, et l’utilisation ingénieuse de méthodes analytiques en économie. » Au sein d’une œuvre plus vaste, elle a distingué les résultats portant sur « l’essence de la concurrence imparfaite, et la théorie des contrats en information asymétrique. » Ces recherches doivent tant à la longue et fructueuse collaboration de Jean Tirole avec Jean-Jacques Laffont, que ce dernier est explicitement cité dans l’annonce du prix Nobel. Jean Tirole lui-même dédiera sa conférence Nobel à la mémoire de Laffont, et il est en effet impossible de ne pas croire que si la mort ne l’avait pas emporté en 2004, le prix l’eût également distingué.

La puissance de l’approche de Laffont et Tirole est d’offrir un cadre unifié dans lequel étudier un ensemble de relations assez diverses, entre plusieurs types d’agents économiques : entre clients et fournisseurs, entre entreprises régulées et instances de régulation,… ces relations sont toutes caractérisées par une information asymétrique, qui crée potentiellement des barrières à l’échange. D’une certaine façon, on peut voir cette approche systématique de l’organisation industrielle comme une extension des travaux pionniers de Coase et de Williamson ; ces travaux insistaient sur l’importance des coûts associés à toute transaction marchande pour expliquer que bien des interactions ne se déroulent pas dans un cadre de marché, mais au sein d’organisations régies par des règles plus hiérarchiques, comme une entreprise. Laffont et Tirole poussent l’analyse un cran plus loin, en proposant d’expliciter les coûts de transaction dont l’origine est due à des relations asymétriques, dans lesquelles l’un des acteurs dispose d’une information que l’autre ignore. Par exemple, toute délégation de tâche se déroule dans un tel cadre : lorsque chacun de nous fait appel à un plombier, à un garagiste, ou à un dentiste, c’est bien parce que ce dernier dispose d’un savoir-faire supérieur ; mais comment savoir si ses compétences sont réellement bonnes, et comment faire pour qu’il mette dans son ouvrage toute l’énergie qui permet d’atteindre le meilleur résultat ? Ces éléments, difficiles à observer par le client alors qu’ils sont connus du fournisseur, conditionnent la nature de l’échange contractuel. Ce type d’interaction, dans laquelle un acteur qualifié de principal confie ou délègue une tâche à un autre acteur qualifié d’agent, est qualifié de relation d’agence.

La qualité du service proposé par différents agents étant difficilement observable par le principal, on ne peut se satisfaire de la vision classique du marché, selon laquelle le client choisit l’offre de meilleure qualité au meilleur coût, ce qui a pour vertu de pousser chaque fournisseur, pour attirer ou conserver des clients, à être le plus efficient possible. Ce cadre classique conduit, lorsqu’il est applicable, à une conclusion simple : l’efficacité des marchés ne requiert pas d’intervention publique particulière, l’aiguillon de la concurrence suffisant à fournir à chaque acteur individuel les incitations à agir dans le sens de l’intérêt collectif. Mais ce raisonnement ne s’applique pas à des situations d’information imparfaite, où les échanges ne peuvent obéir à des régulations uniquement marchandes.

La théorie de l’agence fournit donc un cadre général dans lequel les échanges se déroulent de manière plus stratégique, permettant d’appréhender des situations d’information asymétrique, de concurrence imparfaite, où des interactions qui peuvent être répétées donnent un rôle clé à la réputation et à la confiance. Ce cadre permet notamment d’étudier de manière fine des marchés où il est difficile pour une nouvelle entreprise de pénétrer, ce qui se traduit alors par une concentration de l’offre, réduite à quelques entreprises de taille importante. Ces entreprises disposent alors d’un pouvoir de marché, qui peut appeler des régulations adéquates. Quelles sont, justement, ces régulations adéquates ? En un mot, « c’est compliqué ». En deux mots, « ça dépend » du secteur, et surtout des raisons pour lesquelles certains producteurs jouissent d’un pouvoir de marché. Les industries de réseau comme les télécommunications, les transports, la distribution d’électricité, d’eau ou de gaz, et d’autres services d’intérêt public se prêtent naturellement à de telles analyses, tout comme plus généralement les activités nécessitant de lourds investissements, pour lesquelles la production entraîne des coûts fixes importants. Sans un certain pouvoir de marché, aucune entreprise ne pourrait alors répercuter ses coûts fixes sur les prix de vente, ce qui est pourtant nécessaire à sa viabilité. La question devient alors d’identifier les situations où le pouvoir de marché est légitime de celles où il ne l’est pas. Une concession de service public obtenue après un appel d’offres ouvert et transparent confère au concessionnaire un pouvoir de marché légitime ; celui-ci doit récompenser l’investissement, à l’inverse s’il résulte de circonstances favorables dues au hasard, il n’est pas légitime. De même, la protection intellectuelle assurée par des brevets peut permettre à des innovations de voir le jour, mais certaines technologies pourtant protégées par des brevets ne relèvent pas toujours d’une réelle innovation, et peuvent donc conduire à un pouvoir de marché illégitime.

En somme, la régulation de la concurrence de tels secteurs ne peut être uniforme et naïve. Elle doit notamment tenir compte de l’avantage informationnel des entreprises régulées par rapport au régulateur. Appréhender l’ensemble de ces situations dans un cadre unifié permet toutefois de dégager quelques principes généraux. Chercher à réduire directement l’asymétrie d’information par l’échange de données adéquates et non manipulables, par la comparaison de producteurs similaires entre eux, par des mécanismes d’enchères adéquats, est la première façon d’améliorer la qualité de la régulation et de l’activité encadrée. Mais cette réduction d’asymétrie peut également prendre une forme indirecte, dans laquelle le régulateur (le principal) propose au producteur (l’agent) un ensemble de choix possibles de contrats : lorsque le producteur choisit l’option la plus intéressante selon sa structure de coûts, il révèle au régulateur des informations pertinentes sur cette structure, réduisant ainsi l’asymétrie.

Parmi les régulations délicates, celle du secteur bancaire appelle une attention particulière. Dans un article important de 1996 avec Jean-Charles Rochet, Jean Tirole insiste sur un aspect dont à l’époque peu avaient conscience : le marché sur lequel les banques se prêtent les unes aux autres crée, pour chacune d’entre elles, une forte dépendance aux autres : le défaut d’un des établissements peut mettre en péril la situation des autres, et des réactions en chaîne ne sont pas à exclure ; ce risque systémique contraint donc quasiment à la banque centrale à renflouer une banque défaillante, mais « trop grosse pour faire défaut ». Hélas, cette garantie de fait accordée par la banque centrale ne donne lieu à aucune rémunération de la part des banques, qui peuvent alors être incitées à prendre trop de risques, sachant qu’en cas de perte, elles seront assurées. Dire que ce phénomène d’aléa moral était un des ingrédients importants de la crise de 2008 est un euphémisme ; dire qu’il n’a toujours pas été réglé de manière satisfaisante est peu rassurant. Peut-être parce que « c’est compliqué ».

Peut-être pas seulement… Car l’analyse systématique, unifiée dans le cadre de la théorie de l’agence, de l’organisation industrielle et de ses régulations conduit en outre à un scepticisme a priori, autant sur le fonctionnement « spontané » des marchés que sur la bienveillance « naturelle » de l’intervention publique, ne serait-ce que parce que le régulateur peut lui-même être sous l’influence de lobbies ou de groupes d’influence dont l’objectif n’est pas l’intérêt général.

Toujours avec Jean-Charles Rochet, une autre contribution importante de Jean Tirole, datant de 2002, porte sur les marchés dits « bi-face », où la structure d’intermédiation entre clients et fournisseurs (la « plateforme ») joue un rôle clé. Le premier exemple vient des cartes de crédit. Une carte de crédit offre des services intéressants à chacun de ses détenteurs si les commerces qui l’acceptent sont en nombre suffisant ; symétriquement, un commerce a intérêt à accepter une carte de crédit si les clients qui l’utilisent sont suffisamment nombreux. Bien d’autres activités présentent la même structure, comme les moteurs de recherche sur internet, les réseaux sociaux, la mise en relation de transporteurs et de voyageurs, ou de propriétaires et de locataires, etc. La plateforme pourrait envisager de faire payer chaque côté du marché pour les services qu’elle fournit. Mais baisser le prix pour l’un des types d’utilisateurs (l’une des « faces » du marché) peut entraîner une augmentation forte de la demande, et cette demande peut générer un intérêt élevé pour l’autre face, si élevé qu’il augmente sa disposition à payer pour rejoindre la plateforme. Dans le cas d’internet, le coût d’un consommateur additionnel est très faible : l’indexation du web et les algorithmes de recherche nécessitent des investissements lourds et onéreux, mais une fois ces investissements réalisés, une demande supplémentaire adressée au moteur de recherche ne coûte à peu près rien à Google. Dans une telle situation, la meilleure stratégie consiste à ne pas facturer ce service ; en attirant ainsi de nombreux usagers, Google renforce son attractivité pour les annonceurs qui sont alors prêts à payer plus cher. Par ailleurs, les interactions entre les deux faces du marché conduisent à une situation où une seule entreprise domine totalement ; mais, au contraire des situations plus classiques de monopole naturel, par exemple celles liées à l’impossibilité physique de dupliquer les réseaux d’infrastructure, il n’est pas du tout clair que cette situation de très fort pouvoir de marché s’effectue au détriment du consommateur. Après tout, de telles plateformes offrent un service souvent de qualité, presque indispensable désormais à chacun de nous, et pourtant à peu près gratuit. Comment, dès lors, réguler de telles activités ? Comment détecter un abus de position dominante, alors qu’il ne se traduit pas par un prix élevé ? Comment s’assurer qu’une telle entreprise n’impose pas de barrières à l’entrée illégitimes, freinant l’émergence de nouveaux opérateurs qui pourraient, à travers de réelles innovations, apporter un service encore meilleur et tout aussi peu cher ? Il n’y a à ce jour aucune réponse définitive à ces questions. En un mot, « c’est compliqué ». Mais ce qu’illustrent ces quelques exemples choisis parmi tant d’autres contributions de Jean Tirole, c’est aussi une éthique de la recherche : la pertinence des questions, et la puissance de l’analyse théorique, doivent nous permettre de mieux comprendre l’évolution de nos sociétés, et d’éclairer finement les formes de régulation de l’activité économique