Si conférer aux machines des comportements intelligents est l’objet de toutes sortes de phantasmes, Martin Gibert expose les grandes lignes d’un comportement moral possible de certains robots.

Les débats contemporains relatifs à l’intelligence artificielle sont extrêmement contrastés. Si tout le monde admet que l’intelligence artificielle va révolutionner nos vies, ses partisans dessinent les grandes lignes d’un avenir radieux : diagnostics et traitements médicaux grandement améliorés, conquête spatiale à portée de main, nouvelle révolution industrielle.

Ses adversaires, au contraire, mettent en garde contre toutes sortes de dangers et développent des perspectives anxiogènes : société de surveillance de plus en plus intrusive, grand remplacement des travailleurs par des robots ou ubérisation des métiers, dangers présentés par des armes létales autonomes et, plus généralement, par les objets autonomes de toutes sortes.

Dans un livre au ton volontiers facétieux, Martin Gibert, philosophe et chercheur en éthique à l’Université de Montréal, envisage la question de façon plus modeste et plus mesurée, en se demandant comment programmer nos robots pour qu’ils prennent les bonnes (au sens moral du terme) décisions, lorsqu’ils sont confrontés à des choix.

Agents artificiels

Il est devenu classique, en éthique appliquée, de distinguer les agents moraux des patients moraux. Les agents moraux bénéficient d’un statut privilégié. Capables de s’affranchir des déterminismes qui pèsent sur les êtres de nature et qui sont les causes de leurs comportements, ils posent leurs actes en toute conscience, après avoir délibéré et sont en mesure de rendre compte de leurs choix. Idéalement, ils peuvent élaborer une image de la vie bonne et construire un plan de vie conforme à celle-ci. Pour toutes ces raisons, ils sont tenus pour responsables : leurs actions peuvent leur être imputés et leur valoir, selon le cas, blâmes ou éloges.

Les patients moraux, étrangers à la rationalité pratique qui reste l’apanage des agents moraux, sont tenus pour incapables de tous ces accomplissements : ce ne sont pas des êtres de liberté ; ils ne sont pas capables de délibérer ; ils ne se représentent pas ce qu’est la vie bonne et ne peuvent élaborer des plans de vie pour l’atteindre ; ils ne peuvent pas être tenus pour responsables de leurs actes. Dans ces conditions, demandera-t-on, pourquoi employer à leur endroit le terme « moral » ? La réponse est la suivante : si l’agentivité au sens fort n’est pas accessible aux patients moraux, ils peuvent pâtir des choix des agents moraux parce qu’ils sont dotés de capacités sensibles ou émotionnelles qui les rendent vulnérables aux actes des autres.

La distinction entre agents moraux et patients moraux est de nature conceptuelle ; dans le monde réel, on a plutôt affaire à un continuum. Pour parler en des termes kantiens – mais pas tout à fait kantiens – un pur agent moral, sans aucune sorte de passivité, se rapporterait à la loi morale comme à une loi de sainteté et non comme à une loi de devoir. Mais ce serait un plus qu’humain : en réalité, le plus vertueux des agents humains rencontre encore en lui quelque chose de déterminé par la sensibilité, et donc de pathologique   . Symétriquement, la pure passivité morale ne se rencontre en ce monde que sous des formes approchées : le coma de stade III est caractérisé par l’absence complète de perception et de réactions à des stimulis extérieurs. À première vue, une telle situation semble placer le comateux dans un état où il n’est plus susceptible de subir un dommage. Mais il peut tout de même pâtir des décisions de ceux qui s’en occupent (on peut sortir d’un coma profond). Et selon Hans Jonas, une situation d’extrême vulnérabilité, comme celle du nouveau-né est le révélateur par excellence de la nature de la responsabilité   .

En réalité, les êtres humains sont, au cours de leur existence, perpétuellement entre l’agent et le patient moral : plus proches de la passivité à l’aube et au terme de la vie, plus proche de l’agentivité au mitan de celle-ci. Mais il n’a été question jusqu’ici que d’agents et de patients naturels. Martin Gibert va poser un problème à première vue curieux en considérant que certains robots sont des agents artificiels. En effet, grâce à l’intelligence artificielle, des machines sont mises en œuvre dans des contextes où elles sont amenées à « prendre des décisions » ayant un retentissement moral.

Ce serait le cas, par exemple, d’une voiture autonome qui se trouverait dans une situation où elle ne pourrait éviter de renverser (et de tuer) des êtres vivants. Que devrait-elle faire s’il s’agissait d’êtres humains et d’animaux ? Et comment devrait-elle se comporter si le choix impliquait plusieurs êtres humains ou au contraire une seule victime ? plusieurs enfants ou un seul adulte ? plusieurs adultes ou un seul enfant ? À nombre égal d’adultes tués ou mutilés, devrait-elle faire une distinction entre des passants et ses passagers ? On peut imaginer une infinité de variations sur le thème   .

Une voiture autonome ne serait pas un patient moral au sens qui vient d’être précisé : intelligente mais dépourvue de conscience, elle ne ressentirait rien du tout et il n’y aurait rien qui puisse l’affecter. Comme le dit Martin Gibert à propos d’une machine intelligente d’un autre type : « On pourrait le dissoudre dans un bain d’acide qu’il s’en ficherait totalement »   . Mais ce ne serait pas non plus un agent moral au sens plénier du terme. L’agent moral, au sens classique de la philosophie morale, est censé produire ses propres règles de conduite, même si cette production est le fait de la raison pratique et qu’une éducation à l’autonomie reste nécessaire. Le comportement de l’agent artificiel est tributaire d’un programme qui a été conçu et implanté en lui par des informaticiens, des roboticiens et des ingénieurs de toutes sortes. Sans conscience, c’est-à-dire sans intériorité, l’agent artificiel est « agi de l’extérieur » : son comportement « exprime » (si tant est qu’on puisse employer un tel terme, lequel suppose une distinction entre un dehors et un dedans) simplement une « suite d’instructions – ou de règles pour parvenir à un objectif donné »   , c’est-à-dire un algorithme.

Quoi de plus neutre, à première vue qu’un algorithme ? Une recette de cuisine est un algorithme. Les indications manuscrites qu’un ami vous a données et qui vous permettront – si tout va bien – de vous rendre de chez vous à chez lui, constituent un algorithme. Mais les choses sont plus complexes : l’enjeu de l’éthique des algorithmes par opposition à l’éthique de l’Intelligence Artificielle comme « branche de l’éthique de la technologie qui évalue les systèmes d’IA et se demande s’ils sont bons pour nous »   est de savoir quelles règles implanter dans les robots. Or « programmer une IA, c’est anticiper les situations auxquelles elle sera confrontée, prévoir la manière dont elle se comportera face à l’inconnu ou à l’inattendu »   . Si les « choix » des agents moraux artificiels sont « bien sûr, avant tout, ceux des programmateurs »   , les algorithmes implantés dans des robots doivent comporter des procédures de décision éthiques afin, précisément, de faire face à ces situations imprévues ou le robot sera autonome non pas, évidemment, au sens où il agira selon les commandements de la raison pratique, mais au sens où il sera livré à lui-même.

Algorithmes éthiques

Si l’on admet qu’il faut réaliser de bons robots, c’est-à-dire des robots capables de prendre les bonnes décisions éthiques - ce qu’on observateur pourra conclure de leur comportement - la façon dont on va les rendre aptes à le faire devient alors cruciale. Or, il s’agit d’un apprentissage : « les IA sont comme des gamins. On doit les instruire et les laisser grandir »   . Martin Gibert va donc exposer les stratégies envisageables pour une telle éducation.

Une première façon de faire est de définir une série de règles compréhensibles et relativement faciles à respecter et de les traduire en algorithmes. Historiquement, c’est la première piste empruntée par la recherche en IA, qui a abouti à la réalisation des systèmes experts dans les années 70 du siècle dernier. La limite de cette approche est que les programmeurs doivent connaître toutes les règles pertinentes et construire une architecture hiérarchisée complexe pour les rendre opérationnelles. En outre, cette méthode suppose une recherche exhaustive des solutions et est inapplicable dans des situations d’extrême complexité.

Aussi une seconde façon de faire consiste à définir des objectifs et à laisser la machine apprendre ou découvrir par elle-même les règles qui lui permettront de les atteindre. Pour simplifier, un réseau de neurones artificiels est entraîné à identifier les décisions qui rapprochent le système de l’objectif grâce à un algorithme de recherches. À chaque itération, l’algorithme est renforcé car il intègre les décisions les plus efficaces. Cette méthode, dite d’apprentissage renforcé, est à l’œuvre avec le système AlphaGo, un programme informatique capable de jouer au jeu de go et qui a battu en 2017, le champion du monde coréen Ke Jie.

Enfin, l’apprentissage supervisé fonctionne sur la base d’exemples. Ces exemples peuvent être des données annotées, par exemple des images avec les catégories auxquelles elles appartiennent (chat, navire, autobus). Il s’agit alors de prédire ces catégories pour de nouveaux exemples : des images de chats, d’autobus ou de navires, qui ne seront pas annotées cette fois. C’est ainsi que fonctionne Aristotle, un assistant virtuel destiné aux très jeunes enfants et capable de les calmer quand ils pleurent, de leur raconter des histoires ou de répondre à leurs questions.

Tout ce développement ne comporte, dans l’exposé de Martin Gibert, aucune technicité. Il vise à préparer la mise en relation de ces styles d’éducation des robots avec les trois systèmes dominants en éthique normative : conséquentialisme, déontologisme, arétisme (ou éthique de la vertu). Le déontologisme est présenté comme une éthique de conformité à des règles données d’avance, le conséquentialisme comme une éthique reposant sur l’évaluation des conséquences probables.

Un robot déontologiste ressemblerait à un système expert des années 70, mettant en œuvre « des règles lui permettant d’inférer quels actes sont permis ou requis et lesquels sont interdits »   . Le programmer serait un travail colossal, et ce d’autant plus s’il s’agit de règles prima facie (toutes choses égales par ailleurs) et que des exceptions doivent être prises en compte, amenant à déclasser provisoirement certaines règles dans la hiérarchie qui est la leur.

Un robot conséquentialiste chercherait à promouvoir une valeur (la maximisation du bien-être de tous ceux qui sont concernés par les conséquences d’une action (ou peut-être d’un type d’action). Une programmation par apprentissage renforcé correspondrait assez bien à sa « logique ». Mais la simplicité de l’objectif contraste avec la complexité des circonstances et l’on voit mal comment un algoritme de recherche assez puissant pourrait être développé, qui permettrait au robot conséquentialiste de se comporter éthiquement dans toutes les situations imprévues auxquelles il aurait à faire face.

Martin Gibert va donc s’intéresser à l’éthique des vertus où « il ne s’agit plus de se comporter selon des règles prédéfinies ni des conséquences probables, mais de se conduire comme le ferait une personne vertueuse »   . Se conduire comme le ferait une personne vertueuse, c’est prendre pour modèle des gens manifestant des traits de caractère stables, tenus pour bénéfiques ou désirables : ainsi, l’honnêteté, le courage, la bienveillance, la générosité, la tolérance.

Martin Gibert estime que les programmes fonctionnant par apprentissage supervisé seraient aptes à implanter de telles conduites chez les agents moraux artificiels. Cela correspond à l’idée, intuitivement évidente, qu’agir moralement n’est pas la même chose que rendre un diagnostic ou disputer une partie de go. La question se tranforme alors : s’il faut choisir des modèles, lesquels ?

Le choix des modèles, en effet, est notoirement délicat et il n’est que trop commun de voir des biais opétrer à l’insu de ceux qui font ce choix. Martin Gibert consacre une grande partie de son essai à expliciter et à débusquer de tels biais, ce qui le conduit à établir une comparaison entre deux auteurs de SF : Isaac Asimov, le premier à avoir formulé des règles destinées à être enseignés à des robots afin d’éviter des comportements hostiles de leur part et Ursula Le Guin, qui a introduit une forme de soupçon dans l’imaginaire de la SF en donnant une voix aux pauvres, aux femmes, aux dominés, aux anonymes (en tentant, donc, d’une certaine façon de fusionner la tradition utopiste ancienne et la toute nouvelle littérature science-fictionnelle).

Cette comparaison suggère ce que pourrait être une éthique des robots vertueux : elle procéderait à rebours de ce qu’ont longtemps été les récits de robots où l’on oubliait facilement « les femmes, les pauvres et les personnes racisées »   . Cela renvoie à une question qui avait été posée d’entrée de jeu : « comment programmer les robots en fonction de principe moraux qui puisse satisfaire tout le monde ? »  

Retour à la morale

L’idée la plus originale et la plus stimulante du livre de Martin Gibert consiste à opérer une critique de la thèse selon laquelle les décisions à portée éthique sont élaborées sur la base d’un petit nombre de principe fondamentaux (thèse qualifiée de principisme) et à réévaluer l’éthique des vertus par le biais de l’éthique des robots.

Martin Gibert pourrait d’ailleurs aller encore plus loin et imaginer des robots adeptes du particularisme moral, fonctionnant sur la base de l’apprentissage non supervisé   . Un robot ainsi programmé serait particulièrement « sensible » au fait que ses « raisons d’agir » sont relatives au contexte.

Ce qui semble toutefois constituer une difficulté importante pour la thèse défendue, c’est que l’éthique des vertus est généralement conçue dans un cadre communautariste : une telle éthique s’accordera-t-elle bien avec l’exigence d’universalité affichée par Martin Gibert ? C’est une question qu’il aura certainement l’occasion de traiter dans un ouvrage plus académique.