On est encore loin de la super-intelligence qui pourrait supplanter l'humanité. En revanche on comprend un peu mieux les dangers de ne plus pouvoir distinguer entre un algorithme et un humain.

Les réalisations désormais très impressionnantes de l’intelligence artificielle, mais également les interrogations qu’elle soulève conduisent Daniel Andler à questionner à nouveaux frais les spécificités de l’intelligence humaine, pour penser les usages raisonnés et précautionneux qu’il conviendrait de faire de l'IA. Celui-ci a aimablement accepté de répondre à quelques questions pour présenter son livre, Intelligence artificielle, intelligence humaine : la double énigme, à nos lecteurs.

 

Nonfiction : Les chercheurs en intelligence artificielle ont-ils tous en ligne de mire la super-intelligence qui supplanterait l’intelligence humaine ?

Daniel Andler : Non. Dans leur grande majorité, ils ne considèrent pas que leur recherche conduise à la super-intelligence ou même s’en approche. En revanche, quand ils répondent aux sondages, ils se disent en grande majorité assurés qu’une intelligence artificielle égale à l’intelligence humaine sera réalisée dans un avenir assez proche (qui varie de 10 à 50 ans). De là à penser que l’intelligence artificielle pourra supplanter l’humain il n’y a qu’un pas, puisque une fois découverts les secrets de fabrication de l’intelligence humaine, il suffirait d’exploiter les ressources astronomiques de l’informatique pour faire mieux qu’elle : une intelligence infiniment plus rapide, infiniment mieux soutenue par une mémoire quasi infinie, à l’abri des erreurs de la cognition humaine.

Mais en fait rares sont les chercheurs qui prennent l’idée au sérieux, assez en tout cas pour commencer à réfléchir non seulement aux moyens disponibles aujourd’hui pour parvenir à la super-intelligence (ils sont généralement conscients qu’il manque actuellement pour cela une idée de génie, une percée conceptuelle) mais aussi en quoi elle consisterait. J’imagine qu’ils la conçoivent lorsqu’ils évoquent cette perspective comme un système qui résoudrait toute espèce de problème beaucoup mieux qu’un humain, et qui le battrait dans tout jeu imaginable.

Cela n’empêche pas les utilisations de l’IA de se développer à grande vitesse. Quelle appréciation peut-on porter sur le stade qui a été atteint ? Et sur les limites qu’elles recèlent ?

Il est évident que l’IA, qui a longtemps stagné (ou qui du moins est restée longtemps très en deçà de ses ambitions initiales) a énormément progressé depuis le début du siècle, surtout grâce à l’adoption très large de l’approche connexionniste, aujourd’hui connue sous le nom de deep learning (parfois traduit par apprentissage profond). Cette approche consiste à oublier une bonne fois l’esprit humain, ce qui se passe dans notre tête quand nous effectuons telle ou telle tâche, pour ne garder, côté machine, qu’une représentation très schématique des réseaux de neurones dans le cortex et, côté contenu, que des masses d’exemples. Ça marche dans l’ensemble très bien, mais ça ne concerne que certaines tâches, celles qui peuvent se ramener à la reconnaissance d’une forme par le biais de sa proximité statistique à un exemple de la base qui a servi à son apprentissage. Un exemple simple est celui de l’identification d’images : vous présentez à votre machine un grand nombre d’images d’animaux divers, chaque image étant étiquetée : les images de chat par l’étiquette « chat », les images de chien par l’étiquette « chien » et ainsi de suite. Une fois entraînée sur ces exemples, elle est capable d’identifier un chat sur une image qu’elle n’avait jamais vu au cours de son apprentissage.

Cela peut sembler très restrictif, mais on s’est vite rendu compte que cela ne l’était pas tant que ça. En particulier, toute une série de problèmes de prédiction s’y ramènent, au point qu’un livre à la fois sérieux et à succès   présente l’IA comme une machine à prédire. On passe de la reconnaissance de forme à la prédiction en passant par l’idée de complétion d’image : au fond, une image étiquetée c’est une image complétée par une étiquette. Ce que la machine a appris à faire, c’est à compléter l’image du chat qu’on lui montre par la bonne étiquette : elle « prédit » que l’étiquette à placer sur l’image est « chat ». De la même manière, vous pouvez entraîner un système de deep learning sur des dossiers de demandes d’indemnisation d’assurance, en étiquetant ceux qui sont probablement honnêtes et ceux qui ont été considérés comme frauduleux. Vous présentez un nouveau dossier à la machine et elle « prédit » qu’il est soit honnête soit frauduleux — évidemment, sa prédiction est probabiliste, mais les humains aussi, même les experts, ne prédisent correctement qu’avec une certaine fréquence. Une fois qu’on a vu ça, un nombre considérable de situations se présente comme des problèmes de prédiction : la récidive, la trajectoire scolaire, la solvabilité financière, la conduite automobile, etc. Dans le cas de la conduite, la prédiction consiste à compléter une situation donnée, par exemple celle du conducteur qui aborde un rond-point encombré, par la bonne suite de gestes (freiner, regarder à gauche, accélérer au bon moment, etc.), celle qui lui permet de franchir le rond-point sans encombre. Pour entraîner votre système à conduire, vous lui fournissez une quantité astronomique d’exemples constitués d’une situation initiale (approche du rond-point) et d’un comportement adapté (franchissement sans accident) ou au contraire inadapté (accident).

Il y a quand même de sérieuses limites à cette approche. La première est qu’il faut disposer d’une base d’exemples de cas très riche, qui « quadrille » en quelque sorte tous les genres de cas susceptibles de se présenter. Dans la plupart des problèmes qui sollicitent notre intelligence, on ne dispose pas d’une telle base — à vrai dire, si vous y réfléchissez, en dehors des opérations de routine nous ne voyons même pas très clairement ce que serait une telle base. Il est vrai que l’existence de la plupart d’entre nous est très routinière, mais même dans les occupations routinières, il arrive que nous tombions sur un cas qui ne ressemble à rien que nous connaissions. Et dans la plupart des situations qui impliquent nos relations humaines, la politique, la culture…, la base d’exemples nous fait totalement défaut.

Depuis quelques années, une nouvelle sorte d’algorithmes est apparue, dont ChatGPT, cet agent conversationnel que le public a découvert en novembre 2022, il y a à peine un an. ChatGPT et des centaines d’autres modèles du même genre constituent ce qu’on appelle l’IA générative. Elle fait couler beaucoup d’encre, à juste titre. Pour s’en tenir à ChatGPT lui-même et aux autres « modèles massifs de langage » (car d’autres modèles sont capables de traiter et de générer de l’image, fixe et mobile, et des sons), leur entraînement relève du principe général du deep learning : les modèles apprennent à prédire ce que sera le mot le plus probable qui complète une phrase qu’on leur a soumis. Leur base d’apprentissage comprend la quasi-totalité des textes à peu près crédibles disponibles sur le Web (y compris tous les livres de fiction, tous les livres savants, tous les articles scientifiques, les manuels, modes d’emploi, encyclopédies, encyclopédies en ligne, blogs, etc.). Curieusement, et sans qu’on comprenne exactement comment, ils deviennent capables d’entretenir une sorte de conversation avec l’utilisateur, ils peuvent composer un texte sur n’importe quel sujet, en se conformant aux instructions du demandeur (faire court, faire long, s’adresser à un enfant de 6 ans, à un chercheur compétent, etc.). Leurs performances sont étonnantes, et si l’on fait abstraction des erreurs qu’ils commettent sans crier gare, et qui font qu’on ne peut leur faire entièrement confiance, on imagine dans beaucoup de secteurs d’activité qu’ils peuvent ou pourront bientôt se substituer aux humains dans toute une série de professions, en particulier les professions intellectuelles intermédiaires. Même la science est concernée, puisque l’on peut désormais prédire les propriétés de certaines molécules, le repliement de protéines dans la cellule, ou l’action thérapeutique possible de molécules de synthèse imaginées par l’IA générative.

Tout cela conduit certains, y compris des spécialistes sérieux, à estimer que l’IA générative annonce le Graal de l’intelligence générale artificielle, celle qui justement égalerait, à terme du moins, l’intelligence humaine. Mais tout le monde n’est pas convaincu, loin de là. Les systèmes actuels exhibent des défauts et des limites aussi étonnantes que leurs hauts faits.

Sait-on comment ces chercheurs imaginent-ils passer les prochaines étapes ?

C’est en partie un secret industriel. N’oublions pas que la plus grande partie de la recherche en IA se fait dans les grandes entreprises privées : GAFAM, OpenAI, leurs homologues chinois (les BATX), mais aussi dans d’innombrables start-up. Beaucoup d’entre elles publient certains de leurs résultats, mais pas toutes les entreprises et pas tous leurs résultats. Par ailleurs, l’innovation est toujours imprédictible. Les plus créatifs des chercheurs ont des intuitions, et souvent les partagent. C’est le cas notamment de Yann Le Cun et de Geoffrey Hinton, qui se sont beaucoup exprimés ces derniers temps. Je n’ai pas compétence à porter un jugement, d’abord parce qu’il faudrait que je puisse partager leurs intuitions, ce qui est difficile : ce n’est pas mon métier ; et ensuite parce que personne, pas même eux, ne savent au juste où elles conduiront.

Une direction de recherche peut pourtant être mentionnée. Elle consiste à combiner les principes du deep learning et ceux de l’IA symbolique, celle qui a été, en partie seulement, supplantée par le deep learning. Ce qu’apporte l’IA symbolique, c’est ce que le chercheur américain Gary Marcus, grand critique du deep learning (ou du moins de ses prétentions les plus extrêmes), appelle la capacité algébrique, c’est-à-dire la capacité de composer des éléments simples en éléments de complexité croissante, comme dans le Lego, dans le langage, dans les mathématiques, dans la musique, etc.

Quelque chose doit-il nous faire peur dans ce développement de l’IA ?

Je ne pense pas qu’il faille s’inquiéter de l’arrivée d’une IA égale à l’intelligence humaine, et encore moins d’une IA qui la surpasse en un sens autre qu’attendu. Le sens attendu, c’est celui qui permet aux algorithmes de faire beaucoup mieux que l’humain dans la plupart des jeux et dans les problèmes calculatoires ou de prédiction où elle excelle déjà et depuis longtemps.

Les progrès de l’IA générative sont certes stupéfiants, et ne s’inscrivent pas de manière évidente dans la droite ligne des performances antérieures : il y a un saut évident, d’autant plus évident aujourd’hui que personne ne le voyait venir il y a quelques années. Mais recombiner des informations puisées dans le réservoir gigantesque des textes disponibles sur internet en conjoignant des statistiques de haut niveau imperceptibles pour l’humain, au terme d’un apprentissage consistant en millions d’essais et de corrections réparties sur des milliards de composants, ça ne ressemble ni de près ni de loin à l’intelligence humaine. Les sorties de route stupéfiantes et imprévisibles (ce qu’on appelle les « hallucinations » de ChatGPT et consorts) pas davantage. Mais il y a plus : quand on y songe, l’intelligence humaine ne se limite pas à engendrer ou à transformer du texte, des images et des sons. Elle est occupée, la plupart du temps, à faire face à des situations auxquelles elle donne du sens, en l’organisant d’une manière particulière, sur la base de son histoire, une histoire constituée d’un flux d’engagements, depuis la naissance jusqu’au moment considéré, et qui sollicitent constamment l’individu en tant qu’agent. Par moments, l’individu formule, dans une situation donnée, un problème dont la solution lui fournirait, espère-t-il, une issue satisfaisante. Ce n’est qu’une fois le problème posé que l’intelligence artificielle peut rejoindre et seconder l’intelligence humaine. Mais c’est l’intelligence humaine qui a fait l’essentiel du chemin, et on n’aperçoit pas le début d’une idée pour doter l’intelligence artificielle de la capacité qui permet à l’intelligence humaine d’arriver à ce point. J’exagère un peu : une idée consisterait à créer des robots dotés de quelques briques cognitives de base et qui commenceraient leur existence un peu comme font les bébés humains. C’est un programme que poursuit notamment Pierre-Yves Oudeyer dans son laboratoire à Bordeaux.

En revanche, je m’inquiète de deux choses. La première est le pouvoir de nuisance que les systèmes d’IA confèrent dès à présent à des agents mal intentionnés. Et comme l’AI va continuer de faire des progrès, en particulier dans la mise à disposition de systèmes prêts à l’emploi par des non-spécialistes, les risques de dégâts graves voire catastrophiques vont croissant. Je n’en dis pas plus car chacun a des exemples en tête, on en parle suffisamment.

Mais c’est aussi entre des mains bien intentionnées que l’IA peut faire du mal. On peut déjà, comme le montre ChatGPT, et on pourra de plus en plus créer des systèmes qui ressemblent à s’y méprendre à des êtres humains, autonomie, jugement, émotions comprises. Il s’agit de simulacres (certains diront qu’un simulacre parfait est en réalité équivalent à ce dont il est le simulacre, mais je ne suis pas d’accord ; et puis on est loin de savoir produire des simulacres vraiment parfaits). Introduire dans la société des humains des simulacres d’humains, introduire dans la communication des simulacres de textes, tels ceux produits par ChatGPT, c’est nous faire courir de grands dangers, qu’on n’a pas encore tout à fait compris, mais dont on pressent déjà la gravité. Quand vous avez affaire à un être humain, vous lui supposez tout un ensemble de connaissances, vous comptez sur sa capacité à comprendre ce que vous lui dites, vous le créditez d’une certaine prudence et d’un certain savoir-faire, vous pouvez prédire dans une grande mesure le genre de choses qu’il est susceptible ou non de faire dans telle ou telle situation. S’il ne s’agit pas d’un être humain, tout cela devient incertain. Et il suffit que sur un seul plan, à un seul moment décisif, le faux-humain s’écarte de ce que ferait un humain normalement constitué pour que vous soyez en grand danger— tel que celui de croire que Paris est au pôle Nord, ou que votre interlocuteur a de bonnes intentions à votre égard. Certes, certains humains sont également hors normes et nous font courir de grands dangers. Mais ils ne sont pas nombreux (en dehors de certains moments tragiques de l’histoire) et nous faisons tout, à juste titre, pour nous en protéger. Que faire si les faux humains se comptent par millions, s’il y en a autant ou plus autour de nous que de vrais humains ?

Comment s’en prémunir ?

Il y a je pense trois manières de se défendre. La première consiste à former les citoyens, à leur faire comprendre ce qu’est l’IA, qu’elle n’est pas magique, ce qu’elle peut faire et ne pas faire, quelles ressources elle emprunte au savoir et à l’intelligence humaine, à détecter les tromperies auxquelles elle peut donner lieu. La deuxième manière consiste à légiférer, c’est-à-dire à donner un cadre juridique, économique et politique précis et contraignant au développement et au déploiement de systèmes artificiels intelligents, robots compris. La troisième — c’est un cas particulier mais essentiel de la précédente — à criminaliser toute tentative pour faire passer un système d’IA pour un être humain. Criminaliser, c’est constituer légalement en crime, c’est aussi faire prendre conscience à la société qu’il s’agit d’un crime. Cela n’empêchera évidemment pas que ce crime soit commis, mais de la même manière que chacun comprend que les faux-monnayeurs sont des criminels, car ils dévaluent la vraie monnaie et volent la société entière, chacun comprendra que répandre de faux humains dans la société dévalue les vrais humains. La comparaison n’est pas de moi, mais d’un philosophe célèbre que j’admire beaucoup, Daniel Dennett.

 

Voir aussi

L'excellente recension du livre par Jean-Pierre Durand pour La nouvelle revue du travail