Le sociologue Dominique Boullier propose dans son dernier livre une critique acérée et informée des pratiques des géants numériques ainsi que des perspectives de régulation.
Dans son dernier livre Déshumanités numériques, Dominique Boullier, professeur des universités émérite en sociologie à Sciences Po Paris (CEE), fait le pari de proposer une analyse informée de l’actualité du numérique, sans cesse changeante et qui complique la tâche des chercheurs qui s’efforcent de le comprendre sur le temps long. Son essai s’inscrit dans la continuité de ses précédents ouvrages comme Propagations. Un nouveau paradigme pour les sciences sociales (Armand Colin, 2023), Comment sortir de l'emprise des réseaux sociaux (Le Passeur éditeur, 2020) ou encore Sociologie du numérique (Armand Colin, 2019 pour la dernière édition). Déshumanités numériques offre à la fois une critique acérée et informée des pratiques des géants du numérique et avance surtout de nombreuses propositions pour une meilleure régulation de ces derniers, via l’évolution du droit et des responsabilités des plateformes. Cette démarche constructive fait tout l’intérêt d’un livre qui ne se cantonne pas au seul registre de la dénonciation, certes légitime mais très répandu dans la production éditoriale actuelle au sujet du numérique.
Nonfiction.fr : Vous invitez à distinguer les GAFAM, en dépit de leur regroupement sous un même acronyme. Qu’est-ce qui les différencie ?
Dominique Boullier : Les distinguer oblige à prendre en compte leur généalogie et leur détachement plus ou moins grand avec la culture industrielle. Apple et Microsoft sont nées à la fin des années 1970, ont conçu des machines et des logiciels qui sont devenus le socle de l’information personnelle, des PC et des smartphones et continuent à en produire. Leur modèle économique, bien que différent, ne repose donc pas sur leurs fonctions de plateforme à l’origine, ce qu’elles sont devenues pourtant depuis (dès iTunes et plus tardivement pour Microsoft avec LinkedIn puis Copilot). Elles ne dépendent donc pas de la publicité comme le font Google et Meta, qui sont nées au début des années 2000 (en 1998 pour Google) et qui ont fait leur fortune seulement à partir du moment où elles ont pu monétiser par la publicité leur statut de plateforme bâtie à l’origine sur un moteur de recherche et sur un réseau social. C’est en 2008 avec YouTube que le tournant publicitaire est véritablement pris et qu’il va altérer radicalement le Web 2.0 coopératif des années 2000 en le faisant dériver vers un internet marchand de plateforme. Amazon avait déjà lentement construit sa plateforme marchande de son côté au point de devenir la plateforme de toute la vente en ligne.
Cette différence entre elles importe car Google et Meta sont les deux firmes entièrement dépendantes de la publicité, ce qui les rend plus fragiles vis-à-vis des effets de réputation qui sont permanents dans ces domaines mais qui les rend puissantes car elles affectent les connaissances, les opinions et les relations du public et de larges pans de la société. C’est pourquoi tous les nouveaux entrants veulent prétendre devenir plateforme, comme X depuis que Musk l’a racheté, en le connectant à toutes ses offres de service comme SpaceX et ses satellites pour en faire une infrastructure de réseau majeure (mais aussi à ses produits industriels comme Tesla, l’ordinateur sur roue comme on dit parfois). C’est aussi le cas de OpenAI qui fait feu de tout bois pour offrir toute la panoplie de services pouvant lui donner un statut de plateforme, c’est-à-dire devenir un point de passage obligé et unique pour tout utilisateur, ce que l’opération « compagnon » est en train de réussir de façon impressionnante. De ces différences naissent des leviers d’action différents en matière de régulation.
Pour autant, en quoi semblent-ils unis par un même rapport à l’Etat et à la démocratie ?
Avec des différences de rythme et d’intensité, toutes ces plateformes ont fini par adopter un catéchisme libertarien ou même par le pousser dans leur communication. Le manifeste d’indépendance du cyberespace de John Perry Barlow en 1996 en constitue la bible numérique et continue d’être appliqué : « rough consensus and running code », telle est leur devise partagée qui les affranchit de tout Etat de droit au nom d’un code qui court, d’une innovation qui ne doit être freinée par aucune régulation. Le choc culturel avec les Etats, avec le droit en général, est violent et certains nouveaux entrants comme Kalanick de Uber ou Altman de OpenAI sont prêts à tout pour organiser la disruption totale du secteur, quitte à mettre en difficulté leurs concurrents directs qui auraient pu avoir encore, en raison de leur taille et de leur réputation, des soucis de responsabilité alors qu’ils disposaient de technologies équivalentes.
Car ce que cette ère de la disruption généralisée entraine, c’est une destruction non seulement des Etats et de l’état de droit mais aussi des conventions, conçues par les industriels eux-mêmes pour organiser le marché et assurer une interopérabilité, des standards, des garanties de sécurité pour le client et pour les autres opérateurs. Désormais, même la culture du test avant mise sur le marché disparait face à l’impératif d’être le premier sur le marché. On le voit avec OpenAI qui a démoli en un mois tous les principes éducatifs installés depuis des dizaines d’années dans les institutions d’enseignement sans anticiper les conséquences de sa mise à disposition gratuite auprès de tous les étudiants, utiles parfois mais néfastes lorsque ChatGPT se transforme en CheatGPT. On le voit aussi avec X et son IA Grok, soumis à un programme politique et algorithmique relativiste qui se permet récemment un négationnisme sans complexe dans ses réponses. J’appelle ces deux entreprises d’IA, des « IA voyous » et nous devrions avoir le même comportement avec ces firmes qu’avec les Etats voyous, c’est-à-dire une mise au ban du droit international et une interdiction d’exercer dans un pays donné tant qu’elles ne reviennent pas dans le droit commun.
Certes, les menaces ne sont pas de même nature avec les autres plateformes plus anciennes, qui veulent préserver leur crédibilité et leur attractivité pour les investisseurs mais toutes ces plateformes n’ont que faire des impératifs de la démocratie tant elles sont soumises à leurs objectifs de profitabilité pour leurs actionnaires, au point de traiter les Etats eux-mêmes comme des vassaux, de leur faire la guerre commerciale comme ce fut le cas avec l’Australie et le Canada à propos des droits des médias sur leurs contenus. Cette toute-puissance leur permet d’abandonner même tout impératif sérieux de modération et de laisser les Etats se débrouiller avec les conséquences de leurs actions irresponsables. Sans pour autant s’empêcher d’orienter leurs stratégies d’investissement technologique comme dans le cas de l’IA générative, si consommatrice de ressources. Or, toute cette énergie des IA génératives va servir avant tout à amplifier l’addiction du public à des compagnons omniprésents, à diffuser des connaissances non fiables et à inonder les cerveaux de deep fake désormais si aisés à fabriquer par tout le monde, grâce notamment à Sora là encore mis à disposition du public par OpenAI sans aucun garde-fou. Les démocraties reposent largement sur un dispositif complexe de maintenance d’un régime de vérité fondé sur le contradictoire encadré par une procédure et des collectifs de référence. Or, le droit, la science et les médias qui effectuent cette maintenance de la vérité sont discrédités, disqualifiés face à la réactivité, à l’immédiateté et à la prolifération virale de contenus toujours moins fiables.
Quels sont les défauts de l’IA majoritairement développée actuellement ?
L’IA générative fondée sur des LLM n’est qu’une des voies possibles de l’IA mais elle est actuellement amplifiée pour des raisons de spéculation financière alors que ses limites et ses défauts sont très bien connus. Ce système d’IA est avant tout opaque, ce qui veut dire incontrôlable, même pour ceux qui l’ont conçu, ce qui nous fait quitter totalement le monde industriel et ses impératifs de fiabilité. C’est pourquoi les IA génératives et conversationnelles, qui hallucinent by-design, gagnent si peu de place dans les entreprises à process industriel ou à décisions critiques : dans la communication, dans l’interaction avec le grand public, cette fiabilité n’est pas indispensable, pense-t-on (à tort car les effets sur les connaissances et sur la perception du vrai et du faux seront très graves).
Ensuite, ces LLM opèrent par brute force, ce qui est le degré zéro de l’innovation et de l’optimisation. Cela les conduit à augmenter sans cesse le nombre de paramètres pour tenter de réduire leurs erreurs de prédiction permanentes. Et donc à extraire toujours plus de ressources naturelles pour leurs data centers, à piller encore plus de données et de contenus, quitte même à injecter des contenus synthétiques, c’est-à-dire produits déjà par des IA, provoquant ainsi ce qu’on appelle un model collapse, un effet auto-référentiel où le système s’auto-intoxique et perd toute pertinence dans le monde.
Car c’est le problème clé : les ingénieurs des IA génératives et des LLM prétendent se passer d’un modèle du monde comme on le faisait avec les ontologies dans les IA symboliques et les systèmes experts. De ce fait, ils manipulent des données langagières sans aucune théorie du langage, sans référence ni ancrage dans le monde (réel) pour réduire tout cela à une vectorisation dans un espace latent incontrôlable et asémantique (le modèle ne sait rien du monde et ignore ce que peut être le sens, ce qui pour des systèmes fondés sur du matériel linguistique est quand même problématique). Tout cela devient encore plus critique quand on prétend en faire des agents, et l’introduction de modèles du contexte (Model Context Protocols, MCP) ne résout rien sur ce plan si ce n’est de standardiser la diversité des API.
En quoi diffère-t-elle de l’IA alternative plus vertueuse et reposant sur intelligence collective que vous appelez de vos vœux ?
Il n’est pas nécessaire de repartir à zéro pour concevoir des alternatives et il est essentiel du point de vue des politiques publiques et des investisseurs avisés de préserver le pluralisme des solutions car d’autres possibles existent et sont annoncés. L’IA symbolique constitue déjà un acquis important, puisqu’on sait intégrer de la connaissance des experts dans la boucle et apprendre de leurs retours. Tout système d’IA qui prétend automatiser et pire encore « sans supervision », mènera à des catastrophes s’il n’est pas encastré dans ce que j’appelle un « design organisationnel » qui permet de définir (et parfois de réviser) les procédures mêmes de toute organisation, les rôles, les autorisations, les accès, etc. Sur cette base, on peut renforcer avant tout l’intelligence collective pour que l’apprenant soit avant tout la personne (au sein d’un collectif). On peut très bien insérer ces briques d’IA reconfigurées dans une activité collective en s’appuyant sur les savoirs et savoir-faire construits pendant des années par ces personnes. On peut ainsi les valoriser, les mutualiser et en faire la base d’une expertise hybride, mieux située, qui connait le monde et surtout qui reste sous contrôle car elle sera explicite et Open Source.
L’IA symbolique si ancienne a déjà beaucoup évolué depuis les systèmes experts car on peut la rendre apprenante de façon robuste et raisonnante de façon explicable, point essentiel pour toute IA décisionnelle. Certains considèrent que ça n’a guère d’importance pour une IA conversationnelle, qu’on range presque dans les catégories de l’entertainment, comme les compagnons qui vont capter toute notre attention à tout sujet. On le disait aussi des réseaux sociaux qu’on a refusé de réguler tant ils étaient marginaux et ludiques jusqu’au jour où ils ont commencé à être exploités pour encourager à se suicider ou pour changer les comportements électoraux. Et ces réseaux sociaux sont désormais tous équipés d’IA générative, c’est dire le risque.
La supposée assistance promise par ces IA génératives engendre des habitudes qui font de nous des assistés, des incompétents, parfois dans notre propre domaine, alors qu’on fait croire qu’il ne s’agit que d’automatiser toutes les tâches pénibles ou répétitives. On oublie de dire toute la valeur ajoutée de ces tâches et tout ce que l’on en apprend et surtout leur nécessaire mobilisation en cas de panne ou de corrections des erreurs si nombreuses des systèmes d’IA générative. Ce qui est certain, c’est qu’une fois la délégation aux machines enclenchée, nous perdons progressivement nos compétences, comme on le voit pour l’usage du GPS. C’est ce que j’appelle les « déshumanités numériques » où nos compétences humaines dégénèrent petit à petit. On doit au contraire réorganiser tout notre schéma d’intelligence artificielle au service des apprentissages humains, pour éviter ce que Soshana Zuboff appelait la « division of learning » entre ces firmes et leurs systèmes qui apprennent sans cesse, alors que nous perdons notre autonomie.
Face aux attaques des géants du numérique contre les fondements de nos sociétés et démocraties, notamment à cause de l’architecture virale de leurs réseaux, vous proposez une régulation fondée sur la décélération de la propagation. Quelle forme cette régulation devrait-elle prendre ?
Il s’agit bien en effet d’une question de design d’architecture, de code, et non de bonnes pratiques ou de « due diligence » appelant à la bonne volonté. Tout cela est encore trop présent, naïvement ou délibérément, dans les régulations européennes avec les limites que l’on connait désormais. On se focalise sur les émetteurs, les méchants hackers au service de puissances étrangères, on se focalise sur les contenus qui sont trompeurs, qui faussent les débats et l’éducation, on se focalise sur les usagers qui se laissent avoir, qui aiment ça et qui doivent donc être éduqués. Toutes choses qui sont sans aucun doute nécessaires.
Mais on oublie ainsi que les algorithmes de toutes ces plateformes ont été délibérément orientés pour favoriser la réactivité, qu’on appelle l’engagement et cela pour des raisons publicitaires puisque les marques sont ainsi ravies de pouvoir afficher des scores de réputation pour leurs investisseurs. L’utilité sociale de cette réactivité est en fait extrêmement réduite (dans des cas d’urgence d’action collective). La plupart du temps, elle se transforme en viralité quasi automatisée, tant les robots et les faux comptes sont nombreux. Ce qui détruit toutes les conditions du débat public car ce sont des contenus conçus pour faire réagir immédiatement (par un like ou un partage) qui sont poussés par les algorithmes et non ceux qui font réfléchir. Or, le débat public demande du temps, de l’argumentation, des données fiables et de la vérification. Et cela dans notre vie quotidienne aussi, si nous ne voulons pas être nous-mêmes réduit à l’état d’automates ou de zombies.
Pour décélérer, les bonnes intentions ne suffisent pas, il faut attaquer le modèle publicitaire au cœur et notamment en taxant toutes les enchères pour prélever ainsi des revenus pour l’Etat. Mais il faut toucher aussi le mécanisme de viralité en freinant notre propre réactivité d’utilisateur. Pour cela, les plateformes qui veulent opérer en France doivent se voir imposer un cahier des charges, qui contiendra un dispositif de ralentissement à installer obligatoirement sur leurs interfaces. Ce serait un tableau de bord, comportant un compteur affiché en permanence au bas de chaque application et indiquant le temps passé sur le service (qui est actuellement disponible au fond du système), le type de réactions produites (likes, post, republication/ partage, commentaires), leur fréquence pour 24h et les délais de réaction.
Chaque 24h, le compteur est remis à jour mais cet indicateur permet à chacun de s’autoréguler en plaçant un seuil d’alerte pour éviter d’inonder ses amis, le système et son propre cerveau de réactions abusives. On peut ensuite passer à un seuil fixé par un groupe auquel on appartient qui ne souhaite pas être intoxiqué par cette emprise de la réactivité, puis à un seuil fixé par le service lui-même dans ses CGU (donc explicite à l’inscription ou adapté selon les situations) et enfin à un seuil fixé par les autorités en situation de crise par exemple. Ce qui évite de couper le réseau tout en exigeant un ralentissement de la réactivité, sans pour autant restreindre la liberté d’expression. En effet, ce qui n’a pu être dit la veille pourra l’être le lendemain à condition de ne pas épuiser ses droits avec des réactions à des contenus sans importance. L’utilisateur apprend ainsi à faire ce que les gatekeepers que sont les médias, faisaient auparavant pour lui, hiérarchiser l’info, fixer des priorités. Et cela affecte aussi bien les « bonnes informations » que les « mauvaises » car c’est la viralité qui est la cible de ce ralentissement, par ses effets destructeurs des conditions du débat public mais aussi par les dégâts qu’elle occasionne dans les capacités attentionnelles individuelles. C’est bien dans le code des interfaces et au niveau des signaux attentionnels les plus élémentaires qu’il faut inscrire ces mécanismes de ralentissement essentiels.
Vous proposez également de considérer certaines plateformes comme des médias. Quel serait l’intérêt ?
Dans la mesure où il apparait désormais clairement depuis quelques années que les plateformes de réseaux sociaux appliquent une politique éditoriale en choisissant les comptes qu’elles veulent maintenir, supprimer ou pousser, et en interdisant de fait certains contenus ou en en poussant d’autres à travers leurs algorithmes (et X a été le plus loin sur ce plan), il faut accepter cet état de fait et non continuer à exiger une neutralité dépassée, trompeuse et inefficace contre les contenus délétères. C’est la section 230 du Decency Act US de 1996 qui octroyait aux fournisseurs d’accès internet un statut nouveau, celui d’hébergeurs, qui les sortait du droit commun des médias et leur évitait toute responsabilité éditoriale. Or, si leur mauvaise volonté actuelle en matière de modération n’entraine aucune sanction véritable pour l’instant, c’est qu’elles peuvent se réfugier derrière cette absence de responsabilité instituée légalement dans les pays européens aussi.
Pour espérer que ces plateformes assument leur responsabilité, il n’existe guère d’autres solutions que de les ramener dans le cadre légal de tous les autres médias. Il faut noter que ces plateformes vivent largement des contenus des autres médias, qui sont, eux, contrôlés et peuvent prétendre à la crédibilité. Il ne serait que justice de leur appliquer les mêmes règles et de les contraindre ainsi à exercer une modération a priori comme les médias traditionnels le font, jusque sur leur courrier des lecteurs.
Certes, cela pourrait gêner ceux qui utilisent ces plateformes pour déverser leurs pulsions souvent illégales et ainsi intoxiquer tout le débat public et certes aussi, cela permettait à ces réseaux sociaux d’afficher une orientation éditoriale restrictive. Mais c’est déjà le cas et surtout cela ne menacerait en rien la liberté d’expression dès lors qu’il existerait comme pour les médias classiques un pluralisme des offres de réseaux sociaux, ce que les pouvoirs publics seraient avisés de soutenir dès maintenant car il en existe de nombreux. Toutes les tentatives de « patch » toujours très compliquées pour obtenir une véritable modération ont échoué, seule une véritable responsabilité légale d’éditeur s’imposant aux dirigeants eux-mêmes permettrait de récupérer un espace public vivable et coopératif qui nous manque tant.