Philippe Huneman analyse les évolutions du fonctionnement de nos sociétés au regard des orientations prises par la révolution digitale.
La révolution digitale est en passe de transformer radicalement le mode de fonctionnement de nos sociétés. Toute la difficulté est alors d'en prendre une mesure correcte et, en particulier, de réussir à conceptualiser des changements en train de s'opérer. Le philosophe des sciences Philippe Huneman s'y essaie dans cet ouvrage en prenant appui sur sa discipline, à la fois pour analyser des phénomènes où la technique prend une part importante, et pour questionner les normes que promeut un tel fonctionnement. Il a amablement accepté de répondre à des questions pour présenter son livre pour nos lecteurs.
Nonfiction : On commence à mieux entrevoir comment la révolution digitale transforme nos sociétés, depuis que les Gafam ont découvert le moyen de monétiser leurs prestations par la publicité ciblée.
Vous proposez d'appréhender ces changements à partir du concept de « profilage » et vous détaillez alors un ensemble de conditions qui rendent cette opération possible. Pourriez-vous en dire un mot ?
Philippe Huneman : Le terme « profilage » a l’avantage de correspondre à des usages linguistiques ordinaires autour du numérique – on apprécie un « profil Facebook », on renseigne un profil pour s’inscrire sur telle application – tout en autorisant des déclinaisons de sens.
Avant tout, dans un monde où nous ne cessons de laisser des traces numériques aussi bien « dans » Internet (achats, requêtes Google) qu’en dehors (trajets en Velib enregistrés par un GPS, bornages d’appel par portable…), chacun est l’objet de myriades de données portant sur toutes les dimensions de son existence. Ces données sont de format très divers (images, localisations, fichiers, textes, etc.) et rattachées d’abord à des paramètres individualisant (adresse IP, numéro de téléphone ou de carte bleue), puis (plus ou moins facilement) à une personne. Elles sont de qualité variable, parfois évaluée par ce qu’on nomme les « métadonnées ».
Dans cette perspective, un individu devient un point dans un hyperespace défini par les dimensions dont je parle : c’est son « profil » qui le spécifie et le distingue d’autres individus, tout en le rendant comparable à beaucoup d’entre eux (auquel cas leurs « points » sont proches et constituent un nuage dans l’hyperespace). Un profil collectif serait alors un tel nuage en expansion.
Plusieurs choses à souligner ici : les données sont toujours multiples. A cette seule condition, elles peuvent informer, et aussi, distinguer ou rassembler des groupes d’individus (à savoir, ceux qui partagent le même nuage). Les statistiques traitant de profils permettent de prédire d’autres goûts, achats, comportements, par comparaison entre votre profil individuel et un profil collectif d’usagers partageant des choses avec vous. Identifier ces nuages de points exige des outils statistiques complexes et souvent informatiques, parce que nos calculs ordinaires (régression linéaires etc.) deviennent intraitables dans un hyperespace de données; en retour les « nuages » identifiés peuvent souvent diverger de nos usuelles catégories psycho-sociologiques de catégorisation des gens et des groupes sociaux.
Les données déposées sont recueillies par des data brokers (courtiers en données), à nous invisibles, qui les traitent et les revendent à des entreprises heureuses de cibler ainsi leurs clients (ou éventuellement à des gouvernements).
Les données dans un profil sont idéalement « interopérables », c’est-à-dire que des données de genre différents (positions, images, requêtes Google, etc.) peuvent être couplées (par exemple via l’appariement de votre numéro de téléphone et de votre adresse IP lorsque vous vous connectez à un wifi). L’extension de cette interopérabilité est évidemment un enjeu, celui des limites de l’extension du pouvoir des Gafam et des autres entreprises de courtage de données, lequel repose sur une disponibilité de plus en plus large de données de natures de plus en plus diverses (images, textes, gènes, sons, etc.).
Le profilage opère sur des sujets qu’il cible à la fois comme individus et comme membres d’une communauté, qui sont susceptibles d’occuper des positions et de jouer des rôles différents, mais dont les expériences sont fortement conditionnées par ce profilage. Pourriez-vous préciser cet aspect ?
Au lieu d’une surveillance généralisée des populations aux fins de préserver une norme – selon les analyses que Foucault donna des sociétés dites « de discipline » – le profilage signifie une prédiction constante des gestes des individus, réalisée éventuellement en infléchissant leurs conduites. Cambridge Analytica, cette société d’intelligence employée par les promoteurs du Brexit, avait piraté des millions de comptes Facebook pour identifier les profils susceptibles de voter « leave EU », puis les a exposés aux stimuli appropriés (en particulier, de faux comptes Facebook). Il en résulta une déferlante de votes pro-Brexit dont on ignore s’ils auraient eu lieu en l’absence de cette opération. Ici le profilage ressemble au « profilage » en aéronautique, qui sculpte une pièce d’avion pour la rendre plus aérodynamique. « Notre » profilage en ce sens agit sur nos expériences, selon une gamme d’effets qui va du plus anodin – la recommandation Spotify – au plus large – Cambridge analytica – mais dont le ressort technologique est toujours la collecte et analyse algorithmique de données.
En ce second sens, j’insiste sur les liens du profilage avec la doctrine dite du « nudge », du petit coup de coude donné à un individu pour le dévier de sa trajectoire (Développée en particulier dans l’ouvrage de Cass Sunstein, juriste, et Robert Thaler, prix « Nobel » d’économie, Nudge). Mieux que des arguments (supposant un individu parfaitement rationnel) ou une contrainte (contradictoire avec le libéralisme), un nudge tel qu’un agencement spécifique de l’environnement de choix peut orienter ce choix vers ce qui est le plus bénéfique pour l’individu ou la société (par exemple, les clichés de poumons encrassés sur les paquets de cigarette). Le nudge suppose que les agents sont farcis de biais cognitifs sur lesquels on peut justement agir. Le profilage comme prédiction saisit les biais, le profilage comme modelage (au sens de l’aéronautique) agit dessus. Les sociétés du profilage sont ainsi des terrains d’exercice du nudge, et induisent donc une certaine politique néolibérale, centrée sur l’individu.
Mais le profilage n’est pas que l’apothéose de l’individu désirant et consommant; il crée aussi incessamment des communautés, sur la base des profils communs – ces profils étant souvent opaques. Et les communautés ainsi suscitées sont souvent en décalage par rapport à nos catégories. C’est en quoi la focalisation foucaldienne sur la norme et ses transgressions est aujourd’hui inopérante : mille communautés ne cessent d’éclore par le jeu des données, des profils et des algorithmes, éventuellement en dehors des réseaux sociaux (forums, plateformes de tests génétiques d’ancestralité, etc.), et même si elles deviennent souvent des vecteurs de placement de produit.
Vous expliquez que lorsque la réalité n’est plus constituée que des flux de données et d’algorithmes qui s’entretiennent réciproquement, la notion de vérité perd sa signification, au profit d’une idée d’efficacité ou d’optimisation. On comprend bien que ce soit le cas s’agissant de connaissances qui concernent la société, et donc les sciences humaines ou sociales, et, peut-être aussi, la biologie ou la génétique, qui sont désormais largement sollicitées dans les profils. Toutes les sciences ont-elles vocation à suivre le même chemin ? La physique avec l’Internet des objets ?
Le profilage est une forme de socialité et un mode de gouvernementalité; j’insiste sur le rôle majeur que joue dans sa genèse une épistémologie des sciences qu’on dit parfois data-driven, même si cette caractérisation est discutée . En écologie, en génétique, on voit fleurir des tentatives de modèles supposés prédire, sur la base d’immenses collections de données et de traitement statistique très sophistiqué – comme, par exemple, déterminer l’effet du changement climatique de un degré sur une forêt. Des écologues débattent vivement de la possibilité d’une science qui ferait l’économie d’une théorie, c’est-à-dire d’une compréhension mathématisée des mécanismes causaux sous-jacents aux phénomènes. En génétique, des analyses de corrélation – les Genome Wide Association Studies ou GWAS –, qui portent souvent sur des maladies communes, obésité ou diabète de type A, identifient des variants génétiques qui seraient surreprésentés dans une pathologie, donc des prédicteurs, sans toutefois proposer de rôles causaux qui leurs seraient propres.
Le profilage généralise ce régime épistémologique à la galaxie de données personnelles que peuvent produire des activités pourvues toutes de supports numériques (recherche Google, mais aussi trottinettes ou voitures connectées ou même vidéocaméras). L’idée de base est simple : des corrélations innombrables dans des hyperespaces de données maximisent les chances qu’une prédiction basée sur elles soit robuste, sans nécessité de connaitre les causes en jeu, puisque la probabilité d’avoir négligé une variable à effet majeur sur l’objet de la prédiction devient très faible.
Toute la science n’est évidemment pas passée de la causalité à la corrélation pure dans des hyperespaces de données. La physique, elle, est certes grande consommatrice de données massives produites par des appareillages onéreux (James Webb Telescope, Large Hadron Collider, etc.), mais le prédictif n’y est probablement pas aussi crucial (il sert essentiellement à corroborer des théories). L’Internet des objets constitue, lui, une expansion radicale de l’emprise du profilage puisque dans cette perspective les objets physiques ont vocation à produire et consommer des données. Un frigo connecté peut détecter qu’un aliment régulier n’est pas là, et le commander sans vous; il peut alors indiquer que vous consommez hebdomadairement du ketchup, information que votre assurance saura apprécier en augmentant votre prime annuelle… L’internet des objets amplifie donc les potentialités du nudge, tout en arrimant de nouvelles dimensions de l’expérience humaine au pouvoir du profilage.
Je tente de penser comment les sociétés du profilage sont des sociétés du flux - et non de la norme - dans lesquelles des flux de divers ordres communiquent au moins partiellement : flux de données, flux de marchandises par exemple – et je pense ici à l’important livre de Mathieu Quêt Flux (Zones, 2022) – bouclent l’un sur l’autre via le cercle des achats et des données sur les acheteurs. Mais avec l’internet des objets les marchandises sont elles-mêmes porteuses de données, d’où un resserrement supplémentaire de cette « boucle ».
Si, dans ce contexte, la notion de vérité perd sa signification, pourquoi considérer, comme vous le suggérez, que l’authenticité soit appelée à prendre plus d’importance ?
Avec d’autres, je souligne comment les espaces numériques ne souscrivent plus à une norme de vérité, à la différence de notre régime ordinaire de croyance, dans lequel nous recherchons des croyances vraies et rejetons les fausses. La norme y est plutôt l’efficacité : la recommandation qui fait vendre plutôt qu’elle ne révèle nos « vraies » préférences, le groupe d’« amis » qui induit à voter Brexit, etc.
Et dans ces espaces, la notion même d’original ou de copie disparaît alors : ainsi, sur thispersondoesnotexist.com vous verrez des milliers de photos parfaitement nettes d’individus qui en réalité n’existent pas, créées par des IA comme ce GPT dont on parle aujourd’hui. Grâce à cela des minuscules compagnies exhibent sur leur site internet toute une galerie de visages d’employés qui en réalité n’existent pas. Le semblant et le réel (ou ce qui réfère au réel) deviennent indistincts.
Je pense que ce mouvement de perte de l’originalité suscite une nostalgie de l’authenticité, qui réapparaît en plusieurs lieux. Les NFT , par exemple, constituent un dispositif tout entier voué à la réintroduction d’une différence entre l’image authentique, celle dont la blockchain a enregistré mon acquisition, et les autres fichiers qui n’en sont que des copies même s’ils sont identiques au pixel près…
On peut penser que les diverses tentatives de ressusciter l’authenticité échouent toutes, mais leur existence me semble assez significative.
L’ensemble de ces analyses forme finalement un tableau assez peu attrayant, expliquez-vous en conclusion. Quels traits vous semblent-ils alors les plus problématiques ? Et comment s’en défendre ?
L’absence de norme de vérité est évidemment un problème et, sous le nom de fake news (pas forcément le mieux choisi, puisqu’il s’agit ici plutôt de l’indistinction du réel et du fake), on s’en alarme beaucoup. L’un des traits les plus inquiétants renvoie tout de même à la perte de la privauté (privacy), par l’interopérabilité croissante des données. On sait qu’en Chine un individu lancé dans la ville est rattrapé par la police en 30 mn grâce au jeu des innombrables caméras de surveillance et des algorithmes de reconnaissance faciale (comme en avait fait l’expérience un journaliste du New York Times); « c’est la Chine, régime totalitaire ! », dit-on, mais chez nous, à l’occasion des JO 2024, la loi prévoit des « caméras intelligentes » pour prévenir les mouvements de panique et les crimes.
Ces dispositifs sont similaires aux algorithmes de reconnaissance des émotions, que certains veulent introduire pour les entretiens d’embauche… Or, ils sont entraînés sur des jeux de données tellement pauvres ou biaisés, qu’ils sont en réalité bourrés de faux positifs; mais ils ont un effet réel sur la vie des gens (par exemple les malheureux qui finiront en garde à vue). Et surtout, ils donnent une crédibilité au solutionisme technologique, soit cette idée que la technologie trouvera pour tout problème un remède approprié.
A l’heure de la reconnaissance du réchauffement climatique, de la prise de conscience que la croissance est un impératif absurde, ces dispositifs de profilage et d’infléchissement des comportements laissent penser que la technologie numérique sera la panacée. Cela détourne de la recherche d’une vraie solution, politique et forcément décroissante.
C’est pourquoi la défense ne saurait être à l’inverse que politique. En s’attaquant avant tout aux modèles économiques et juridiques qui soutiennent l’empire des courtiers en données et en opacité épistémique ; en étendant la notion de « bien commun » à ces espaces numériques, aujourd’hui enjeux d’une concurrence acharnée et silencieuse pour la maîtrise de notre attention.