L'IA ouvre des perspectives qui sont dépeintes comme extrêmement positives par l'économie dominante, mais qui s'accompagnent souvent d'une déqualification de ses utilisateurs.
Après un premier ouvrage consacré au futur du travail et aux effets de l'automatisation, de la précarisation et de l'essor des emplois de plateformes et dans le secteur de la logistique, Juan Sebastian Carbonell explore dans Un taylorisme augmenté les conséquences de l'Intelligence artificielle (en général, et pas uniquement de l'IA générative, qui a fait beaucoup parler d'elle ces derniers temps) sur les emplois et les conditions de travail. Critiquant des applications conçues pour renforcer le contrôle du travail par les directions, dans la continuité du taylorisme, il avance que l'IA pourrait être à l'origine d'un vaste mouvement de déqualification du travail, dont les salariés et leurs organisations doivent désormais prendre la mesure.
Nonfiction : Pourquoi est-il si important s’agissant de l’IA de chercher à prendre la mesure de ses effets sur le travail ?
Juan Sebastian Carbonell : L’IA est ce qu’on pourrait appeler une « promesse technologique », c’est-à-dire que des acteurs privés et publics élaborent des discours cherchant à présenter cette technologie comme nécessaire et inévitable, apportant des solutions à des problèmes auxquels fait face la société : la pauvreté, la faiblesse de la croissance, le changement climatique, etc. C’est le but des discours sur les « ruptures », « révolutions » ou « disruptions » technologiques, sur l’intelligence artificielle générale ou, au niveau du travail, sur d'immenses gains de productivité grâce à l’IA. Pourtant, il faut adopter une posture sceptique à l’égard de l’IA, comme à l’égard de toute technologie, faisant la part entre ce qu’elle peut faire et ce qu’elle ne peut pas faire, et entre ce que disent des acteurs qui sont juge et partie du changement technologique et ce que disent les chercheuses et chercheurs en IA ou les acteurs de terrain qui vivent ces changements au quotidien. Ces derniers ne voient pas de « révolution », mais une transformation dans leurs conditions de travail. Étudier les effets de l’IA au travail permet donc de démystifier cette technologie en l’inscrivant dans la longue histoire des efforts patronaux pour mieux contrôler le processus de travail. C’est ce que j’essaie de faire avec l’idée que l’IA au travail est un « taylorisme augmenté », c’est-à-dire qu’elle prolonge aujourd’hui les logiques tayloriennes du XXe siècle de parcellisation du travail ou de séparation entre la conception et l’exécution. L’idée étant, de façon générale, que l’IA pose à nouveaux frais des questions classiques de la sociologie du travail sur l’organisation du travail, l’autonomie des travailleurs, leurs qualifications, etc.
Comment ses effets sont-ils appréhendés par les économistes et que penser des modèles qu'ils mobilisent pour cela et des résultats auxquels ils parviennent ?
Il existe aujourd’hui plusieurs modèles pour penser les effets du changement technologique au travail, mais le modèle dominant, présent principalement dans l’économie mainstream, est celui du routine-biased technological change, formulé, entre autres, par deux des derniers prix de la Banque de Suède, Daron Acemoglu et Philippe Aghion. Cette théorie veut que le changement technologique affecte différemment les professions selon le contenu plus ou moins routinier des tâches qui les composent, d’où le « biais » des technologies vis-à-vis de la « routine ». Selon cette approche, il existe quatre (ou même cinq) types de tâches, qui se distinguent selon le degré de routine et leur composante manuelle ou cognitive. Les tâches routinières et manuelles, routinières et cognitives, non routinières et manuelles et, enfin, non routinières et cognitives (où l'on peut encore distinguer selon qu'elles sont interactives ou analytiques). Le changement technologique aurait tendance à faire disparaître les métiers composés de tâches routinières, qu’elles soient cognitives ou manuelles, ce qui provoquerait une polarisation des métiers. Cette théorie, quoique très séduisante, comporte de nombreuses limites. La principale étant que des études de cas que je développe dans le livre montrent que même les métiers composés de tâches non routinières et cognitives ne sont pas à l’abri d’une déqualification du travail.
Vous expliquez l’importance de faire la part dans l’introduction d’une nouvelle technologie entre le quoi, le comment et le avec quoi. Pourriez-vous en dire un mot ?
Oui, en effet. Je m’appuie beaucoup dans ce livre sur un auteur qui m’est très cher qui s’appelle Harry Braverman. Ce dernier n’était pas un sociologue, ou un économiste universitaire, mais un militant ouvrier trotskiste pendant une grande part de sa vie, avant de devenir éditeur. Il publie Travail et capitalisme monopoliste en 1974, s’appuyant sur son expérience d’ouvrier, mais aussi sur une critique de la vaste littérature de sociologie et d’économie du travail de l’époque. Il formule dans ce livre une critique de l’organisation du travail, notamment de la manière dont celle-ci contribue à la déqualification des travailleuses et des travailleurs et donc à accroître le pouvoir patronal sur le processus de travail. Cette analyse débute avec Marx, et Braverman essaie de montrer ce qui a changé depuis en analysant le taylorisme, c’est-à-dire l’organisation « scientifique » du travail. Braverman rappelle que l’analyse du travail en termes de tâches n’a rien d’évident, mais est plutôt le produit du taylorisme qui analyse le travail ouvrier pour ensuite le décomposer en tâches pour mieux les distribuer à des ouvriers moins qualifiés. Suivant en cela Braverman, je préfère partir d’une analyse de l’organisation du travail, c’est-à-dire de la distinction entre quoi (quelles sont les tâches qui composent un métier), comment (avec quel degré d’autonomie travaillent les salariés et les salariées) et avec quoi (quels sont les outils avec lesquels ils et elles travaillent). Ce cadre conceptuel nous permet de comprendre mieux les effets des nouvelles technologies au travail, dont l’IA, puisque celle-ci entre dans une organisation du travail en particulier, la modifie dans son ensemble, redistribuant le travail entre les différents métiers, au lieu, simplement, d’affecter ce travail selon son degré de routine. Il faudrait peut-être ajouter à cette configuration le « pourquoi », c’est-à-dire les déterminants socio-économiques qui poussent les entreprises à choisir telle ou telle technologie au détriment d’une autre, puisque l’existence d’une technologie n’implique pas son application immédiate ou réussie dans une organisation du travail particulière.
Les applications (autorisées) de l’IA dans les entreprises sont multiples et variés, sans parler des utilisations « sauvages » que peuvent en faire les salariés dans leur travail, comment les caractériseriez-vous ?
Une entreprise qui introduit un nouvel outil dans le but de baisser le coût du travail, quantifier l’activité de ses salariés, ou les surveiller n’a rien à voir avec un salarié qui s’appuie sur ChatGPT pour rédiger ses emails. Mais, le fait est que, dans aucun des deux cas, cet usage ne bénéficie aux salariés. C’est quelque chose que j’ai pu observer dans l’industrie automobile, où les nouveaux robots industriels sont présentés par la direction, les syndicats, et souvent par les salariés eux-mêmes, comme un moyen de rendre le travail moins pénible, ou de réduire le nombre d’accidents. Un robot peut porter des pièces lourdes, ou commettre moins d’erreurs qu’un humain. Pourtant, l’effet pervers de ce allègement est une intensification du travail, puisque les ouvriers se concentrent sur ce que l’entreprise appelle les « gestes à valeur ajoutée », c’est-à-dire les gestes de montage. C’est ce que l’on constate aussi dans la logistique, où la commande vocale a pour but de « libérer » les yeux et la main des préparateurs de commandes, en leur dictant leur travail, pas à pas. Une interprétation charitable voudrait que cela réduit la charge mentale des ouvriers, qui n’ont plus à suivre un listing papier ou sur une tablette. Mais les différentes études sur cet outil montrent qu’il permet surtout d’accélérer la cadence, provoquant, comme dans l’industrie automobile, des troubles musculo-squelettiques sur le long terme. On en vient donc aux salariés de bureau et à l’« adoption silencieuse », comme on l’appelle, qui peuvent voir dans ChatGPT, ou n’importe quelle autre IA générative, « juste un outil ». Or, d’un côté, l’adopter, même volontairement, change le travail, puisque les salariés délèguent alors à l'IA certaines tâches pour se concentrer sur d’autres. D’un autre côté, cet usage contribue à rendre les IA génératives incontournables et à imposer leur usage. Plus on l’utilise, plus son usage est encastré dans nos activités professionnelles quotidiennes, jusqu’à la rendre « évidente », rendant plus difficile ou coûteux le fait de s’en passer.
Vous n’évoquez pas d’exemples où l’IA a permis au contraire d’améliorer significativement la prestation, sans dégradation du travail (même si les deux ne vont pas nécessairement de pair). Est-ce à dire qu’il n’en existe pas ?
Je ne nie pas qu’il puisse y avoir des cas où l’IA pourrait, d’une façon ou d’une autre, contribuer à améliorer les conditions de travail des salariées et salariés. On travaille avec des collègues italiens et autrichiens la question de l’introduction de technologies « digitales » dans l’industrie automobile européenne. Le type de technologie utilisé par les entreprises dépend du type de produit fabriqué, avec des effets différenciés sur la main-d’œuvre.
Pour le dire très rapidement, dans l’industrie automobile française, ou chez les constructeurs généralistes italiens, comme Fiat, les technologies ont les effets que je décris dans le livre : déqualification, intensification, etc. Parce que cela correspond aux besoins d’une industrie dont le modèle économique repose sur la production de véhicules particuliers généralistes et donc sur la réduction permanente des coûts. Mais dans l’industrie automobile autrichienne ou dans le segment de luxe de l’industrie automobile italienne (Maserati, Ducati, Lamborghini, etc.), les effets négatifs des technologies pouvaient être négociés avec les salariés et leurs représentants syndicaux. Cela tient à la politique produit, qui nécessite des investissements technologiques importants en lien avec la qualité, donc un usage plus intensif des technologies par les salariés et les salariées qui les fabriquent. On voit donc bien que les effets des technologies varient selon le contexte économique. On pourrait aussi dire que le cadre institutionnel peut également influencer les effets des technologies : dans une industrie sans tradition de négociation collective sur le changement technologique, comme c’est le cas de l’industrie automobile ou de la logistique en France, les effets de la technologie ne sont pas discutés entre direction et syndicats. Souvent même, les directions locales découvrent de nouveaux outils ou de nouvelles machines en même temps que les représentants du personnel. En quelque sorte, tout le monde est dessaisi de cette question au niveau de l’entreprise. Cela étant dit, dans des pays où il existe des instruments de négociation sur le changement technologique, on voit que les effets négatifs de ces technologies peuvent être mitigés par la négociation collective.
Finalement, comment parer ces effets ? Vous n’accordez pas beaucoup de crédit pour cela à la réglementation... Vous évoquez pour finir un « nouveau luddisme », qui pourrait prendre la forme d'une critique de l’organisation du travail par les travailleurs eux-mêmes pour promouvoir des trajectoires technologiques alternatives à celles que prétendent instaurer les directions, et non déqualifiantes. Pourriez-vous en dire un mot ?
En effet, la réglementation est souvent brandie comme un moyen d’encadrer l’IA et ses effets négatifs. Pourtant, cette option me semble limitée. La réglementation n’a pas tant pour but de « freiner » l’« innovation », comme le disent ses opposants, mais d’offrir un cadre pour le développement à l’IA, pour, en quelque sorte, favoriser l’émergence d’un marché de l’IA. Il suffit de voir qui siège dans les commissions qui, soit rédigent les réglementations, soit sont consultées dans leur élaboration : on y trouve des représentants d’entreprises de la Tech, d’entreprises du numérique, de transnationales, etc. Comme le montre la Quadrature du Net, le règlement IA de l’Union européenne n’a rien d’un encadrement qui permettrait de protéger les populations ou les travailleurs et travailleuses de l’IA. Il a pour objectif de favoriser le prolifération des usages de l’IA, tout en régulant la concurrence entre entreprises d’IA. Par exemple, alors qu’il y a eu de nombreuses demandes d’interdiction de certains usages, comme la vidéosurveillance algorithmique ou le « crédit social », technologies dangereuses, aucune de ces revendications n’a été intégrée au texte final. Pour le dire autrement, en encadrant l’IA, ces réglementations favorisent l’acceptation de cette technologie. Réguler n’a pas freiné l’introduction de la vidéosurveillance algorithmique, mais a, au contraire, favorisé son expérimentation. La technologie est présentée comme « fiable » ou « sûre », puisque les entreprises peuvent désormais se protéger derrière ce cadre législatif.
Face à ce déchaînement incontrôlé de l’IA et aux effets négatifs qu’on commence à documenter sur la surveillance des populations ou sur l’environnement, je défends une stratégie de refus qui s’incarnerait dans un « renouveau luddite », du nom des luddites, des ouvriers anglais du début du XIXe siècle, connus pour avoir détruit des machines industrielles. En détruisant des machines, ces ouvriers ne rejetaient pas le changement technologique dans l’absolu, mais la trajectoire technologique du capitalisme industriel naissant, c’est-à-dire l’existence de machines qui déqualifient les travailleurs et les travailleuses et déstructurent les collectifs ouvriers. Ils défendaient, en quelque sorte, une autre trajectoire technologique, un changement technologique alternatif. Cela passe, à mon avis, par le contrôle ouvrier, perspective que je défendais déjà dans l’ouvrage précédent. Celui-ci n’a rien à voir avec la co-détermination à l’allemande, ou la co-gestion. Mais plutôt, l’intervention des travailleurs dans la marche de l’entreprise, dans l’organisation du travail, et dans le changement technologique, indépendamment de la direction et du patron. Cela revient à décider démocratiquement de quelles technologies on a besoin, donc de décider si on a besoin d’IA, ou non.