R. Badouard passe en revue les modèles politiques, sociotechniques et économiques de régulation de la liberté d’expression en ligne. Une tentative pour combler un vide juridique alarmant.

Dans le contexte actuel de plus en plus marqué par la numérisation des échanges, il est inévitable de relier le débat démocratique à l’espace numérique, et de questionner la place de premier plan prise par des plateformes comme Facebook ou Twitter dans la modération de la prise de parole sur le web. Ces espaces générés et gérés par des entreprises privées et répondant à des logiques marchandes sont devenus les espaces publics privilégiés des discussions et des mobilisations du quotidien. Ce faisant, ils concentrent des enjeux démocratiques de formation de communautés et d’expression politique. Du point de vue juridique, les questionnements portent nécessairement sur les différentes normativités qui régissent la liberté d’expression sur ces plateformes : leur histoire, leurs configurations, leur puissance, leurs acteurs et la nécessité de leur renouvellement.

Romain Badouard est maître de conférences en sciences de l’information et de la communication à l’université Paris II Panthéon-Assas et chercheur au laboratoire CARISM de l’Institut français de la presse. Il se pose à la croisée des sciences de l’information et de la communication et du droit de l’internet pour traiter de ces questions. Il a notamment publié Le Désenchantement de l’internet. Désinformation, rumeur et propagande (FYP, 2017), qui problématisait le retournement d’internet : passé d’un outil au service du renouveau démocratique à un espace où l’exercice de la liberté d’expression est constamment menacé.

« Les nouvelles lois du web » évoquées dans le titre représentent les différentes mesures juridiques adoptées jusqu’à présent pour faire face aux violences contre la liberté d’expression en ligne. Elles représentent aussi, et surtout, un vide législatif et l’impératif d’une nouvelle jurisprudence capable de réguler de manière démocratique le discours dans l’espace public du web. Une nouvelle jurisprudence qui dépasserait la seule relation entre États et plateformes, pour étendre son domaine de réglementation aux dynamiques de pouvoir sous-jacentes au dispositif sociotechnique et aux logiques de marché.

 

Quelles menaces pour la liberté d’expression en ligne et quelles modalités de régulation ?

Tout discours sur la régulation en ligne passe nécessairement par une définition de la liberté d’expression ou, du moins, par une définition de ce qui en empêcherait l’exercice. Trois grandes déclinaisons du discours sur la censure et sur la violence sur le web sont alors mobilisées, chacune avec ses spécificités.

La désinformation (les « fake news » en anglais), tout d’abord, et notamment concernant l’information politique. Grande protagoniste des campagnes présidentielles aux États-Unis (2016) et en France (2017), elle fait craindre de nouvelles stratégies de manipulation de l’opinion publique.

Le discours de haine, ensuite, qui hante le débat politique en ligne et qui s’est consolidé comme une ressource stratégique efficace pour produire des effets d’autocensure sur les victimes de cette exposition à la violence expressive.

Les droits d’auteur, finalement, qui se heurtent à un imaginaire de liberté d’échanges et à une pratique de piratage spécifiques au web.

L’étude concerne principalement les « grandes plateformes du web » : Apple, YouTube, Facebook et Twitter ou encore Google. Ces plateformes appartenant à des entreprises privées, elles constituent les premières sources de trafic vers les médias d’information. Elles font, en même temps, l’objet d’une réglementation assez opaque, qui ne leur empêcherait pas de se poser en nouvelle police de la pensée exerçant un pouvoir de censure inédit sur les contenus qui y circulent.

L’enjeu, ambitieux, de restituer le portrait d’un phénomène complexe et pluriel et de la régulation nécessaire à son maintien, a conduit l’auteur à la composition d’une mosaïque de perspectives. Celles-ci vont de l’histoire du droit jusqu’à la politique, en passant par l’économie et le point de vue sociotechnique. La recherche des nouvelles lois pour réguler la prise de parole sur internet passe ainsi en revue une vaste gamme de modèles normatifs observables sur le web, pour en examiner limites et efficacités : la législation étatique, le formatage des dispositifs sociotechniques, la logique du marché, et les possibilités démocratiques de la participation numérique.

 

L’approche juridique

Romain Badouard revient d’abord sur l’histoire de la jurisprudence, notamment anglo-saxonne et francophone, qui porte sur la régulation des informations circulant sur le web. Cette histoire a pour socle, en France, la loi du 1881 sur la liberté de la presse, qui permet de faire de plusieurs configurations de l’abus à la liberté d’expression (telles que l’injure ou la diffamation, par exemple) un objet de poursuite légale. Elle procède, généralement, par un élargissement de ces cas d’abus et par leur adaptation à l’espace numérique, à travers la loi de confiance dans l’économie numérique (LCEN), votée en 2004.

Les grandes étapes de la constitution de lois qui préservent la liberté d’expression sur Internet mettent en avant les difficultés d’intervention et de régularisation spécifiques aux espaces numériques. « Code is law », selon la fameuse formule du juriste américain Lawrence Lessing (Code and Other Laws of Cyberspace, New York, Basic Books, 1999). Cette expression signifie, en fait, à quel point le discours sur le web a la coutume d’obéir à des normativités d’ordre différent de celles générées par le droit. Les activités des internautes découlent moins des interdits légaux que des possibilités offertes par la technologie. Cette hétérogénéité de l’internet rend difficile, pour autant, toute intervention juridique qui ne respecterait pas la logique d’extra-judiciarisation de la régulation des prises de parole sur Internet. L’application tardive et discontinue de lois juridiques au web s’explique, alors, par le fait que cet espace a, depuis sa naissance, revendiqué un statut d’autonomie et d’extériorité par rapport à ces lois au nom de la liberté d’expression.

 

L'approche sociotechnique

Les politiques adoptées par les géants du web à l’égard de la régulation semblent répondre à un appel de plus en plus fort à la responsabilisation de ces plateformes face aux contenus produits en leur sein. Un appel qui vient généralement de deux fronts : de la part des contraintes légales et de la pression de l’opinion publique. Le tournant est ici marqué par la propagande djihadiste et les tentatives d’enrôlement diffusées via les services de ces plateformes lors des attentats de 2015.

Les grandes plateformes du web peuvent exercer leur pouvoir de régulation à trois niveaux distincts :

- l’application d’un format pour la prise de parole ;

- la distribution de la visibilité des contenus ;

- la modération entendue comme supervision, « police ».

Plusieurs dispositifs de modération ont été ainsi mis en place en ce sens :

- la définition de règles communes de discussion propres à chaque plateforme ;

- un double mécanisme de signalement participatif de la part des usagers et d’évaluation externe ;

- la régulation automatique confiée aux dispositifs et à leurs algorithmes ;

- le développement de canaux de communication supplémentaires (blogs, rapports, conférences de presse) concernant leurs activités de modération.

Cette panoplie engendre, cependant, d’autres problèmes tels que la consolidation du phénomène des « travailleurs du clic ». Il s’agit d’une véritable industrie de la modération des contenus sur les réseaux sociaux et sur les espaces d’échange en ligne, qui emploierait « plus de 100 000 personnes dans le monde ». Le marché des modérateurs prestataires fait l’objet de diverses contestations concernant les conditions de travail et l’exploitation des travailleurs pauvres des pays du Sud. Ceci alimente un débat sur ce qu’Antonio Casilli appelle le « digital labor » (En attendant les robots. Enquête sur le travail du clic, Paris, Seuil, 2019).

La réflexion ne peut donc se passer d’une analyse du dispositif sociotechnique et de la dimension « productive » de la coercition qu’il exerce à travers des moyens de limitation ou de formatage de l’expression. De ses contraintes et opportunités découlent « des dynamiques spécifiques de communication » telles que les reaction buttons sur Facebook ou la barrière des 280 signes sur Twitter.

Le champ de bataille s’étend alors au design de l’attention des plateformes, indissociable de leur modèle économique représentant un moyen de canaliser et rentabiliser l’attention des utilisateurs. Le pouvoir normatif de la technologie semble être le plus contraignant et c’est par là que devrait passer une régulation réellement efficace des dérives de la publicité en ligne.

 

L’approche économique

Le discours de l’économie de l’attention fait de la désinformation un produit particulièrement compétitif sur le marché informationnel des réseaux sociaux. Selon un rapport de 2017 de l’organisation américaine Campaign for Accountability (CfA), ce sont en fait les chaînes et les sites d’extrême droite qui sont les partenaires de choix pour les régies publicitaires. En effet, la logique de désinformation et le discours de haine qui président aux échanges au sein de ces sites les rendent plus populaires et leur permettent de générer plus facilement des vues et des clics.

Le combat juridique doit ainsi être mené contre de véritables pratiques de financement de la haine en ligne dans des conditions de quasi absence, jusqu’ici du moins, d’une « volonté politique forte », à savoir de lois de régulations du marché publicitaire sur Internet votées par le Parlement français. Ce combat vise à imposer une transparence aux plateformes qui jouent un rôle d’intermédiation entre les annonceurs et les sites hébergeurs des messages publicitaires, en particulier concernant le fonctionnement de leur régie publicitaire afin d’éviter toute hypocrisie ou anonymisation dans l’association de certaines firmes à des sites d’extrême droite. Cette transparence servirait également d’obstacle à l’utilisation dérégulée par certains annonceurs des possibilités inédites de ciblage marketing qu’offrent les plateformes.

 

L’approche démocratique

La société civile se présente enfin comme une force d’autorégulation des conflits et des pratiques de prise de parole. La politique des communautés techniques montre à quel point la régulation des contenus sur les plateformes ne relève pas que du conflit des normes, mais également de l’expérience vécue au quotidien par les internautes. Diverses formes participatives de défense des valeurs d’ouverture et d’autogestion du réseau prennent part au débat sur les nouvelles possibilités de modération et de censure sur le web.

Ces possibilités découlent notamment de deux modèles d’utilisation politique des plateformes empruntés à la sociologie des usages. D’un côté, les pratiques de détournement des possibilités expressives offertes par les dispositifs : ces pratiques permettent aux usagers de concevoir à leur avantage des nouvelles modalités d’usage des fonctionnalités des plateformes. C’est le cas, par exemple, du mouvement #FreeTheNipple en 2012 qui visait à susciter une prise de conscience sur les incohérences des politiques de censure de Facebook à travers un emploi détourné de l’hashtag. De tels mouvements se positionnent, en fait, comme une forme interne d’exercice critique sur la conduite de la plateforme elle-même. De l’autre côté, le choix éthique, pour la diffusion de leurs publications, de logiciels libres qui prennent au sérieux leur fonction démocratique et proposent des nouvelles manières de réguler collectivement les contenus, et qui se fondent sur la responsabilisation des usagers. La plateforme Mastodon ou, notamment, Wikipédia, représentent des modèles de plateformes autogérées, capables de proposer des alternatives de cohabitation avec les logiques marchandes et les dynamiques de pouvoir qui régulent actuellement le web.

 

L’intérêt de ces réflexions sur la liberté d’expression en ligne réside surtout dans la pluralité d’acteurs appelés à participer à la construction de la régulation et au débat autour de son efficacité et ses perspectives. En dépassant largement les relations entre États et plateformes, ce débat implique également, à différentes échelles, des organismes transnationaux, journalistes, activistes, entreprises ainsi que leur main-d’œuvre, des développeurs et internautes ordinaires, protagonistes des pratiques alternatives d’autorégulation culturelle. Les solutions proposées découlent de cet effort de pluralité de points de vue et expriment le besoin d’agir sur plusieurs fronts, de la protection des données à la mise en œuvre de procédures d’appel pour les internautes sur les cas de censure, en passant par une remise en question du design de l’attention qui régit les technologies les plus puissantes.