in

Salut Elon ! Le problème avec la liberté d’expression n’est pas la censure, ce sont les algorithmes


Imaginez qu’il y ait une place de parole publique dans votre ville, un peu comme l’ancienne agora grecque. Ici, vous pouvez librement partager vos idées sans censure.

Mais il y a une différence essentielle. Quelqu’un décide, pour son propre bénéfice économique, qui peut écouter quel discours ou quel orateur. Et cela n’est pas divulgué non plus lorsque vous entrez. Vous pourriez n’avoir que quelques auditeurs lorsque vous parlez, tandis que quelqu’un d’autre avec des idées similaires a un large public.

Serait-ce vraiment la liberté d’expression ?

C’est une question importante car les agoras modernes sont des plateformes de médias sociaux – et c’est ainsi qu’elles organisent la parole. Les plateformes de médias sociaux ne se contentent pas de présenter aux utilisateurs les messages de ceux qu’ils suivent, dans l’ordre dans lequel ils sont publiés.

Ce sont plutôt des algorithmes qui décident quel contenu est affiché et dans quel ordre. Dans nos recherches, nous avons appelé cette « audience algorithmique ». Et nous pensons que cela justifie un examen plus approfondi du débat sur la manière dont la liberté d’expression est pratiquée en ligne.

Notre compréhension de la liberté d’expression est trop limitée

Le débat sur la liberté d’expression a une fois de plus été enflammé par l’annonce du projet d’Elon Musk de prendre le contrôle de Twitter, sa promesse de réduire la modération du contenu (notamment en restaurant le compte de Donald Trump) et, plus récemment, les spéculations selon lesquelles il pourrait se retirer de l’accord si Twitter le pouvait. Cela ne prouve pas que la plate-forme n’est pas inondée de bots.

L’approche de Musk en matière de liberté d’expression est typique de la façon dont ce problème est souvent formulé : en termes de modération de contenu, de censure et de questions de décision quant à la parole qui peut entrer et rester sur la plate-forme.

Mais nos recherches révèlent que cette focalisation passe à côté de la façon dont les plateformes interfèrent systématiquement avec la liberté d’expression du côté du public, plutôt que du côté de l’orateur.

En dehors du débat sur les médias sociaux, la liberté d’expression est communément comprise comme le « libre-échange des idées ». La parole concerne le discours, pas seulement le droit de parler. L’ingérence algorithmique dans le choix de qui entend quel discours sert à saper directement cet échange d’idées libre et équitable.

Si les plateformes de médias sociaux sont « l’équivalent numérique d’une place publique » engagées dans la défense de la liberté d’expression, comme le soutiennent Mark Zuckerberg et Musk de Facebook, alors l’audience algorithmique doit être envisagée pour que la parole soit libre.

Comment ça fonctionne

L’audience algorithmique se fait par le biais d’algorithmes qui amplifient ou limitent la portée de chaque message sur une plate-forme. Cela se fait par conception, sur la base de la logique de monétisation d’une plateforme.

Les algorithmes de flux d’actualités amplifient le contenu qui maintient les utilisateurs les plus « engagés », car l’engagement conduit à une plus grande attention des utilisateurs sur la publicité ciblée et à davantage d’opportunités de collecte de données.

Cela explique pourquoi certains utilisateurs ont un large public alors que d’autres avec des idées similaires sont à peine remarqués. Ceux qui parlent à l’algorithme réalisent la plus large diffusion de leurs idées. Cela s’apparente à de l’ingénierie sociale à grande échelle.

Dans le même temps, le fonctionnement des algorithmes de Facebook et Twitter reste largement opaque.

Comment cela interfère avec la liberté d’expression

L’audience algorithmique a un effet matériel sur le discours public. Alors que la modération de contenu ne s’applique qu’aux contenus préjudiciables (qui ne représentent qu’une infime fraction de tous les discours sur ces plateformes), l’audience algorithmique s’applique systématiquement à tous les contenus.

Jusqu’à présent, ce type d’ingérence dans la liberté d’expression a été négligé, car c’est sans précédent. Ce n’était pas possible dans les médias traditionnels.

Et c’est relativement récent pour les médias sociaux aussi. Au début, les messages étaient simplement envoyés à son réseau d’abonnés, plutôt que soumis à une distribution algorithmique. Facebook, par exemple, n’a commencé à remplir les fils d’actualité à l’aide d’algorithmes qui optimisent l’engagement qu’en 2012, après avoir été coté en bourse et confronté à une pression accrue pour monétiser.

Ce n’est qu’au cours des cinq dernières années que l’audience algorithmique est vraiment devenue un problème répandu. Dans le même temps, l’ampleur du problème n’est pas entièrement connue car il est presque impossible pour les chercheurs d’accéder aux données de la plate-forme.

Mais nous savons qu’il est important de s’y attaquer car cela peut entraîner la prolifération de contenus préjudiciables tels que la mésinformation et la désinformation.

Nous savons que ce contenu est davantage commenté et partagé, attirant une amplification supplémentaire. Les propres recherches de Facebook ont ​​montré que ses algorithmes peuvent inciter les utilisateurs à rejoindre des groupes extrémistes.

Ce qui peut être fait?

Individuellement, les utilisateurs de Twitter devraient tenir compte des récents conseils d’Elon Musk pour réorganiser leurs fils d’actualité dans l’ordre chronologique, ce qui limiterait l’étendue de l’audience algorithmique appliquée.

Vous pouvez également le faire pour Facebook, mais pas comme paramètre par défaut – vous devrez donc choisir cette option chaque fois que vous utiliserez la plateforme. C’est le même cas avec Instagram (qui appartient également à la société mère de Facebook, Meta).

De plus, le passage à l’ordre chronologique n’ira pas plus loin dans la limitation de l’audience algorithmique, car vous obtiendrez toujours d’autres contenus (en dehors de ceux auxquels vous vous inscrivez directement) qui vous cibleront en fonction de la logique de monétisation de la plateforme.

Et nous savons également que seule une fraction des utilisateurs modifient leurs paramètres par défaut. Au final, une régulation s’impose.

Bien que les plateformes de médias sociaux soient des entreprises privées, elles bénéficient de privilèges étendus pour modérer le contenu sur leurs plateformes en vertu de l’article 230 du Communications Decency Act des États-Unis.

En retour, le public attend des plateformes qu’elles facilitent un échange libre et équitable de leurs idées, car ces plateformes fournissent l’espace où se déroule le discours public. L’audience algorithmique constitue une violation de ce privilège.

Alors que les législateurs américains envisagent de réglementer les médias sociaux, la question de l’audience algorithmique doit être sur la table. Pourtant, jusqu’à présent, cela n’a pratiquement pas fait partie du débat – l’accent étant mis sur la modération du contenu.

Toute réglementation sérieuse devra remettre en question l’ensemble du modèle commercial des plateformes, car l’audience algorithmique est le résultat direct de la logique capitaliste de surveillance – dans laquelle les plateformes capturent et marchandisent notre contenu et nos données pour prédire (et influencer) notre comportement – le tout pour générer des bénéfices.

Tant que nous ne réglementerons pas cette utilisation des algorithmes et la logique de monétisation qui la sous-tend, la parole sur les réseaux sociaux ne sera jamais libre au sens véritable du terme.La conversation

Article de Kai Riemer, professeur de technologies de l’information et d’organisation, Université de Sydney et Sandra Peter, directrice, Sydney Business Insights, Université de Sydney

Cet article est republié de The Conversation sous une licence Creative Commons. Lire l’article d’origine.



What do you think?

8.8k Points
Upvote Downvote

Vuzix va développer des écrans microLED en couleur

THE TERMINAL LIST Bande Annonce VF (2022)