Les gouvernements et les observateurs du monde entier ont exprimé à plusieurs reprises leurs inquiétudes concernant le pouvoir monopolistique des entreprises Big Tech et le rôle que jouent les entreprises dans la diffusion de fausses informations. En réponse, les entreprises Big Tech ont tenté d'anticiper les réglementations en s'autorégulant .
Avec l'annonce par Facebook que son conseil de surveillance prendra une décision quant à savoir si l'ancien président Donald Trump peut retrouver l'accès à son compte après que l'entreprise l'a suspendu, cela et d'autres mesures très médiatisées prises par des entreprises technologiques pour lutter contre la désinformation ont relancé le débat sur ce que l'auto responsable -la réglementation par les entreprises technologiques devrait ressembler.
La recherche montre trois façons principales dont l'autorégulation des médias sociaux peut fonctionner : déprioriser l'engagement, étiqueter la désinformation et vérifier l'exactitude de la crowdsource.
Ne priorisez pas l'engagement
Les plateformes de médias sociaux sont conçues pour une interaction constante et les entreprises conçoivent les algorithmes qui choisissent les publications que les gens voient pour maintenir l'engagement de leurs utilisateurs. Des études montrent mensonges se propagent plus rapidement que la vérité sur les réseaux sociaux , souvent parce que les gens trouvent que les nouvelles qui déclenchent des émotions sont plus engageantes , ce qui les rend plus susceptibles de lire, de réagir et de partager ces nouvelles. Cet effet est amplifié par des recommandations algorithmiques. Mon propre travail montre que les gens consultent plus souvent les vidéos YouTube sur le diabète lorsque les vidéos sont moins informatives.
La plupart des plates-formes Big Tech fonctionnent également sans les gardiens ou les filtres qui régissent les sources traditionnelles d'actualités et d'informations. Leurs vastes trésors de données démographiques fines et détaillées leur permettent de "microcibler" un petit nombre d'utilisateurs . Ceci, combiné à l'amplification algorithmique du contenu conçu pour stimuler l'engagement, peut avoir une multitude de conséquences négatives pour la société, notamment la suppression des électeurs numériques , le ciblage des minorités à des fins de désinformation et le ciblage publicitaire discriminatoire .
La dépriorisation de l'engagement dans les recommandations de contenu devrait atténuer l' effet «trou de lapin» des médias sociaux , où les gens regardent publication après publication, vidéo après vidéo. La conception algorithmique des plates-formes Big Tech donne la priorité au contenu nouveau et microciblé, ce qui favorise une prolifération presque incontrôlée de désinformation. Le PDG d'Apple, Tim Cook, a récemment résumé le problème : « À un moment de désinformation rampante et de théories du complot alimentées par des algorithmes, nous ne pouvons plus fermer les yeux sur une théorie de la technologie qui dit que tout engagement est un bon engagement - le plus longtemps sera le mieux - et tout cela dans le but de collecter autant de données que possible.
Désinformation sur les étiquettes
Les entreprises technologiques pourraient adopter un système d'étiquetage du contenu pour identifier si une information est vérifiée ou non. Lors de l'élection, Twitter a annoncé une politique d'intégrité civique en vertu de laquelle les tweets étiquetés comme contestés ou trompeurs ne seraient pas recommandés par leurs algorithmes . La recherche montre que l'étiquetage fonctionne. Des études suggèrent que l'application d'étiquettes aux messages de médias contrôlés par l'État , tels que la chaîne de médias russe RT, pourrait atténuer les effets de la désinformation.
Dans une expérience, des chercheurs ont embauché des travailleurs temporaires anonymes pour étiqueter les messages dignes de confiance . Les messages ont ensuite été affichés sur Facebook avec des étiquettes annotées par les travailleurs du crowdsource. Dans cette expérience, les travailleurs de foule de tout le spectre politique ont pu faire la distinction entre les sources grand public et les sources d'information hyperpartisanes ou fausses, ce qui suggère que les foules font souvent un bon travail pour faire la différence entre les vraies et les fausses nouvelles.
Les expériences montrent également que les personnes ayant une certaine exposition aux sources d'information peuvent généralement faire la distinction entre les vraies et les fausses nouvelles. D'autres expériences ont montré que fournir un rappel sur l'exactitude d'un message augmentait la probabilité que les participants partagent des messages exacts plus que des messages inexacts.
Dans mon propre travail, j'ai étudié comment des combinaisons d'annotateurs humains, ou de modérateurs de contenu, et d'algorithmes d'intelligence artificielle - ce que l'on appelle l'intelligence humaine dans la boucle - peuvent être utilisées pour classer les vidéos liées aux soins de santé sur YouTube . Bien qu'il ne soit pas possible de demander à des professionnels de la santé de regarder chaque vidéo YouTube sur le diabète, il est possible d'avoir une méthode de classification humaine dans la boucle. Par exemple, mes collègues et moi avons recruté des experts en la matière pour donner leur avis sur les algorithmes d'IA, ce qui se traduit par de meilleures évaluations du contenu des publications et des vidéos.
Les entreprises technologiques ont déjà utilisé de telles approches. Facebook utilise une combinaison de vérificateurs de faits et d'algorithmes de détection de similarités pour filtrer les fausses informations liées au COVID-19. Les algorithmes détectent les doublons et ferment les copies des messages trompeurs.
Application communautaire
Twitter a récemment annoncé qu'il lançait un forum communautaire, Birdwatch , pour lutter contre la désinformation. Bien que Twitter n'ait pas fourni de détails sur la manière dont cela sera mis en œuvre, un mécanisme de vérification basé sur la foule ajoutant des votes ou des votes négatifs aux publications tendance et utilisant des algorithmes de fil d'actualité pour déclasser le contenu provenant de sources non fiables pourrait aider à réduire la désinformation.
L'idée de base est similaire au système de contribution de contenu de Wikipédia , où les volontaires classent si les publications tendance sont réelles ou fausses. Le défi consiste à empêcher les gens de voter pour un contenu intéressant et convaincant mais non vérifié, en particulier lorsqu'il y a des efforts délibérés pour manipuler le vote . Les gens peuvent déjouer les systèmes grâce à une action coordonnée , comme dans le récent épisode de pompage de stock de GameStop .
Un autre problème est de savoir comment motiver les gens à participer volontairement à un effort de collaboration tel que la détection de fausses nouvelles par crowdsourcing. De tels efforts, cependant, reposent sur des bénévoles annotant l'exactitude des articles de presse , comme Wikipédia, et nécessitent également la participation d' organisations tierces de vérification des faits qui peuvent être utilisées pour détecter si une nouvelle est trompeuse.
Cependant, un modèle de style Wikipédia nécessite des mécanismes solides de gouvernance communautaire pour garantir que les volontaires individuels suivent des directives cohérentes lorsqu'ils authentifient et vérifient les publications. Wikipédia a récemment mis à jour ses normes communautaires spécifiquement pour endiguer la propagation de la désinformation . La question de savoir si les grandes entreprises technologiques autoriseront volontairement la révision de leurs politiques de modération de contenu de manière aussi transparente est une autre question.
[ Obtenez nos meilleures histoires sur la science, la santé et la technologie. Inscrivez-vous à la newsletter scientifique de The Conversation .]
Les responsabilités de Big Tech
En fin de compte, les entreprises de médias sociaux pourraient utiliser une combinaison de dépriorisation de l'engagement, de partenariat avec des organes de presse, d'IA et de détection de désinformation externalisée. Il est peu probable que ces approches fonctionnent de manière isolée et devront être conçues pour fonctionner ensemble.
Des actions coordonnées facilitées par les médias sociaux peuvent perturber la société, des marchés financiers à la politique . Les plateformes technologiques jouent un rôle extraordinairement important dans la formation de l'opinion publique, ce qui signifie qu'elles ont la responsabilité envers le public de se gouverner efficacement.
Les appels à une réglementation gouvernementale des Big Tech se multiplient dans le monde entier, y compris aux États-Unis, où un récent sondage Gallup a montré une aggravation des attitudes envers les entreprises technologiques et un plus grand soutien à la réglementation gouvernementale. Les nouvelles lois allemandes sur la modération du contenu responsabilisent davantage les entreprises technologiques pour le contenu partagé sur leurs plateformes. Une multitude de réglementations en Europe visant à réduire les protections de responsabilité dont bénéficient ces plateformes et les réglementations proposées aux États-Unis visant à restructurer les lois sur Internet apporteront un examen plus approfondi aux politiques de modération de contenu des entreprises technologiques.
Une certaine forme de réglementation gouvernementale est probable aux États-Unis. La Big Tech a encore la possibilité de s'engager dans une autorégulation responsable - avant que les entreprises ne soient obligées d'agir par les législateurs.
Anjana Susarla , Professeur Omura-Saxena d'IA responsable, Michigan State University
Cet article est republié de The Conversation sous une licence Creative Commons. Lire l' article d'origine .