À titre d'information

Les algorithmes de Facebook encouragent la violence, la haine et les théories conspirationnistes

Le Wall Street Journal a publié une série d'articles portant le nom Facebook Files sur la base de dizaines de milliers de pages de recherche interne fournie par une ancienne employée de Facebook, Frances Haugen. Cette dernière a ensuite témoigné devant un sous-comité du Sénat américain.

L'information contenue dans les documents ainsi que l'expérience des gens avec Facebook montrent que les algorithmes de Facebook servent à promouvoir et à « amplifier » l'incitation à la violence, y compris la violence communale, les contenus racistes, misogynes et homophobes ainsi que la division du peuple. Les algorithmes actuels sont secrets; on connaît leur impact, mais pas exactement comment ils fonctionnent.

Facebook a introduit des nouveaux algorithmes en 2018 parce que l'« engagement » était à la baisse, ce qui constituait une menace pour ses profits. Les gens passaient moins de temps sur Facebook. C'est toujours le cas et les nouveaux marchés de Facebook ne sont pas en Amérique du Nord, l'Inde à elle seule ayant 340 millions d'utilisateurs Facebook. Les nouveaux algorithmes, selon Facebook, visaient à encourager l'« engagement » entre amis et familles, etc., présentant Facebook comme une plateforme où tous sont des « participants égaux ».

Les Facebook Files ont révélé des documents internes qui montrent que Facebook était très conscient que les algorithmes servaient à « amplifier les publications à sensation », y compris l'incitation à la violence, le contenu raciste et misogyne, la promotion de la haine et de l'autodépréciation, etc. C'est ce qui ressort des Facebook Files et d'autres commentaires comme tels, tandis que d'autres réseaux médiatiques ont publié d'autres informations basées sur des documents censurés qui ont été présentés aux audiences du comité du Sénat américain. La recherche interne de Facebook en est arrivée à la conclusion que les algorithmes ont eu un impact négatif sur le discours public. Les propositions mises de l'avant par les groupes Facebook créés à l'interne pour étudier la question ont été largement ignorées parce que les mettre en oeuvre « réduirait l'engagement » et aurait un impact négatif sur la poursuite du profit maximum.

On laisse entendre que ce contenu qui est nuisible à la société est « amplifié » parce que les gens y réagissent, commentent, partagent et « aiment ». En fait, les algorithmes ont changé la façon dont les médias des nouvelles fonctionnent, alors que ces médias se plaignent à Facebook que les articles de nouvelles ou d'actualité sur un sujet comme manger santé n'avaient plus d'« amplitude ». Les partis politiques qui forment les systèmes gouvernementaux de partis du cartel ont aussi reconnu que Facebook avait changé sa façon d'encadrer ses plateformes.

L'« amplification » par Facebook de ce qu'il appelle des publications à sensation, ainsi que le recours aux faux comptes et aux comptes multiples à utilisateur unique (SUMA) pour publier du matériel que les algorithmes préféreront, change complètement la donne en présentant un faux portrait de ce qui est « populaire ». Par exemple, un rapport indique que huit personnes étaient à l'origine de la fausse information au sujet de la COVID-19 et de ses impacts négatifs qui sont devenus « viraux » c'est-à-dire que les algorithmes de Facebook les ont rendues « virales ». Il ne s'agit pas de savoir ce que les personnes utilisant leur propre nom et leur propre compte disent et partagent en réalité. Les dirigeants, les experts et les médias s'emparent ensuite de l'hystérie créée par les algorithmes pour déclarer que « les gens » sont racistes, misogynes, extrémistes, etc.

Ce que les audiences sur Facebook ont aussi fait ressortir c'est que les normes de la collectivité régissant les publications violentes et tout ce que les intérêts secrets particuliers doivent retirer, ne s'appliquent pas aux politiciens ayant des sièges à l'assemblée législative ou des postes au cabinet, aux « personnalités connues », au monde du spectacle, etc. Des millions d'utilisateurs considérés comme des VIP ne sont pas forcés de respecter les « normes de la collectivité ». Facebook a recours à un programme appelé « Xcheck » qui en 2020 comprenait 5,8 millions de personnes qui étaient sur la « liste blanche » et dispensées de respecter les normes habituelles. Elles peuvent publier ce qu'elles veulent impunément : soit elles ne seront pas supprimées, soit elles ne le seront qu'avec l'approbation des hauts dirigeants de Facebook, soit elles ne le seront qu'après avoir eu le temps de devenir viral.

Le fait que par le biais de faux comptes et de SUMA d'énormes montants de contenu peuvent être publiés est aussi significatif. Les algorithmes de Facebook permettent à un utilisateur unique ayant plusieurs comptes Facebook de créer une importante circulation que les algorithmes vont promouvoir. Les chercheurs Facebook ont trouvé que les liens populaires auprès des « grands utilisateurs » étaient associés de façon disproportionnée à de la fausse information, et que le contenu viral penchait vers les théories conspirationnistes, le discours haineux et les canulars. Facebook prétend qu'il retire régulièrement les faux comptes, bien que les chercheurs d'entendent pour dire qu'il n'y a pas d'approche systématique. Les SUMA ne vont pas à l'encontre de ses normes, et les comptes multiples sont considérés comme une importante source de nouveaux comptes. Évidemment, certains SUMA sont légitimes, alors que quelqu'un peut avoir un compte strictement pour communiquer avec sa famille et ses amis proches, et un autre pour communiquer avec le public. Cependant, Facebook ne joue pas franc jeu pour ce qui est de l'importance des faux comptes ou des SUMA dans son bilan financier, ni du lien qu'ils ont dans ce qu'il appelle « l'utilisation intensive » ni le lien qu'il a trouvé avec la haine, la violence, la fausse information et les théories conspirationnistes. Les chercheurs ont également mené des dizaines d'expériences au cours desquelles ils ont découvert que plus la vitesse et la longueur d'une chaîne de partage augmentaient, plus il y avait de chances que le contenu soit toxique.

Des chercheurs de Facebook ont créé un compte pour une personne fictive qu'ils ont nommée Carol Smith. Son compte était l'un des autres « utilisateurs » fictifs créés en 2019 et 2020 par les chercheurs qui étudiaient l'effet des algorithmes introduits en 2018. Smith se décrivait comme une mère politiquement conservatrice de Wilmington, en Caroline du Nord, s'intéressant à la politique, à l'éducation des enfants et au christianisme, et suivant Fox News et le président de l'époque, Donald Trump. En deux jours seulement, Facebook recommandait à Smith de rejoindre des groupes dédiés à QAnon. En l'espace d'une semaine, son fil d'actualités était rempli de groupes et de pages qui avaient violé les propres règles de Facebook, y compris celles contre les discours de haine et la désinformation, a rapporté NBC News. Le chercheur a décrit l'expérience de Smith sur Facebook comme « un barrage de contenu extrême, conspirationniste et graphique ». Cette conclusion a été répétée de manière cohérente avec d'autres comptes de personnes fictives créés par les chercheurs. Ces conclusions ont été incluses dans les documents présentés à la Securities and Exchange Commission et fournis au Congrès sous forme expurgée.

Enfin, les documents indiquent que Facebook n'a pas retenu toutes les recommandations de son propre personnel qui demandaient les changements requis aux algorithmes pour empêcher leur rôle actif dans la promotion de la haine, la violence et le contenu raciste, misogyne et homophobe. Il « expérimente » plutôt avec ce qu'il appelle des « réseaux de désagrégation nuisibles », ce qui veut dire que c'est Facebook qui décide quels groupes ou organisations créent un « préjudice social », puis prive le groupe de nouveaux membres et minimise les connexions entre ses membres existants. Tout groupe ou organisation ainsi ciblé verrait son contenu « rétrogradé » dans les fils d'actualité, et les utilisateurs ne seraient pas notifiés de ses publications. Les documents montrent que Facebook a activement supprimé le « Mouvement du Parti patriotique » après le saccage du Capitole le 6 janvier et un groupe allemand appelé Querdenken. Il n'a pas été révélé si cette suppression est activement utilisée à l'heure actuelle contre d'autres groupes et organisations.


Cet article est paru dans

Volume 51 Numéro 13 - 7 novembre 2021

Lien de l'article:
https://cpcml.ca/francais/Lml2021/Articles/L510136.HTM


    

Site Web:  www.pccml.ca   Courriel:  redaction@cpcml.ca