À titre
d'information
Les algorithmes de Facebook encouragent la violence, la haine et les théories conspirationnistes
- Peggy Morton -
Le Wall Street Journal a publié une série d'articles portant le nom Facebook Files
sur la base de dizaines de milliers de pages de recherche interne
fournie par une ancienne employée de Facebook, Frances Haugen. Cette
dernière a ensuite témoigné devant un sous-comité du Sénat
américain.
L'information contenue dans les documents ainsi que l'expérience des
gens avec Facebook montrent que les algorithmes de Facebook servent à
promouvoir et à « amplifier » l'incitation à la violence, y compris la
violence communale, les contenus racistes, misogynes et homophobes ainsi
que la division
du peuple. Les algorithmes actuels sont secrets; on connaît leur
impact, mais pas exactement comment ils fonctionnent.
Facebook a introduit des nouveaux algorithmes en 2018 parce que l'«
engagement » était à la baisse, ce qui constituait une menace pour ses
profits. Les gens passaient moins de temps sur Facebook. C'est toujours
le cas et les nouveaux marchés de Facebook ne sont pas en Amérique du
Nord, l'Inde à
elle seule ayant 340 millions d'utilisateurs Facebook. Les nouveaux
algorithmes, selon Facebook, visaient à encourager l'« engagement »
entre amis et familles, etc., présentant Facebook comme une plateforme
où tous sont des « participants égaux ».
Les Facebook Files ont révélé des documents internes qui montrent que
Facebook était très conscient que les algorithmes servaient à «
amplifier les publications à sensation », y compris l'incitation à la
violence, le contenu raciste et misogyne, la promotion de la haine et de
l'autodépréciation,
etc. C'est ce qui ressort des Facebook Files et d'autres commentaires
comme tels, tandis que d'autres réseaux médiatiques ont publié d'autres
informations basées sur des documents censurés qui ont été présentés aux
audiences du comité du Sénat américain. La recherche interne de
Facebook en est
arrivée à la conclusion que les algorithmes ont eu un impact négatif sur
le discours public. Les propositions mises de l'avant par les groupes
Facebook créés à l'interne pour étudier la question ont été largement
ignorées parce que les mettre en oeuvre « réduirait l'engagement » et
aurait un impact
négatif sur la poursuite du profit maximum.
On laisse entendre que ce contenu qui est nuisible à la société est «
amplifié » parce que les gens y réagissent, commentent, partagent et «
aiment ». En fait, les algorithmes ont changé la façon dont les médias
des nouvelles fonctionnent, alors que ces médias se plaignent à Facebook
que les
articles de nouvelles ou d'actualité sur un sujet comme manger santé
n'avaient plus d'« amplitude ». Les partis politiques qui forment les
systèmes gouvernementaux de partis du cartel ont aussi reconnu que
Facebook avait changé sa façon d'encadrer ses plateformes.
L'« amplification » par Facebook de ce qu'il appelle des publications
à sensation, ainsi que le recours aux faux comptes et aux comptes
multiples à utilisateur unique (SUMA) pour publier du matériel que les
algorithmes préféreront, change complètement la donne en présentant un
faux portrait de ce
qui est « populaire ». Par exemple, un rapport indique que huit
personnes étaient à l'origine de la fausse information au sujet de la
COVID-19 et de ses impacts négatifs qui sont devenus « viraux » –
c'est-à-dire que les algorithmes de Facebook les ont rendues « virales
». Il ne s'agit pas de savoir
ce que les personnes utilisant leur propre nom et leur propre compte
disent et partagent en réalité. Les dirigeants, les experts et les
médias s'emparent ensuite de l'hystérie créée par les algorithmes pour
déclarer que « les gens » sont racistes, misogynes, extrémistes, etc.
Ce que les audiences sur Facebook ont aussi fait ressortir c'est que
les normes de la collectivité régissant les publications violentes et
tout ce que les intérêts secrets particuliers doivent retirer, ne
s'appliquent pas aux politiciens ayant des sièges à l'assemblée
législative ou des postes au
cabinet, aux « personnalités connues », au monde du spectacle, etc. Des
millions d'utilisateurs considérés comme des VIP ne sont pas forcés de
respecter les « normes de la collectivité ». Facebook a recours à un
programme appelé « Xcheck » qui en 2020 comprenait 5,8 millions de
personnes qui étaient
sur la « liste blanche » et dispensées de respecter les normes
habituelles. Elles peuvent publier ce qu'elles veulent impunément : soit
elles ne seront pas supprimées, soit elles ne le seront qu'avec
l'approbation des hauts dirigeants de Facebook, soit elles ne le seront
qu'après avoir eu le temps
de devenir viral.
Le fait que par le biais de faux comptes et de SUMA d'énormes
montants de contenu peuvent être publiés est aussi significatif. Les
algorithmes de Facebook permettent à un utilisateur unique ayant
plusieurs comptes Facebook de créer une importante circulation que les
algorithmes vont promouvoir.
Les chercheurs Facebook ont trouvé que les liens populaires auprès des «
grands utilisateurs » étaient associés de façon disproportionnée à de
la fausse information, et que le contenu viral penchait vers les
théories conspirationnistes, le discours haineux et les canulars.
Facebook prétend qu'il
retire régulièrement les faux comptes, bien que les chercheurs
d'entendent pour dire qu'il n'y a pas d'approche systématique. Les SUMA
ne vont pas à l'encontre de ses normes, et les comptes multiples sont
considérés comme une importante source de nouveaux comptes. Évidemment,
certains SUMA sont
légitimes, alors que quelqu'un peut avoir un compte strictement pour
communiquer avec sa famille et ses amis proches, et un autre pour
communiquer avec le public. Cependant, Facebook ne joue pas franc jeu
pour ce qui est de l'importance des faux comptes ou des SUMA dans son
bilan financier, ni du
lien qu'ils ont dans ce qu'il appelle « l'utilisation intensive » ni le
lien qu'il a trouvé avec la haine, la violence, la fausse information et
les théories conspirationnistes. Les chercheurs ont également mené des
dizaines d'expériences au cours desquelles ils ont découvert que plus la
vitesse et
la longueur d'une chaîne de partage augmentaient, plus il y avait de
chances que le contenu soit toxique.
Des chercheurs de Facebook ont créé un compte pour une personne
fictive qu'ils ont nommée Carol Smith. Son compte était l'un des autres «
utilisateurs » fictifs créés en 2019 et 2020 par les chercheurs qui
étudiaient l'effet des algorithmes introduits en 2018. Smith se
décrivait comme une mère politiquement conservatrice de Wilmington, en
Caroline du Nord, s'intéressant à la politique, à l'éducation des
enfants et au christianisme, et suivant Fox News et le président de
l'époque, Donald Trump. En deux jours seulement, Facebook recommandait à
Smith de rejoindre des groupes dédiés à QAnon. En l'espace d'une
semaine, son fil d'actualités était rempli de groupes et de pages qui
avaient violé les propres règles de Facebook, y compris celles contre
les discours de haine et la désinformation, a rapporté NBC News. Le
chercheur a décrit l'expérience de Smith sur Facebook comme « un barrage
de contenu extrême, conspirationniste et graphique ». Cette conclusion a
été répétée de manière cohérente avec d'autres comptes de personnes
fictives créés par les chercheurs. Ces conclusions ont été incluses dans
les documents présentés à la Securities and Exchange Commission et
fournis au Congrès sous forme expurgée.
Enfin, les documents indiquent que Facebook n'a pas retenu toutes les
recommandations de son propre personnel qui demandaient les changements
requis aux algorithmes pour empêcher leur rôle actif dans la promotion
de la haine, la violence et le contenu raciste, misogyne et homophobe.
Il «
expérimente » plutôt avec ce qu'il appelle des « réseaux de
désagrégation nuisibles », ce qui veut dire que c'est Facebook qui décide
quels groupes ou organisations créent un « préjudice social », puis
prive le groupe de nouveaux membres et minimise les connexions entre ses
membres existants. Tout
groupe ou organisation ainsi ciblé verrait son contenu « rétrogradé »
dans les fils d'actualité, et les utilisateurs ne seraient pas
notifiés de ses publications. Les documents montrent que Facebook a
activement supprimé le « Mouvement du Parti patriotique » après le
saccage du Capitole le 6
janvier et un groupe allemand appelé Querdenken. Il n'a pas été révélé
si cette suppression est activement utilisée à l'heure actuelle contre
d'autres groupes et organisations.
Cet article est paru dans
Volume 51 Numéro 13 - 7 novembre 2021
Lien de l'article:
https://cpcml.ca/francais/Lml2021/Articles/L510136.HTM
Site Web: www.pccml.ca
Courriel: redaction@cpcml.ca
|