L’algorithme de recommandation de TikTok envoie les utilisateurs dans un trou de lapin d’extrême droite
Canon. Parti patriote, jureurs. trois pourcentages. Les vidéos faisant la promotion de ces mouvements d’extrême droite sont interdites sur TikTok. Cependant, l’algorithme de recommandation de l’application virale a généré des comptes qui font la promotion de ces groupes et mouvements.
Selon un nouveau rapport du groupe de surveillance des médias Media Matters for America, l’algorithme de recommandation d’utilisateurs de TikTok pousse ses utilisateurs vers des comptes avec des vues d’extrême droite qui sont considérées comme interdites sur la plate-forme.
TikTok continue de promouvoir le contenu des comptes QAnon, Patriot Party, Oath Keepers et Three Percenters sur la page « Pour vous » de la plateforme, selon le rapport. La page For You est l’endroit où l’algorithme de TikTok envoie le contenu qu’il pense que chaque utilisateur particulier souhaite.
De plus, après avoir recommandé ce contenu d’extrême droite à un utilisateur, l’algorithme de TikTok « fournit de plus en plus » à l’utilisateur l’attention d’autres comptes TikTok d’extrême droite. Ce comportement des algorithmes des médias sociaux conduit souvent les utilisateurs dans un « trou de lapin » de contenu de plus en plus à droite et extrémiste.
Les problèmes trouvés par Media Matters sont si répandus que le groupe a pu identifier six modèles spécifiques différents dans lesquels TikTok dirige les utilisateurs vers des comptes liés à ces groupes – le mouvement complotiste QAnon, le Patriot Party d’extrême droite et Militia: Oath Keeper et trois pourcentage. Les quatre groupes ont joué un rôle dans l’attaque du 6 janvier contre le Capitole des États-Unis dans le but de perturber l’éventuel processus du Congrès pour assurer la victoire (sans aucun doute légitime) du président Joe Biden aux élections de 2020. Cinq personnes ont été tuées dans les émeutes à Washington, D.C. ce jour-là.
Ce n’est pas non plus la première fois que la radicalisation via TikTok est repérée. Un autre rapport récent a révélé que le contenu d’extrême droite est si répandu sur l’application qu’une communauté entière d’influenceurs d’extrême droite s’y est développée.
L’algorithme de recommandation des utilisateurs de TikTok suggère les comptes que les utilisateurs doivent suivre en fonction de ceux qu’ils suivent déjà et de ce qu’ils regardent sur la plateforme. De nombreuses autres plateformes de médias sociaux, telles que YouTube et Facebook, ont des algorithmes de recommandation similaires et souffrent des mêmes types de problèmes.
VOIR AUSSI : TikTok imposera bientôt des publicités personnalisées à ses utilisateurs
Comme de nombreuses plateformes sociales, TikTok a lutté contre le contenu problématique d’extrême droite et la désinformation. La société a pris plusieurs mesures au début de 2020 pour faire face à l’assaut des mensonges sur la pandémie de COVID-19. TikTok tente également de contrer l’extrémisme croissant sur sa plateforme. Par exemple, la société a interdit le contenu lié à la théorie du complot d’extrême droite QAnon.
Le fait qu’il s’agisse de TikTok rend cette affaire particulièrement inquiétante. L’algorithme de recommandation de l’application est largement considéré comme « l’arme secrète » de la plateforme. TikTok est connu pour fournir aux utilisateurs des recommandations très ciblées. L’algorithme est très bon pour trouver exactement ce qui, selon lui, incitera un utilisateur à regarder une vidéo sur l’application, même si l’utilisateur ne sait pas ce qu’il veut.
Mashable a contacté TikTok et mettra à jour ce message lorsque nous vous répondrons.
Mise à jour : 29 mars 2021 09 h 14 HE TikTok a fourni la déclaration suivante dans l’e-mail de Mashable :
« TikTok travaille activement pour arrêter la propagation de la désinformation et de la violence, et nous interdisons la promotion de QAnon et des groupes extrémistes, y compris 3 Percenters, Patriot Party et Oath Keepers. Nous redirigeons également les recherches et les hashtags pertinents vers nos directives communautaires pour activer ces contenus. C’est plus difficile de poster pour trouver. »
De plus, les comptes mentionnés dans le rapport Media Matters ont été supprimés de la plateforme.