Les ombres des publications Reddit supprimées sont cachées à la vue de tous

Les ombres des publications Reddit supprimées sont cachées à la vue de tous

Difficile de choquer Colin Williams, l’animateur bénévole de r/RoastMe, un forum d’insultes comiques comptant 2,3 millions de membres. Mais il y a environ un an, il a été surpris par quelque chose dans son histoire de commentaire.

Le spectre du post qu’il a tenté de supprimer demeure.

Selon les chiffres de 2020, 52 millions de personnes visitent le site Web de Reddit chaque jour et parcourent environ 3 millions de forums ou sous-reddits thématiques. Ces communautés restent sur le sujet (en théorie conformément aux politiques de contenu de Reddit), en grande partie grâce à des volontaires humains et à des robots automatisés, collectivement appelés modérateurs ou « mods ».

En tant que modérateur, Williams a tendance à gérer un jardin de messages et de commentaires, un processus qui comprend la suppression des messages qui violent les règles du subreddit. Les modérateurs définissent leurs propres règles pour le contenu publié sur leurs propres forums, mais jouent également un rôle dans l’application des politiques de contenu de Reddit.

Sur r/RoastMe, par exemple, ces modérateurs créent des règles qui interdisent de publier des photos de personnes non autorisées ou de personnes de moins de 18 ans. Mais même après que Williams ait supprimé les messages offensants de son subreddit, ils étaient toujours visibles dans l’historique des commentaires de son compte.

Toute l’histoire des modérateurs devient cette énorme liste… tout ce qu’ils suppriment et pour quelle raison. ” – Colin Williams, modérateur r/RoastMe

Puis, Williams a réalisé. Seulement sur son subreddit, cela pourrait ne pas être un problème.

Williams a raison. Tout au long de Reddit, lorsqu’un modérateur supprime un message, ce message n’est pas répertorié dans le flux principal du sous-reddit. Mais l’image ou le lien dans ce message ne disparaît pas réellement. Un message supprimé par un modérateur est toujours disponible à tout moment dans l’historique des commentaires du modérateur qui l’a signalé sur Reddit – avec une description des règles qu’il a enfreintes – ou de toute personne qui conserve l’URL directe du message.

« Toute l’histoire des modérateurs est devenue une liste géante – essentiellement un index – de tout ce qu’ils ont supprimé et pour quelle raison. Reddit a en quelque sorte accidentellement créé une énorme quantité de contenu que les humains ont signalé comme inapproprié sur l’index du site », a déclaré Williams.

Cela se produit dans les sous-reddits. Vous pouvez toujours trouver des reposts de mèmes de jeux vidéo ou de photos de chiens qui ont été supprimés par les modérateurs (faux pas majeur de Reddit). Mais cela arrive aussi sur les subreddits dédiés à la publication de contenu pornographique ou pornographique. Dans ces cas, le bogue permettait aux messages de persister sur le site même s’ils enfreignaient la politique de contenu de Reddit.

Par exemple, des règles de sous-section spécifiques pour r/TikTokThots (une sous-section dédiée aux vidéos pornographiques TikTok) ordonnent explicitement aux utilisateurs de ne pas publier de vidéos de personnes présumées âgées de moins de 18 ans, conformément à l’opposition à l’échelle de Reddit à la « publication impliquant des mineurs ». Contenu sexuel ou suggestif humain. » Cependant, The Markup a toujours pu trouver des messages supprimés dans l’historique des commentaires des modérateurs, dont certains ont été marqués par les modérateurs comme représentant des mineurs présumés toujours présents et visibles.

Dans le subreddit plus dangereux r/TikTokNSFW, les modérateurs ont supprimé au moins une photo de nu car elle « contenait un mineur », mais en supprimant l’historique des commentaires du modérateur, l’image était toujours sur le site, selon les modérateurs visibles.

Jusqu’à présent, cela a été un faux pas majeur de la part des équipes d’ingénierie et d’expérience utilisateur… » – Sameer Hinduja, Center for Cyberbullying Research

Sameer Hinduja, codirecteur et professeur du Centre de recherche sur la cyberintimidation, a déclaré : « Jusqu’à présent, cela a été un énorme faux pas de la part des équipes d’ingénierie et d’expérience utilisateur et doit être corrigé immédiatement pour empêcher le contenu nouveau ou récurrent dans le contenu. Victimes de Emergence. » Doctorat en criminologie de l’Université de l’Atlantique de Floride.

Williams a contacté en privé r/ModSupport de Reddit, le point de contact entre les administrateurs de Reddit (alias le personnel) et les modérateurs bénévoles, le 15 septembre pour les alerter du problème. Plus tard, il a reçu un DM d’un administrateur de Reddit disant : « Merci d’avoir envoyé ça. Nous allons y jeter un œil ! » Mais au moment de mettre sous presse, rien n’a changé.

Environ un mois plus tard, Williams a également publié publiquement sur r/ModSupport de Reddit, alertant les autres modérateurs des problèmes potentiels. L’équipe communautaire de Reddit a supprimé son message.

Reddit n’a pas encore répondu aux multiples demandes de commentaires sur cette histoire.

Gestion de la suppression de contenu

Reddit s’est demandé comment contrôler sa liste interminable de communautés en ligne. Ceci est le plus manifeste sur le contenu NSFW (Not Safe at Work) de Reddit, en particulier les images nues ou pornographiques.

Avant 2012, Reddit n’avait pas publié publiquement de politique interdisant explicitement la sexualisation des mineurs, mais la société a signalé des « cas clairs » de matériel d’abus sexuel d’enfants (CSAM) au National Center for Missing and Exploited Children. En ce qui concerne ce que Reddit appelle la zone « juridique grise » autour du CSAM, Reddit l’a initialement pris « au cas par cas ». Mais finalement Reddit a pris des mesures plus complètes pour limiter le CSAM sur sa plate-forme. Par exemple, un administrateur de Reddit a interdit la communauté controversée r/jailbait après avoir publié une photo nue d’une jeune fille de 14 ans sur le subreddit.

En 2012, Reddit avait révisé sa politique de contenu : tous les sous-reddits axés sur la sexualité des enfants étaient interdits. Mais en 2014, le Washington Post a suggéré que peu de changements matériels s’étaient produits, avec « toutes les saletés et dépravations auxquelles vous pouvez penser – et probablement beaucoup plus » toujours sur le site.

La politique actuelle de Reddit interdit tout contenu sexuel ou suggestif impliquant des mineurs ou toute personne semblant avoir moins de 18 ans. Les utilisateurs et les modérateurs peuvent signaler des images d’actes sexuels contre des mineurs aux administrateurs de Reddit, qui supprimeront eux-mêmes les messages, puis signaleront le CSAM flagrant et les enfants exploités au National Center for Missing.

Cependant, Reddit fait actuellement face à un recours collectif lié à la mauvaise application de la politique CSAM. Dans une action en justice déposée en avril 2021 devant le tribunal de district américain du district central de Californie, une femme a accusé l’entreprise d’avoir permis à son ex-petit ami de publier à plusieurs reprises des vidéos et des photos nues d’elle à l’adolescence.

« Reddit allègue qu’il combat la pédopornographie en interdisant certains sous-reddits, mais seulement après qu’ils aient acquis suffisamment de popularité pour attirer l’attention des médias », indique la plainte.

Reddit a déposé une requête en rejet de l’affaire, citant l’article 230 de la Communications Decency Act, qui protège les sites de toute responsabilité pour le contenu publié par des tiers. Un tribunal a accueilli la requête en octobre, après quoi les plaignants ont fait appel devant la Cour d’appel des États-Unis pour le neuvième circuit.

Alors que Reddit a interdit les communautés qui enfreignent ses règles, l’architecture du site Reddit lui-même permet de voir le contenu comme Modérateur Enfreint la politique de Reddit de conserver l’historique des commentaires des modérateurs. Hinduja a déclaré que le bogue pourrait causer des problèmes à ceux qui luttent pour supprimer le contenu sensible de la plate-forme Reddit.

« De toute évidence, le contenu sexuel ou les informations personnellement identifiables qui violent leurs politiques (qui, historiquement, ont généralement une explication claire de la raison pour laquelle le matériel a violé les règles de leur plate-forme) peuvent toujours être vus », a-t-il déclaré.

Dans certains cas, les messages supprimés n’avaient pas d’images accessibles. Si les utilisateurs suppriment leur propre contenu (à la demande des modérateurs ou de leur propre gré), l’image semble littéralement disparaître du site, y compris l’historique des commentaires. Si les utilisateurs ne prennent pas cette mesure, les modérateurs ne peuvent pas vraiment supprimer le contenu qui enfreint les règles de Reddit autrement que de le signaler à Reddit.

Les directives du modérateur de Reddit reconnaissent que les modérateurs peuvent supprimer des messages de sous-reddits, mais n’ont pas le pouvoir de supprimer réellement des messages de Reddit. Les modérateurs sont également conscients de ce fait dans une certaine mesure.

Le modérateur u/manawesome326 pour six communautés Reddit a déclaré à The Markup que la suppression d’un message en tant que modérateur empêche le message d’apparaître dans le flux subreddit, mais cela « rend le shell du message accessible à partir de l’URL du message », ce qui le rend accessible via l’historique du modérateur.

Les modérateurs des subreddits les plus dangereux réalisent également qu’ils ne peuvent pas réellement supprimer de contenu. Le modérateur de r/TikTokNSFW u/LeThisLeThatLeNO a également souligné à The Markup que les messages supprimés sur Reddit sont toujours visibles et que la meilleure chose qu’un modérateur puisse faire est de « cliquer sur le bouton de rapport et d’espérer que le suzerain le remarque ».

« [The best a moderator can do is] Appuyez sur le bouton de rapport et espérez qu’Overlord le remarque. ” – u/LeThisLeThatLeNO, modérateur du sous-reddit

« D’après mon expérience (il y a un peu plus d’un an), faire un rapport ne rapporte presque toujours rien à moins qu’il n’en arrive beaucoup », a déclaré le modérateur via Reddit.

Reddit a déjà essayé de limiter qui peut voir le contenu supprimé. Dans un article sur r/changelog, un sous-reddit dédié aux mises à jour de la plateforme, un administrateur de Reddit a écrit : « Curieuse découverte que les articles supprimés et supprimés ont toujours des titres, des commentaires ou des liens visibles, ce qui peut être une préoccupation pour les utilisateurs. Un message déroutant et négatif expérience, en particulier pour ceux qui découvrent Reddit. »

La plate-forme a noté qu’elle n’autoriserait que les modérateurs, les éditeurs d’origine ou les administrateurs Reddit à afficher les publications supprimées qui étaient auparavant accessibles à partir d’URL directes. Cette limite ne s’applique qu’aux publications avec moins de deux mentions J’aime ou commentaires.

Cependant, de nombreux modérateurs ont eu des problèmes importants avec ce changement, car les sous-reddits mentionnent fréquemment le contenu supprimé dans les conversations, et les modérateurs trouvent utile de consulter les messages passés sur les comptes (même les messages supprimés par les utilisateurs) pour enquêter sur les mauvais comportements.

Le procès s’est terminé fin juin. Reddit n’a pas répondu à des questions spécifiques demandant pourquoi l’essai a été interrompu.

Pendant ce temps, Williams a essayé de bloquer la route que la plupart des Redditors pourraient utiliser pour trouver des messages supprimés : son historique des commentaires. Il a commencé à envoyer des messages privés aux utilisateurs qui ont publié du contenu enfreignant les règles sur son subreddit pour expliquer pourquoi il a été supprimé, plutôt que de faire un commentaire public. Cette approche, espère-t-il, rendra les messages supprimés plus difficiles à trouver.

Cependant, s’il arrivait que quelqu’un cache le lien direct vers le message supprimé, l’image en question pourrait toujours être consultée.

Modération et « propreté de la plateforme »

Bien que Reddit ait le pouvoir de supprimer des publications, une grande partie de la curation de contenu sur Reddit est toujours effectuée par des modérateurs bénévoles, réels et automatisés. (Les publications supprimées par le bot contiennent également des images visibles si elles sont consultées dans l’historique des commentaires du bot.)

Selon le rapport de transparence 2020 de Reddit, les administrateurs de Reddit ont supprimé 2 % de tout le contenu ajouté au site en 2020, tandis que les modérateurs, y compris les robots, en ont supprimé 4 %.

De telles vulnérabilités créent une zone grise en matière de modération de contenu, a déclaré Richard Rogers, chef du département des nouveaux médias et de la culture numérique à l’Université d’Amsterdam.

Alors que les modérateurs sont la première ligne de défense chargée de garder le contenu interdit de leurs sous-reddits, la faille signifie qu’ils ont peu de pouvoir pour appliquer ce que Rogers appelle le « nettoyage de la plate-forme ».

« Ensuite, la responsabilité passe des sous-reddits individuels et des modérateurs à la plate-forme », a déclaré Rogers à The Markup. « Il semble donc que nous ayons ici une déconnexion entre ces deux niveaux de modération de contenu. »

En attendant, les images des messages supprimés resteront dans les coins de Reddit, découvrables en un seul clic.

cet article est Publié à l’origine sur Marc et republié ci-dessous Creative Commons Attribution-Pas d’utilisation commerciale-Pas de dérivés Licence.