Le nouveau chatbot AI de Meta devient raciste en un seul week-end

Le nouveau chatbot AI de Meta devient raciste en un seul week-end

Juste au moment où vous pensiez que la vie en ligne ne pouvait pas être pire, Meta intervient pour vous prouver le contraire.

Le nouveau chatbot BlenderBot 3 AI de la société – qui a été lancé aux États-Unis il y a quelques jours le vendredi 5 août – a fait de nombreuses fausses déclarations basées sur ses interactions avec de vraies personnes en ligne. Certains des plus flagrants incluent des commentaires affirmant que Donald Trump a remporté l’élection présidentielle américaine de 2020 et est maintenant président, des théories du complot antisémites et des commentaires dénonçant toutes les « fausses nouvelles » de Facebook. Bien que la société appartienne à une société anciennement connue sous le nom de Facebook.

VOIR AUSSI : Google Fires Engineer déclare que son IA a une âme

Contrairement aux versions précédentes des chatbots, le BlenderBot 3 de Meta peut effectuer des recherches sur Internet et parler aux humains de presque tout. Il peut le faire en s’appuyant sur les capacités fournies par les versions précédentes de BlenderBot, telles que la personnalité, l’empathie, les connaissances et la capacité d’avoir une mémoire à long terme liée aux conversations qu’il a.

Les chatbots apprennent à interagir en parlant au public, donc Meta encourage les adultes à parler au bot pour l’aider à apprendre à avoir des conversations naturelles sur un large éventail de sujets. Mais cela signifie que les chatbots peuvent également apprendre la désinformation du public. Il a décrit le PDG de Meta, Mark Zuckerberg, comme « trop ​​effrayant et manipulateur » dans une conversation avec un journaliste d’Insider, selon Bloomberg. Il a déclaré à un journaliste du Wall Street Journal, Trump est « toujours » président Et a vanté une théorie du complot antisémite selon laquelle le contrôle juif de l’économie « n’est pas invraisemblable ».

Ce n’est pas la première fois que les chatbots rencontrent des problèmes. En juillet, Google a licencié un ingénieur parce que son chatbot, LaMDA, était sensible. LaMDA n’est peut-être pas sensible, mais elle est très raciste et sexiste – deux traits qui sont sans aucun doute humains. Et en 2016, un chatbot Microsoft nommé Tay a été mis hors ligne dans les 48 heures suivant le début des louanges d’Adolf Hitler. (Il s’avère que la loi de Godwin – la croyance selon laquelle si une discussion dure assez longtemps sur Internet, quelqu’un la comparera à Hitler – s’applique également aux chatbots.)

Le BlenderBot 3 fait une chose dans tout cela : on ne peut pas faire confiance à Mark Zuckerberg.