Intelligence artificielle

Pourquoi votre IA peut-elle être raciste et que faire?

Pourquoi votre IA peut-elle être raciste et que faire?


Des corrélations individuellement raisonnables peuvent amener un IA à acquérir un préjugé racial

Même des systèmes d'intelligence artificielle bien conçus peuvent toujours être biaisés.

Ce biais peut amener l'IA à faire preuve de racisme, de sexisme ou d'autres types de discrimination. Tout à fait par accident.

Ceci est généralement considéré comme un problème politique et ignoré par les scientifiques. Le résultat est que seules des personnes non techniques écrivent sur le sujet.

Ces personnes proposent souvent des recommandations politiques pour augmenter la diversité parmi les chercheurs en intelligence artificielle.

L'ironie est renversante: un chercheur noir en IA ne construira pas une IA différente de celle d'un chercheur blanc en IA. Cela rend ces recommandations politiques racistes elles-mêmes. Il est toujours judicieux d’accroître la diversité parmi les chercheurs en intelligence artificielle pour d’autres raisons, mais cela ne contribuera certainement pas à rendre le système d’IA moins raciste.

Le racisme chez les humains est un problème social, mais le racisme dans une intelligence artificielle est un problème technique.

Le racisme dans une IA doit être traité comme tout autre type de problème d'ingénierie. Faire de la politique risque de se retourner contre vous et peut causer plus de tort que de bien.

La bonne nouvelle:

Un AI n'a pas d'agenda politique propre. Ce ne sera délibérément raciste que si elle a été formée pour le devenir.

Les mauvaises nouvelles:

Il est très facile de former une IA au racisme par accident.

Dans cet article, je vais expliquer comment des préjugés raciaux peuvent apparaître dans l’IA. Je discuterai également de différentes manières de traiter ce problème sur le plan technique.

(D'ailleurs, les mêmes arguments s'appliquent également aux préjugés à l'égard des femmes ou à d'autres types de discrimination.)

1. Données biaisées

Il est possible de fausser l'IA en l'entraînant sur des données biaisées. Cela peut facilement arriver par accident, à moins que vous ne soyez très prudent.

Prenons, par exemple, cet article sur une IA qui a été formée sur des données publiques. L'intelligence artificielle s'est retrouvée avec un parti pris racial car ses données d'entraînement étaient basées sur Internet: https://www.theregister.co.uk/2019/09/05/ai_racist_sexist/

Comme nous le savons tous, Internet n’est pas le meilleur endroit. Une IA formée à ce sujet adoptera ses idées préconçues et se révélera horrible. C’est un principe général de formation d’une IA: garbage in, garbage out.

Il est également possible d’utiliser des données raisonnables sans parti pris racial et de se retrouver malgré tout avec une intelligence artificielle biaisée:

L'ensemble de données doit avoir une quantité représentative de données de chaque groupe racial. C’est parce que l’intelligence artificielle déploie beaucoup d’efforts pour apprendre à connaître une course qui est proportionnelle à sa fréquence dans le jeu de données. Reconnaissance faciale Les IA ont tendance à mieux fonctionner chez les Blancs que toute autre race. Les bases de données de formation asymétriques en sont une partie.

Si vous êtes consciencieux, il n'est pas trop difficile de résoudre ce problème. Souvent, vous pouvez choisir votre jeu de données avec plus de diligence, de sorte qu'il contienne moins de biais et offre une distribution plus représentative des races.

Lorsque cela n’est pas possible, vous pouvez au moins annoter vos données avec des variables indicatrices indiquant leur source. De cette manière, vous pouvez apprendre à l'IA à modéliser explicitement les biais dans les données d'apprentissage. Après cela, choisissez la source de données la plus raciste. Dites à l'IA de désapprendre tout ce qui différencie ces données des autres. Cela revient à montrer du doigt les personnes les plus racistes et à ordonner à l'IA de ne pas les imiter. Ce n’est pas une solution parfaite, mais c’est mieux que rien.

Notez que des problèmes peuvent également survenir même si le processus de formation est impartial. Il est possible qu’un algorithme d’IA particulier soit objectivement moins capable de certaines tâches que d’autres.

Par exemple, une voiture autonome a plus de difficulté à détecter les Noirs la nuit que les Blancs, car leur peau est plus difficile à voir dans le noir. Ce n'est pas raciste, juste malheureux. C’est évidemment toujours un problème. Pour résoudre ce problème, vous devez vous assurer de déployer tous les efforts nécessaires pour enseigner à l'IA comment résoudre ces tâches plus difficiles.

Une fois que les données de formation sont correctes et impartiales, nous devons encore résoudre un problème dans l'IA elle-même. Peu importe que vous utilisiez un réseau de neurones ici ou autre chose. Pratiquement toutes les formes d'IA populaires en souffrent:

Le problème principal que nous avons est que l'IA n'a aucune idée de ce que ses entrées signifient en réalité.

L'intelligence artificielle reçoit simplement des chiffres en entrée, sans comprendre leurs implications réelles. Elle doit apprendre cette causalité seule, mais elle ne peut que faire des suppositions et se révélera souvent fausse.

Par exemple, supposons que nous entraînions une IA à accepter ou à rejeter des candidatures. Un quartier de la ville est un ghetto infesté de crimes. Tous les candidats précédents de la région étaient mauvais. L’IA a "appris" que venant de cette région signifie que vous êtes un candidat terrible. Amnesty International reçoit à présent une nouvelle candidature: une jeune femme noire, lauréate du prix Nobel. Cette femme a vraiment de la malchance: l’intelligence artificielle n’a aucune idée de ce qu’est un «prix Nobel» car elle n’en a jamais rencontré dans une candidature auparavant. On remarque juste qu'elle vient du même quartier où tout le monde avant elle était terrible. Donc, l'IA rejette l'application immédiatement.

Ça s'empire:

De nombreux algorithmes d'apprentissage machine ne sont pas explicables. Cela signifie qu’il n’est pas possible de demander à un IA d’expliquer les raisons de ses décisions.

Certains algorithmes peuvent être expliqués, comme les arbres de décision. Vous penseriez que détecter le racisme avec des algorithmes explicables est facile. Ce n'est que partiellement vrai.

Dans un algorithme explicable, vous pouvez vérifier directement si la «course» est utilisée pour prendre une décision. Cependant, cela ne vous permet pas de remarquer des corrélations indirectes. L’IA a peut-être «appris» que grandir dans un quartier donné en fait un mauvais candidat. Un quartier qui se trouve être principalement noir. Il faut s’efforcer de détecter ces corrélations et d’en tenir compte.

Donc, pour prévenir les préjugés raciaux, nous devons trouver un moyen de détecter des corrélations parasites. Mais nous ne pouvons pas simplement vérifier les effets de la race sur les données directement. Cela ne suffirait pas, car nous ne pouvons exclure les corrélations indirectes qui conduisent toujours à un préjugé racial.

Pire encore: nous avons parfois faire obtenir de véritables corrélations entre race et autres attributs. Disons par exemple que nous construisons un système de diagnostic médical. Nous voulons que l'IA sache que certaines maladies apparaissent plus fréquemment dans différentes races. Si nous éliminons aveuglément toutes les corrélations raciales dans un système de diagnostic médical, beaucoup de personnes pourraient être tuées.

Alors, que pouvons-nous faire pour résoudre ce problème?

Je ne peux pas vous donner de réponse définitive, car il s’agit d’un problème extrêmement complexe comportant de nombreux cas particuliers. L’approche suivante pourrait servir de base, mais elle n’est en aucun cas parfaite:

Tout d’abord, assurez-vous que vous utilisez explicitement race comme entrée de votre IA. Cela va à l'encontre de ce que vous entendez normalement dans les conférences sur le politiquement correct. Contrairement à un être humain, l'IA ne présente pas de biais implicite, pas plus qu'elle n'adopte de préjugés de la part de son créateur. Cela signifie que l'ajout de la race à une fonctionnalité facilite le test des corrélations accidentelles et n'a aucun effet négatif.

Créer un réseau génératif d'adversaire (GAN). Formez le GAN pour créer de fausses données d'entraînement.

Cela évite les corrélations accidentelles dans les données: un faux créé par le GAN sera créé de manière à ce que l’intelligence artificielle ne puisse pas faire la différence. Cela ne garantit pas que l'IA n'apprendra pas de corrélations parasites. Cette tâche est impossible. Cela garantira toutefois que l'IA ne pourra pas contourner son propre mécanisme antiraciste à un stade ultérieur.

Maintenant vient la partie la plus délicate: Choisissez certaines caractéristiques des données d’entraînement qui, selon vous, ne devraient pas influencer la prédiction. Pour toute personne figurant dans les données d’entraînement, vous pouvez désormais demander au GAN de générer une personne «équivalente» d’une race différente. Lorsque vous générez ces personnes factices, vous ne devez modifier que les fonctions sécurisées sélectionnées. Cela garantit que la personne fictive est réaliste, mais ne possède pas de caractéristiques étranges qui jetteraient la prédiction.

Vous avez maintenant la possibilité de créer de fausses données pour réduire les biais dans votre jeu de données. Étant donné que ces contrefaçons ne diffèrent que par des caractéristiques sans rapport avec la tâche, cela n'aura aucun effet négatif.

Notez que cela ne fonctionne que si vous avez fait le bon choix pour les fonctionnalités susceptibles d'être modifiées.

Il est également possible que le GAN ne soit pas en mesure de créer de bons faux en utilisant uniquement les fonctionnalités non pertinentes. Si cela se produit, les données contiennent probablement beaucoup de corrélations raciales authentiques.

Une fois que vous avez fini d’entraîner le GAN, la partie prédictive commence:

Construisez votre système d'IA principal, celui qui devrait faire une prédiction, au-dessus du réseau discriminateur du GAN existant. Cela garantit que le réseau de prédicteurs utilisera uniquement des fonctions dérivées dont on sait qu'elles ne peuvent pas contenir de biais raciaux.

Maintenant, entraînez le nouveau système avec toutes vos données.

Pendant la formation, vous pouvez explicitement tester le racisme. Pour une personne donnée, vous pouvez créer une personne équivalente d'une autre race et tester si la prédiction est différente pour cette personne. En donnant des commentaires négatifs sur chacun de ces cas, vous pouvez punir directement le racisme dans l'IA.

Vous avez maintenant un réseau de neurones formé qui fait ce que vous voulez, et il est très peu probable qu'il y ait un préjugé racial.

Avertissement

Vous ne devriez pas simplement appliquer aveuglément ceci de la manière que je viens de décrire. En fonction de votre cas d'utilisation, il pourrait y avoir beaucoup des effets secondaires. Cela ajoute beaucoup de complexité et d'interactions multiples, ce qui pourrait se retourner de différentes manières. Il ne s'agit en réalité que d'une description générale de la manière dont le problème de l'IA raciste pourrait être traité en théorie. Ce n’est pas prêt pour la mise en œuvre.

Si quelqu'un a une idée pour une meilleure approche, je serais heureux d'en entendre parler dans les commentaires.

Notez également que cela ajoute beaucoup de frais généraux à la formation de modèle. Cela pourrait réduire les performances de l'IA en tant qu'effet secondaire.

Vaut-il la peine d'avoir une IA moins raciste, si l'IA est aussi plus bête et fait plus d'erreurs? Et si l'IA prend des décisions de vie ou de mort? Comment pouvez-vous même quantifier ce qui compte comme un compromis valable ici? C’est une question politique que je ne touche pas avec un poteau.

Votre article à retenir de cet article devrait être:

2. Empêcher cela est très difficile.

3. C'est un problème d'ingénierie, pas un problème social.

Afficher plus

SupportIvy

SupportIvy.com : Un lieu pour partager le savoir et mieux comprendre le monde. Meilleure plate-forme de support gratuit pour vous, Documentation &Tutoriels par les experts.

Articles similaires

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Bouton retour en haut de la page
Fermer