Intelligence artificielle

Il n'y a rien de tel que «A.I. éthique».

Il n'y a rien de tel que «A.I. éthique».


Les technologues croient aux défis éthiques de l'A.I. peut être résolu avec du code, mais les défis sont beaucoup plus complexes

Image: Apisit Sorin / EyeEm / Getty Images

- Il n'y a rien de tel que «A.I. éthique».UNEL'intelligence artificielle doit traiter tout le monde équitablement, responsabiliser tout le monde, fonctionner de manière fiable et sûre, être compréhensible, sécurisée et respecter la vie privée, et avoir une responsabilité algorithmique. Il doit être aligné sur les valeurs humaines existantes, être explicable, être juste et respecter les droits des données des utilisateurs. Il doit être utilisé à des fins socialement bénéfiques et rester toujours sous contrôle humain significatif. C'est compris? Bien.

Ce sont quelques-unes des rubriques de haut niveau sous lesquelles Microsoft, IBM et Google, détenues par DeepMind, énoncent respectivement leurs principes éthiques pour le développement et le déploiement de A.I. Ils sont aussi, à peu près par définition, une bonne chose. Tout ce qui insiste sur les lourdes répercussions de la technologie dans le monde réel - et les responsabilités de ses créateurs à leur égard - est certainement bienvenu à une époque où les systèmes automatisés sont impliqués dans toutes les facettes de l'existence humaine.

Et pourtant, en ce qui concerne la manière dont A.I. les codes d’éthique sont discutés, une tendance inquiétante est à l’œuvre alors même que le monde prend conscience de l’importance du domaine. C'est la conviction que A.I. les codes sont des recettes pour automatiser l'éthique elle-même; et qu'une fois qu'un large consensus autour de ces codes aura été atteint, le problème de la détermination d'une direction future éthiquement positive pour le code informatique aura commencé à être résolu.

Quel est le problème avec cette vue? Pour citer un article dans Nature Machine Intelligence à partir de septembre 2019, alors qu'il y a «une convergence mondiale émergeant autour de cinq principes éthiques (transparence, justice et équité, non-malfaisance, responsabilité et vie privée)», ce que ces principes signifient précisément est une tout autre affaire. Il reste «une divergence substantielle quant à la façon dont ces principes sont interprétés, pourquoi ils sont jugés importants, à quel problème, domaine ou acteurs auxquels ils appartiennent et comment ils doivent être mis en œuvre». En d'autres termes, les codes d'éthique sont beaucoup moins similaires code informatique que leurs créateurs pourraient souhaiter. Ce ne sont pas tant des ensembles d'instructions que des aspirations, formulées en des termes qui suscitent plus de questions qu'elles n'en répondent.

Ce problème ne va pas disparaître, en grande partie parce qu’il n’existe pas un seul ensemble de principes éthiques qui puisse être rationnellement justifié de manière à ce que tout être rationnel accepte. Selon vos priorités, vos opinions éthiques seront inévitablement incompatibles avec celles de certaines autres personnes d'une manière qu'aucun raisonnement ne résoudra. Les croyants dans un État central fort trouveront peu de terrain d'entente avec les libertaires; les partisans d'une redistribution radicale ne seront jamais d'accord avec les défenseurs de la propriété privée; les relativistes ne persuaderont pas soudainement les fondamentalistes religieux qu’ils sont stupides. Qui peut alors dire à quoi ressemble un équilibre optimal entre la confidentialité et la sécurité - ou que signifie un objectif socialement bénéfique? Et si nous ne pouvons pas nous mettre d’accord sur ce point entre nous, comment pouvons-nous apprendre à une machine à incarner des valeurs «humaines»?

De leurs différentes manières, la plupart des A.I. les codes éthiques le reconnaissent. DeepMind met le problème à l'avant-plan, déclarant que «la collaboration, la diversité des idées et un engagement public significatif sont essentiels si nous voulons développer et appliquer l'IA. pour un maximum d'avantages »et que« différents groupes de personnes détiennent des valeurs différentes, ce qui signifie qu'il est difficile de s'entendre sur des principes universels. »C'est franchement louable, dans la mesure où il va. Mais je dirais qu'il manque quelque chose à cette approche qui doit être explicite avant que le débat puisse aller où il doit aller - dans une zone, pas par coïncidence, inconfortable pour de nombreux géants de la technologie.

C'est le fait qu'il n'y a rien de tel que l'IA éthique, pas plus qu'il n'y a un seul ensemble d'instructions expliquant comment être bon - et que notre focalisation actuelle fascinée sur «l'intérieur» des processus automatisés ne fait que nous éloigner davantage de la Contextes humains contestés dans lesquels existent des valeurs et des conséquences. Comme le dit l'auteur et technologue David Weinberger dans son récent livre, Chaos au quotidien: technologie, complexité et comment nous prospérons dans un nouveau monde de possibilités, «Insistant pour que A.I. que les systèmes soient explicables sonne bien, mais cela nous distrait de la question plus difficile et beaucoup plus importante: que voulons-nous exactement de ces systèmes? »En ce qui concerne la technologie, les responsabilités et les intentions se trouvent également en dehors du système lui-même.

Au mieux, alors, un code éthique décrit des débats qui doivent commencer et se terminer ailleurs, sur ce qu'une société devrait valoriser, défendre et croire. Et dès qu'un code commence à être traité comme une recette de machines intrinsèquement éthiques - comme une solution à un problème connu, plutôt qu'à une tentative de diagnostic - cela risque de devenir au mieux une erreur de catégorie, et au pire un acte coupable de distraction et d'évasion.

En effet, l'un des défauts éthiques actuels les plus évidents et les plus urgents actuels est une sur-réclamation et une mystification persistantes des capacités de la technologie - une forme de pensée magique suggérant que les valeurs et les objectifs de ceux qui créent de nouvelles technologies ne devraient pas être soumis à un examen minutieux termes. L'économie des concerts, le cloud humain, l'économie du partage - le monde de la grande technologie est inondé de termes connotant une combinaison de nouveauté et d'inévitabilité qui n'échappe à aucune dissidence. Des expressions comme «emploi temporaire précaire», «main-d'œuvre externalisée bon marché» et «locations en ligne largement non réglementées» pour ce qui précède et différentes possibilités d'engagement éthique commencent à devenir claires.

N'oublions pas, nous savons déjà ce que bon nombre des systèmes automatisés les plus puissants du monde veulent, dans le sens des fins vers lesquelles ils sont dirigés: l'amélioration de la valeur actionnariale pour des entreprises comme Google, Amazon et Facebook, et l'autonomisation des totalitaires technocratiques. des États comme la Chine. Toute discussion significative sur ces systèmes exige une attention lucide aux objectifs qu'ils poursuivent et aux conséquences vécues de ceux-ci. En d'autres termes, le défi est avant tout politique et social et non technologique.

Comme l’a expliqué l’auteur Evgeny Morozov dans une récente Gardien article explorant les fausses nouvelles (une autre tournure de phrase qui cache autant qu'elle révèle), toute discussion sur la technologie qui n'interagit pas explicitement avec son économie politique - avec les circonstances économiques, politiques et sociales de sa fabrication et de sa maintenance - en est une explicitement dénué des questions les plus importantes.

"Quoi," demande Morozov, "qui anime et façonne toute cette technologie autour de nous?" Si nous ne pouvons pas ouvrir de telles questions pour un débat démocratique, alors nous risquons de transformer la "technologie" en un peu plus qu'un "euphémisme pour une classe d'êtres humains des technologues et des scientifiques qui, pendant leur temps libre, sauvent ostensiblement le monde, principalement en inventant de nouvelles applications et de nouveaux produits. »

Le mythe le plus révélateur de notre époque est peut-être celui de la superintelligence des machines, dont la promesse se transforme simultanément en A.I. l'éthique aux prises avec des menaces existentielles et un processus de conception visant à bannir la déraison humaine, à sous-traiter les plus grandes questions de la société à des entités surhumaines putatives sous la forme d'A.I. (et, vraisemblablement, les experts qui les soignent et les optimisent).

Même la version la plus bénigne de ce scénario ne ressemble en rien à un monde dans lequel je souhaiterais vivre. Donnez-moi plutôt la capacité de contester avec passion les applications et les priorités des systèmes surhumains et les maîtres qu'ils servent; et des codes éthiques qui visent non seulement un cadre pour l’interrogation des objectifs de l’IA, mais aussi les circonstances et la nécessité de son existence même.

Afficher plus

SupportIvy

SupportIvy.com : Un lieu pour partager le savoir et mieux comprendre le monde. Meilleure plate-forme de support gratuit pour vous, Documentation &Tutoriels par les experts.

Articles similaires

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Bouton retour en haut de la page
Fermer