L’intelligence artificielle vient de vivre un grand jour à Capitol Hill.
Sam Altman, PDG de la société mère de ChatGPT, OpenAI, et figure de proue du discours actuel sur l’IA, a comparu pour la première fois mardi devant le sous-comité du Comité judiciaire du Sénat (ouvre dans un nouvel onglet) sur la confidentialité, la technologie et la loi. Les membres du Congrès ont pressé Altman, Christina Montgomery, responsable de la confidentialité et de la confiance d’IBM, et Gary Marcus, expert en IA et professeur émérite de psychologie et de neurosciences à NYU, sur les nombreux aspects de l’IA générative, les risques potentiels et la réglementation dans le domaine. ressemble à.
L’audience s’est-elle… étonnamment bien déroulée ?
VOIR AUSSI : Google Bard n’est pas disponible là où je vis, je demande donc à ChatGPT de m’aider à y accéder
Je sais que c’est difficile à croire. C’est un sentiment étrange d’écrire même cet article, après avoir couvert d’innombrables audiences du Congrès sur la technologie au fil des ans.
Contrairement à toutes les auditions précédentes du Congrès sur les réseaux sociaux, les membres du Congrès semblaient avoir une idée générale de ce à quoi ressemblent réellement les risques potentiels posés par l’intelligence artificielle. Un septuagénaire peut ne pas être en mesure de modérer le contenu en ligne, mais il comprend certainement le concept de chômage causé par les technologies émergentes. L’article 230 peut être une loi plutôt déroutante pour les législateurs peu familiers avec le Web, mais ils connaissent certainement la loi sur le droit d’auteur lorsqu’ils discutent des problèmes potentiels liés à l’IA.
Une autre bouffée d’air frais de l’audience AI: c’était une discussion assez bipartite. Les audiences sur les réseaux sociaux se sont souvent transformées en batailles tit-for-tat entre démocrates et républicains sur des questions telles que la désinformation et la censure en ligne.
Les discussions en ligne autour de l’IA peuvent se concentrer sur les chatbots « réveiller » et si les modèles d’IA devraient être capables de dire des remarques racistes (ouvre dans un nouvel onglet). Cependant, rien de tout cela n’était à l’audience. Les membres des deux parties semblaient se concentrer uniquement sur le sujet en question, selon le titre de l’audience, Surveillance de l’IA : règles de l’IA. Même le scénario hypothétique du sénateur John F. Kennedy (R-LA) selon lequel les développeurs d’IA tentent de détruire le monde a été remis sur les rails par des experts qui se sont tournés pour discuter des ensembles de données et de la formation à l’IA.
Peut-être le plus révélateur, les choses se passent de la même manière que les audiences technologiques du Congrès: aucun mème ne devient viral, montrant à quel point les législateurs américains sont hors de caractère. L’audience s’est ouverte de façon spectaculaire avec le président du comité, le sénateur Richard Blumenthal (D-CT), jouant un deepfake audio de lui-même lisant un script généré par ChatGPT (le deepfake audio utilise des modèles d’IA pour cloner des voix). Depuis lors, la procédure est restée ouverte jusqu’au bout.
Oui, la barre est basse par rapport aux précédentes audiences techniques. L’audition n’était pas parfaite.Le sujet principal entourant l’IA en ce moment est de savoir comment dangereux La technologie est. Une grande partie de cela est un battage médiatique direct de la part de l’industrie, une tentative avant-gardiste de vendre les vastes et lucratives capacités de l’IA (ouvre dans un nouvel onglet) est « NGMI » ou « ça ne marchera pas ? »). De plus, comme d’habitude, les législateurs semblent être frustrants avec les membres de l’industrie qu’ils espèrent réglementer lors de la conception de ces réglementations. Et, alors qu’Altman est d’accord avec la nécessité d’une réglementation, nous entendons la même chose(ouvre dans un nouvel onglet) de types de la Silicon Valley, y compris certains(ouvre dans un nouvel onglet), qui, avec le recul, peuvent être des acteurs malveillants.
Mais cette audition montre qu’il est possible pour le Congrès d’éviter de commettre la même erreur sur les réseaux sociaux. Cependant, gardez à l’esprit qu’ils ont le potentiel de tout gâcher et plus encore.

