De toute évidence, l’une des capacités extraordinaires de l’IA générative est d’unir les politiciens, le public et le secteur privé pour la réglementer.
Nous avons vu aujourd’hui lors de l’audience du Comité judiciaire du Sénat(ouvre un nouvel onglet) comment réglementer l’intelligence artificielle. Le PDG d’OpenAI, Sam Altman, la responsable de la confidentialité et de la confiance d’IBM, Christina Montgomery, et le professeur émérite de la NYU, Gary Marcus, ont témoigné devant le sous-comité de la confidentialité, de la technologie et des affaires juridiques sur ce que l’IA générative devrait faire une fois libérée de la boîte de Pandore. Altman est ouvert à la collaboration, plaidant même pour la réglementation de ChatGPT et de l’IA générative. Mais cela a semblé avoir un effet désarmant sur le sous-comité, qui a principalement soulevé des questions de softball.
VOIR AUSSI : OpenAI déploie le plug-in ChatGPT pour les utilisateurs Plus
L’audience de trois heures a abordé les nombreux risques pour la société de l’intelligence artificielle et la manière dont notre pays peut naviguer avec succès dans la prochaine révolution industrielle. Malheureusement, s’attaquer à autant de problèmes dans un même environnement signifie qu’il reste peu de temps pour se plonger dans des problèmes omniprésents tels que le changement d’emploi, la loi sur le droit d’auteur et, oh oui, la sécurité nationale. Voici les faits saillants :
1. La déclaration d’ouverture du sénateur Blumenthal comprenait des deepfakes
Les tweets ont peut-être été supprimés (s’ouvre dans un nouvel onglet)
Le sénateur Richard Blumenthal a lancé l’audience avec une touche dramatique en jouant un enregistrement deepfake de sa voix parlant de ChatGPT. L’enregistrement a été créé à partir de l’audio de son discours, et les commentaires ont été générés par ChatGPT, à qui on a demandé comment Blumenthal ouvrirait l’audience. L’audience dirigée par le deepfake a donné le ton en soulignant les capacités impressionnantes de l’IA générative et à quel point elle pourrait être dangereuse si elle n’est pas contrôlée.
2. Tout le problème du remplacement des emplois reste entier
L’une des principales préoccupations concernant ChatGPT et l’IA générative concerne les emplois qu’il remplacera par des tâches automatisées. Lorsqu’on lui a demandé si c’était un problème, Altman est d’avis que l’IA peut remplacer les emplois mais en créer de nouveaux : « Je crois qu’il y aura plus d’emplois dans ce domaine, et les emplois d’aujourd’hui deviendront plus bons. » Montgomery a ajouté que la chose la plus importante que nous devrait faire est de préparer la main-d’œuvre aux compétences liées à l’IA par la formation et l’éducation.
Cependant, il n’a pas été dit qui devrait en être responsable. « Je pense qu’il faudra une collaboration entre l’industrie et le gouvernement, mais surtout une action gouvernementale pour déterminer comment nous allons atténuer cela », a déclaré Altman. En d’autres termes, ce n’est pas le problème d’OpenAI.
3. Tout le monde s’accorde à dire que l’IA a besoin d’être réglementée
Le sénateur Dick Durbin a commencé par une conversation inhabituellement collaborative entre les secteurs public et privé. « Je ne me souviens pas d’une fois où quelqu’un représentant une grande entreprise ou une entité du secteur privé est venu nous voir et nous a suppliés de la réglementer. » Les appels à la réglementation peuvent être un peu exagérés, mais Altman et Montgomery ont montré qu’ils sont disposés et parfois enthousiastes à accepter la surveillance du gouvernement .
Cela dépasse les clichés habituels. Altman a déclaré qu’il pensait que la section 230 ne s’appliquait pas à l’IA générative, ce qui signifie que les entreprises qui fournissent la technologie devraient être tenues responsables et qu’un tout nouveau cadre doit être créé pour le contenu créé avec l’IA générative.
Cela pourrait être interprété comme un exemple réussi de freins et contrepoids démocratiques au travail, mais cela souligne également la gravité de la menace de l’IA – et à quel point des entreprises comme OpenAI doivent se protéger de toute responsabilité.
Une réglementation à cette échelle pourrait même conduire à la création d’une nouvelle agence fédérale, telle que la Food and Drug Administration, ce que propose Marcus. « Mon opinion est que nous avons probablement besoin d’une organisation au niveau du cabinet aux États-Unis pour résoudre ce problème. Mon raisonnement est que le nombre de risques est énorme, la quantité d’informations qui doit être maintenue est si élevée, je pense que nous avons besoin d’un beaucoup d’expertise technologique, et je pense que nous avons besoin de beaucoup de coordination de ces efforts. »
Une autre idée est de générer une licence pour l’intelligence artificielle, similaire à une licence d’exploitation de l’énergie nucléaire.
4. La désinformation est un gros problème, surtout avec une élection à venir
Un thème fondamental de l’audience était de savoir comment tirer les leçons des erreurs commises par le Congrès en ne tenant pas les entreprises de médias sociaux responsables de la modération du contenu, ce qui a contribué à la prolifération de la désinformation lors des élections de 2016 et 2020. À moins qu’il ne soit abordé maintenant, le potentiel de l’IA générative pour créer et diffuser des informations inexactes ou biaisées à grande échelle est réel et imminent.
« Étant donné que nous allons avoir des élections l’année prochaine et que les modèles s’améliorent, je pense que c’est un domaine important à surveiller », a déclaré Altman. Il est ouvert à «l’étiquetage nutritionnel» de tiers sur la nature et l’origine du contenu généré par l’IA, mais Marcus voit la racine du problème dans la transparence et l’accès au fonctionnement des algorithmes. « L’une des choses qui m’inquiète le plus à propos du GPT-4 est que nous ne savons pas sur quoi il s’entraîne, je suppose que Sam [Altman] Je sais, mais le reste d’entre nous ne le sait pas. Il est formé pour jouer essentiellement sur les préjugés du système. »
5. La sénatrice Marsha Blackburn aime Garth Brooks, la sénatrice Mazie Hinono aime BTS
Les membres du comité n’ont pas pu résister à l’occasion d’ajouter un peu de légèreté à la nature sérieuse de l’audience. Les sénateurs Cory Booker et Jon Ossoff ont tempéré leur amitié en échangeant des compliments sur la beauté et l’éclat de l’autre. Le sénateur Peter Welch a fait une remarque d’autodérision sur son intérêt pour l’audience, en disant : « Les sénateurs ont la réputation d’avoir une courte durée d’attention, mais j’ai assisté à toute l’audience et j’en ai apprécié chaque minute.
Lorsqu’elle a interrogé Altman sur l’outil de musique automatisé d’OpenAI, Jukebox, et sur la loi sur le droit d’auteur, Blackburn a fait part de ses inquiétudes quant à la propriété de chansons écrites dans le style et la voix de son artiste préféré, Garth Brooks. Hinono est également préoccupée par les chansons deepfake qui ressemblent à son groupe préféré, BTS. Aussi étrange qu’il soit d’entendre le célèbre chanteur de musique country et sensation K-Pop dans ce contexte, Blackburn et Hino font des remarques valables sur la propriété intellectuelle.
6. Les questions de sécurité nationale sont trop importantes pour être couvertes aujourd’hui
L’audience de trois heures a couvert tant de risques de l’IA générative que Blumenthal a clôturé en mentionnant uniquement sa menace pour la sécurité nationale, en disant : « Les sources de menace pour ce pays dans ce domaine sont très réelles et urgentes. Nous n’allons pas nous en occuper. » aujourd’hui, mais nous devons nous en occuper. »
L’audience a abordé une pléthore de problèmes générant l’impact potentiel de l’IA : emplois, désinformation, propriété intellectuelle, vie privée, sécurité, préjugés et discrimination, mais la session de trois heures n’a pas suffi pour aborder la manière dont cela pourrait affecter l’économie ou menacer des adversaires mondiaux. .