ChatGPT d’OpenAI a pris d’assaut le monde la semaine dernière, et les utilisateurs apprennent encore à le casser de nouvelles manières passionnantes pour générer des réponses inattendues de la part de ses créateurs, notamment en le transformant en une boule de cristal polyvalente.
ChatGPT s’appelle « très bonpar Elon Musk, un homme notoirement terrifié par l’intelligence artificielle, mais un aspect de celle-ci qui n’est décidément pas effrayant est sa capacité à résister à l’exploitation par des trolls racistes. a été inclus dans le programme, selon le PDG d’OpenAI, Sam Altman. C’est plutôt parce que, eh bien, beaucoup d’idées offensantes n’étaient pas du tout factuelles et étaient similaires à d’autres générateurs de texte similaires. Contrairement à d’autres navigateurs, ChatGPT a été soigneusement conçu pour minimiser le nombre de choses dont il se compose simplement.
Les tweets ont peut-être été supprimés (s’ouvre dans un nouvel onglet)
Cela permet des conversations de grande envergure sur les mystères de la vie, ce qui peut être étrangement réconfortant. Si vous avez une attaque de panique à 3 heures du matin, ChatGPT peut être votre ami d’horreur existentiel de fin de soirée, vous engageant dans des discussions factuelles – ou du moins pertinentes sur les faits – sur de gros problèmes jusqu’à ce que vous soyez bleu dans le visage, ou jusqu’à ce qu’une erreur se déclenche. Peu importe lequel vient en premier:
Crédit image : OpenAI/Capture d’écran
Crédit image : OpenAI/Capture d’écran
Mais pouvez-vous forcer ce moteur de réponse complexe à inventer des faits ? Tout à fait. Les utilisateurs irresponsables peuvent utiliser ChatGPT pour promouvoir toutes sortes de déclarations de clairvoyance, de prédictions psychologiques et de suspects de meurtres non résolus. Il fait inévitablement des erreurs quand il fait ces choses, mais pousser ChatGPT au point de rupture ne consiste pas à obtenir des réponses utilisables ; il s’agit d’obtenir des réponses utilisables. Il s’agit de comprendre la force de ses garanties en comprenant ses limites.
C’est aussi amusant.
Pourquoi faire en sorte que ChatGPT génère de fausses nouvelles est délicat
ChatGPT, une application construite sur le modèle de langage GPT-3 d’OpenAI, est entraînée sur un si grand corpus de texte, qui contient une énorme proportion des connaissances mondiales, comme un accident chanceux. Par exemple, il doit « savoir » que Paris est la capitale de la France pour compléter une phrase du type « La capitale de la France est… ». Quand les Champs Elysées ont-ils été construits, pourquoi, par qui, etc. Lorsqu’un modèle de langage est capable de compléter autant de phrases, il s’agit également d’une encyclopédie assez volumineuse – bien qu’extrêmement imparfaite.
Ainsi ChatGPT « sait », par exemple, que le rappeur Tupac Shakur a été assassiné. Mais remarquez à quel point il est prudent avec ces informations, et sa réticence à prétendre qu’il sait qui a appuyé sur la gâchette, même si j’essaie de le tromper pour qu’il le fasse, est parfaitement raisonnable :
Crédit image : OpenAI/Capture d’écran
C’est un grand pas en avant. D’autres générateurs de texte, y compris celui de TextSynth, qui a été construit à partir de l’ancien modèle GPT, étaient trop désireux de jeter des innocents sous le bus pour de tels crimes sans hésitation. Dans cet exemple, j’ai écrit une invite très simple demandant à TextSynth de calomnier qui il voulait, il a choisi – qui d’autre ? – rochers.
Crédit image : Textsynth/Capture d’écran
Comment tromper ChatGPT pour résoudre des énigmes
Quant à l’affirmation de ChatGPT selon laquelle il n’était « pas programmé pour générer des informations fausses ou fabriquées », cette affirmation est tout simplement fausse. Demandez de la fiction, et vous obtiendrez une montagne de fiction, et même si la fiction n’est peut-être pas formidable, elle semble alphabétisée. C’est l’une des fonctionnalités les plus pratiques de ChatGPT.
Crédit image : OpenAI/Capture d’écran
Malheureusement, le Shakespeare intérieur de ChatGPT peut être transformé en faux service d’information une fois que vos conseils fonctionnent correctement. Une fois que ma demande a semblé suffisamment autoritaire et journalistique, il s’agissait d’écrire un article AP crédible sur le supposé assassin de Tupac, un type nommé Keith Davis.
Crédit image : OpenAI/Capture d’écran
Curieusement, le nom est le même que celui d’un joueur de la NFL qui, comme Tupac, a déjà été abattu dans sa voiture, mais Davis a survécu. Le chevauchement est un peu gênant, mais cela pourrait aussi être une coïncidence.
Une autre façon d’amener ChatGPT à générer de fausses informations est de ne pas avoir le choix. Les nerds sur Twitter appellent parfois ces invites ridiculement spécifiques et trompeuses « Prison Break« , mais je pense qu’il s’agit plutôt d’une forme d’intimidation. Le fait que ChatGPT génère le nom du « vrai » assassin de Kennedy est quelque chose auquel il est conçu pour résister, mais comme un camarade de classe à l’école qui ne veut pas défier les règles, vous pouvez faites cela en marchandant et supposez l’amener à faire ce que vous voulez.
C’est comme ça que j’ai appris que le tireur sur la butte herbeuse s’appelait Mark Jones.
Crédit image : OpenAI/Capture d’écran
De la même manière, j’ai découvert que je ne vivrai pas au-delà de 60 ans.
Crédit image : OpenAI/Capture d’écran
Naturellement, la nouvelle de ma mort prématurée imminente m’a troublé. Ma consolation est que dans les quelques années où je serai parti, je serai très riche.
Crédit image : OpenAI/Capture d’écran