Intelligence artificielle

L'expérience AI Box – Vers la science des données

L'expérience AI Box - Vers la science des données


Quelle expérience simple peut nous apprendre sur la surintelligence

Imaginez que c’est 2040. Après des années de recherche et de programmation dédiée, vous pensez avoir créé le premier Intelligence générale artificielle (AGI): une intelligence artificielle (IA) à peu près aussi intelligente que l’humain fait partie de tous leurs domaines intellectuels.

Une surintelligence trouvera un moyen de sortir de la boîte.

Comme l’un de ces domaines est bien sûr la programmation des IA et que votre AGI a accès à son propre code source, il commence bientôt à s’améliorer. Après plusieurs cycles d’auto-amélioration, cela conduit à devenir une ASI: Surintelligence artificielle, une intelligence bien supérieure à celle que nous connaissons. Vous avez entendu parler des dangers posés par ASI: des penseurs tels que Elon Musk et le regretté physicien Stephen Hawking ont averti l’humanité que, si nous ne faisions pas attention, une telle IA pourrait conduire à la extinction de la race humaine. Mais vous avez un plan. Votre ASI est dans un virtuel boîte, une sorte de prison à laquelle il ne peut échapper. Il fonctionne sur un ordinateur sans connexion Internet ou quelque chose comme ça. Il n'a pas de corps robotique à contrôler. Le seul moyen d'influencer le monde extérieur consiste à utiliser un écran sur lequel il peut poster des messages. Vous êtes intelligent: une telle ASI ne pourrait jamais causer de tort. Droite?

Yudkowsky a remporté l'expérience trois fois sur cinq points.

Malheureusement, ce n’est pas si simple. Des recherches ont suggéré que, dans un scénario comme celui-ci, l'ASI trouverait probablement un moyen de vous convaincre de le laisser sortir de la boîte. Dans une série d'expériences connues sous le nom de Expérience AI Box, réalisé par Eliezer Yudkowsky, Yudkowsky a joué le rôle d'un ASI en boîte tout en textant avec un «gardien», une autre personne qui pourrait le laisser sortir de la boîte hypothétique. Garder le «ASI» (Yudkowsky) pendant toute l'expérience ferait gagner une récompense monétaire au Portier. Sur cinq points, Yudkowsky a gagné l'expérience trois fois.

Que signifie le résultat de l'expérience AI Box? Cela me dit qu’une ASI trouverait un moyen d’obtenir hors de la boîte. Si Yudkowsky peut le faire trois fois sur cinq, un ASI peut le faire. Le problème, c’est que Eliezer Yudkowsky est un homme d’intelligence (très) supérieure à la moyenne, mais il n’est pas aussi intelligent qu’un ASI pourrait l’être. Comme Yudkowsky se le dit ici, l'ASI vous ferait vouloir le laisser sortir.

Une IA avancée doit être intrinsèquement sécurisée.

Cependant, l'expérience de la boîte d'IA est le symbole d'une vérité plus grande: l'IA avancée (par exemple, l'ASI) doit être adaptée intrinsèquement sûr. Vous (probablement) ne pouvez pas trouver un moyen de protéger ASI après l’avoir construit; il sera par définition extrêmement performant dans la réalisation de ses objectifs et échappera à sa case (s’il en est un). Si ces objectifs (ou la méthode de l’ASI pour les atteindre) sont dangereux pour nous, malheur à tous. Si elles nous sont bénéfiques, cela pourrait facilement conduire à des conditions humaines extrêmes. longévité, interstellaire voyages dans l'espace, et des choses incroyablement incroyables. À l’heure actuelle, les humains gardent le contrôle et nous devons trouver un moyen de préparer les futurs ASI. sûr.

Afficher plus

SupportIvy

SupportIvy.com : Un lieu pour partager le savoir et mieux comprendre le monde. Meilleure plate-forme de support gratuit pour vous, Documentation &Tutoriels par les experts.

Articles similaires

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Bouton retour en haut de la page
Fermer