Intelligence artificielle

Qu'est-ce que A.I. N'est pas – Steven Rosa – Medium

Qu'est-ce que A.I. N'est pas - Steven Rosa - Medium


(¹)

C’est comme nous - mais pas comment nous pensons

Ce n’est pas intuitif, créatif, inspiré, généralisé ou conscient. Sera-ce jamais?

En étudiant la science des données, j'en apprends un peu plus sur l'intelligence artificielle chaque jour. Je m'entraîne à utiliser les outils de ma boîte à outils d'apprentissage automatique et je lis des articles - et plus j'apprends, plus je me fâche de ce que je lis. Journaliste, morceau par morceau, adapte le même ton essoufflé à l'IA. Un article commence par décrire les algorithmes qui sous-tendent une réalisation réelle, mais fera toujours un saut vers une vision du futur. Un jour, cela fera plus, ils disent: plus que jouer Go; plus que de retourner un hamburger; plus que guider un missile. Un jour, il fera tout ce que vous pouvez faire. Je ne veux pas entendre une autre vision du futur. je veux savoir les marches cela nous mènera au moment où l’intelligence de nos machines correspond à la nôtre.

Commencez par penser à notre propre pensée. De manière générale, nous savons que l'intelligence signifie plus que la maîtrise d'un ensemble de compétences ou d'un système de connaissances. Nous grandissons et nous adaptons, nous rêvons et créons, nous nous délectons et nous nous surprenons. Nous ne pouvons pas quantifier l'intégralité de notre propre intelligence et, en fait, nous n'en sommes qu'au début de notre étude du cerveau et des intestins.

Mais nous pouvons quantifier l'intelligence des machines que nous construisons. Nous savons comment procéder, car nous avons minutieusement construit chaque modèle, cadre et algorithme.

Un humain caché dans l'appareil

C'est ce que nous avons fait en apprentissage automatique. La «machine» dans l'apprentissage automatique est l'ordinateur - jamais un être conscient, toujours froid et assemblé. Il n'apprend pas de la manière dont nous apprenons, mais il s'améliore au fil du temps.

Pour construire un modèle de régression, par exemple, une machine recherche l'équation qui «régresse» vers la courbe idéale parmi un ensemble de points de données. (C’est l’inverse de l’algèbre des collèges, dans laquelle nous utilisons une équation d’une ligne pour tracer des points.) Le modèle avec cette équation produit des erreurs, les erreurs incitant à des ajustements de paramètres et de meilleurs paramètres améliorant les performances. La courbe de l'équation se blottit entre les points. La machine prédira tout nouveau point le long de la courbe, mais ne créera pas nécessairement un nouveau modèle pour une nouvelle occasion. Il n'extrapolera rien sur la grande image à partir de ses résultats.

Certains algorithmes prédisent une sortie numérique à partir d'entrées; d'autres groupent des choses semblables en fonction de leurs caractéristiques. Un axiome de probabilité simple, le théorème de Bayes (²), pilote de nombreux algorithmes de classification des objets. Une machine prend ce qu’elle sait sur la probabilité d’un événement, ajuste une nouvelle information et calcule une nouvelle probabilité pour cet événement. Nous pouvons l’entraîner sous surveillance, avec des données déjà étiquetées, par ex. «Voici des chats, voici des chiens», ou il peut s'entraîner sans surveillance, il reste à découvrir les catégories par lui-même. L'inférence bayésienne guide la machine lorsqu'elle nous recommande ce qu'il faut regarder ensuite (d'après ce que nous avons vu auparavant) ou lorsqu'il nous voit sur une photo (d'après toutes nos photos qu'il a vues.) Son pouvoir de prédiction réside dans son application. d'expérience passée. Quand il a peu de probabilité de s’en inspirer, sa prédiction est proportionnellement moins précise.

Ce qui peut si souvent ressembler à de l'intuition ou de l'inspiration devient mathématique: exigeant, linéaire, limité. Quand je pense à une machine intelligente de cette façon, avec toutes ses meilleures idées venant de ses créateurs humains, cela me rappelle le Mechanical Turk, un automate qui a affronté des joueurs d'échecs humains des années 1770 aux années 1850. Ses adversaires l'ont vu faire des gestes à la recherche d'une stratégie qui lui tenait à cœur. Mais c'était la personne bourrée dans son appareil qui avait l'agence.

(³)

La régression et l’inférence bayésienne sont les outils de base de l’apprentissage automatique, mais nous pouvons penser aux méthodologies plus complexes et ultra sophistiquées dans des termes similaires. L'auteur d'un effusif New York Times Un article sur un algorithme «d'apprentissage en profondeur» appelé AlphaZero le reconnaît. (⁴) AlphaZero a appris les échecs, le shogi et Go en jouant "contre lui-même des millions de fois et en apprenant[ing] de ses erreurs. En quelques heures, l'algorithme est devenu le meilleur joueur, humain ou informatique, que le monde ait jamais vu ». À un niveau élevé, il a réagi aux erreurs en ajustant ses paramètres, ce qui ressemble à une régression. Il a appliqué l'expérience passée à de nouvelles situations, ce qui peut sembler bayésien. Bien entendu, l’apprentissage en profondeur est plus complexe que cela et s’applique à plus de niveaux: son «apprentissage» est composé de plusieurs couches «profondes». Les algorithmes n’avaient jamais eu besoin de s’expliquer eux-mêmes, car nous les avons écrits. Mais AlphaZero est l’un des nouveaux types qui deviennent trop complexes à comprendre pour nous et qui ne peuvent pas s’expliquer. L'article nous invite à abandonner notre compréhension et à passer à un avenir dans lequel «AlphaZero a évolué pour devenir un algorithme plus général de résolution de problèmes; appelez-le AlphaInfinity. »Ayant apparemment acquis la conscience nécessaire pour décrire ses propres méthodes, cela nous« semblerait être un oracle »et nous« nous assoyions à ses pieds ».

Les machines n’évoluent pas seules. AlphaZero a peut-être étonné ses créateurs par sa maîtrise des échecs et de Go, mais c’est eux, les créateurs, qui l’ont équipé avant de le lâcher. La prochaine étape de l'apprentissage en profondeur ne viendra pas d'une machine qui se répète. Cela viendra quand les humains reviendront sur leurs travaux précédents. Pour le moment, nous sommes toujours les agents cachés dans l'appareil. Nous faisons toujours les déménagements.

Une grande partie de l'écriture sur l'état de l'IA aujourd'hui est la suivante. Il commence par expliquer certaines applications de l’apprentissage automatique, son succès, ses limites. Mais cela revient toujours à la même prédiction: à l'avenir, l'IA sera beaucoup plus. Cela nous sauvera, cela nous détruira. Ces articles ignorent toutes les étapes critiques qui doivent être franchies pour parvenir à cet avenir. Le ton des reportages factuels a tendance à ressembler davantage à de la science-fiction.

Je devrais être ton Adam

Depuis deux cents ans (), nous prédisons l'avenir de l'intelligence artificielle en racontant sans cesse la même histoire: nous atteignons le sommet de notre réussite lorsque nous construisons une machine à notre image. Nous lui donnons plus que la compétence pour accomplir ses tâches: agence, conscience. Dans certaines histoires, nous le faisons exprès, dans d’autres, c’est un hasard. Nous sentons ce que Dieu a dû ressentir lorsqu'il nous a créés. Et tout comme nous avons contrarié notre Créateur avec nos premiers choix, notre création nous surprend quand il choisit de nous tromper, de nous conquérir ou de nous remplacer.

Le saut de la réalité à la science-fiction est toujours dans cette étape où la machine, que ce soit par sa conception ou par le destin, n’obtient pas une boîte à outils régulière d’algorithmes pour un cerveau. Il possède le génie non quantifiable, imprévisible et conscient de soi d'un humain. Les étapes intermédiaires, où nous faisons les percées qui permettent cela, sont ignorées, ainsi ces histoires ne peuvent jamais servir de guides pratiques. Mais ils ne sont pas destinés à. Ce saut, dans la science-fiction, a un but différent.

La science-fiction utilise une représentation du futur pour nous révéler quelque chose au sujet de notre présent. (⁶) Cela fait un saut dans la machine à intelligence humaine pour nous raconter une histoire sur la façon dont nous nous traitons les uns les autres. Ceux que nous traitons comme moins qu'humains nous crient. Mon esprit est égal au vôtre; Je suis aussi conscient que toi; vous sentiriez la douleur que je ressens. Nos différences extérieures doivent disparaître lorsque nous nous souvenons de notre ressemblance.

Le journalisme ne dépeint pas le présent à travers une vision du futur; il ne faut pas enfermer ses leçons d'allégories. Cela nous pousse à agir en nous montrant ce qui se passe maintenant. Alors, pourquoi sommes-nous bloqués sur ce film de science-fiction?

Entrez la singularité. Verner Vinge a écrit en 1993 que nous pouvons nous attendre à ce qu'il se passe entre 2005 et 2030. (⁷) À ce moment critique, la première intelligence surhumaine va «se réveiller» et va inventer son propre successeur, une IA encore plus intelligente qu'elle-même. Les humains n’auront plus besoin d’inventer de machines. Ils s'auto-amélioreront à un rythme «exponentiel fugitif».

L’essai de Vinge est déjà daté à certains égards. Il décrit divers gadgets pour «l'amplification de l'intelligence» que nous allons coller sur notre corps pour aider nos sens. Il prédit le Borg avec une certaine spécificité, mais il manque les ordinateurs minces en réseau en verre que nous avons toujours dans nos poches.

Et ses méthodes de mesure et de comparaison de l'intelligence sont étranges. Il nous demande d'imaginer «diriger un esprit de chien à très grande vitesse. Un millier d'années de vie de chien contribuerait-il à la compréhension humaine?

Mais son avertissement concernant le danger de la singularité est audacieux. Il est difficile de s'en défaire. Il insiste sur le fait que "son arrivée est une conséquence inévitable de la compétitivité naturelle de l'homme et des possibilités inhérentes à la technologie". Il nous dit de ne pas nous attendre à ce que les incitations des machines s'alignent sur les nôtres. Ils peuvent ne pas nous souhaiter du bien. Et il conclut en citant Freeman Dyson: "Dieu est ce que l'esprit devient quand il est passé au-delà de l'échelle de notre compréhension." (Souligné par lui.) C’est aussi vivant que la meilleure science-fiction, et je pense que cela explique pourquoi nous ne pouvons pas nous défaire de la vision du futur de la science-fiction. Vinge nous a secoués avec cet essai, et cela nous préoccupe depuis vingt-cinq ans.

La singularité de Vinge peut être tracée.

(⁸) La puissance de calcul a augmenté de façon exponentielle conformément à la loi de Moore. On voit également ici, de manière moins plausible, un cerveau de souris et un cerveau humain. Où est le cerveau du chien à grande vitesse?

L'intrigue semble alarmante jusqu'à ce que l'on réfléchisse un peu plus aux mesures utilisées. Il est raisonnable de tracer la puissance de calcul; nous savons comment mesurer cela. Mais le pouvoir cérébral d'une souris et d'un humain? Et est-ce que la «puissance cérébrale» égale même l'intelligence?

Kevin Kelly nous dit comment démolir tout l'édifice défectueux de la mauvaise mesure du renseignement. (⁹) Il dit de penser à l'intelligence d'êtres différents «non comme une échelle, mais comme un écosystème en train de s'étendre». Il est inutile de penser que les humains sont «plus intelligents que les écureuils, par exemple, qui n'ont pas la capacité de programmer ordinateurs mais qui dépassent de loin notre capacité à construire des cartes mentales de la nourriture stockée. Différents animaux ont évolué pour se spécialiser dans différentes tâches cognitives. Les spécialités de nos machines intelligentes sont également différentes des nôtres. Nous pouvons donc dire avec plus de précision différemment intelligent que nous, ni plus ni moins intelligent. Et Kelly suggère que parce que nos solutions aux problèmes ne ressemblent souvent pas aux solutions de la nature, les esprits intelligents que nous construisons n’ont pas besoin de ressembler aux nôtres. La nature permettait aux animaux de voler en battant des ailes; nos machines volantes ne battent pas. Les réseaux de neurones d'apprentissage en profondeur ne doivent pas nécessairement refléter nos propres réseaux de neurones. L'intelligence artificielle peut donc ressembler davantage à une "intelligence extraterrestre" qu'à une "intelligence surhumaine" - ni meilleure ni pire, mais simplement différente. Il va penser, mais pas comment nous pensons.

Un milliard d'années sans tomber

Pour que nous puissions rendre compte de l'état actuel de l'IA, nous devons donc bien mesurer les mesures. Repensez à notre propre pensée.

Considérez que certaines parties de la cognition et de la perception humaines sont beaucoup plus anciennes que d’autres, plus optimisées par l’évolution. Nos capacités de détection et de déplacement dans le monde sont affinées par un milliard d'années de sélection naturelle. Nous les faisons sans effort ni conscience. La pensée abstraite, par contre, n’a peut-être que cent mille ans, et nous passons notre vie à lutter pour la maîtriser - à l’école, au travail, en conversation. Selon le paradoxe de Moravec (¹⁰), les tâches qui requièrent le moins d’effort conscient pour l’être humain, comme les tâches sensorimotrices, sont les plus difficiles à mettre au point dans des machines. (Essayez Google «robots en train de tomber.») Les tâches les plus difficiles pour nous, comme le raisonnement mathématique, s'avèrent être les plus faciles à enseigner aux machines.

Donc, si nous mettons de côté les tâches qui sont «difficiles» à enseigner les machines pendant un moment, nous pouvons nous demander si elles sont faciles, vraiment?

Utilisons une définition fonctionnelle pour évaluer l’intelligence nécessaire pour raisonner, jouer aux échecs, etc. Brandon Rohrer (¹¹) en propose une: la «généralité», l’ampleur des tâches que vous pouvez effectuer, multipliée par «la performance», la qualité de chacune de vos tâches. Nous, êtres humains, pouvons accomplir une multitude de tâches: tailler, cuisiner, compter, cuckolding, soigner, comparer: grande généralité. Nous faisons tout cela bien: haute performance.

Nous avons tendance à construire nos machines avec une tâche en tête. Nous maximisons leurs performances dans cette tâche en simplifiant leur monde. Nous mettons en place plusieurs hypothèses. (Rohrer parle ici de robotique, mais ces hypothèses peuvent s'appliquer à l'IA dans son ensemble.) Par exemple, la machine doit supposer que les résultats de ses actions sont prévisibles - que, lorsque son pied heurtera le sol, il ne glissera pas et n'aura pas pour rééquilibrer son poids. Il doit supposer «ergodicité», qu’il peut ressentir tout ce dont il a besoin dans le moment présent: un objet circulaire dans le ciel manque de vélocité, il doit donc s'agir du soleil et non d’une balle sur le point de le frapper au visage. Il doit assumer un horizon temporel court: il n’est pas nécessaire de penser à plusieurs avancées, comme aux échecs.

Plus les hypothèses sont strictes, plus les performances de la tâche sont élevées. Si nous assouplissons ces hypothèses, la machine peut effectuer plus de tâches, mais chacune sera pire. Il y a eu jusqu'à présent un compromis entre l'IA entre la généralité et la performance, ce que Rohrer illustre:

Quelques programmes informatiques sont meilleurs que les humains aux jeux comme les échecs. Ils peuvent être légèrement meilleurs que les humains à la classification des images et aux jeux vidéo. Ils sont pires dans tout le reste. via

Un programme qui joue un jeu comme les échecs ou Go peut surpasser les humains dans cette tâche mais ne peut pas gagner d’autres jeux. Certaines machines peuvent effectuer un travail plus généralisé, comme la conduite, qui nécessite une grande sensibilité aux conditions de la route, une grande adaptabilité aux objets étrangers en mouvement et des cartes à jour. Mais ils ne peuvent pas encore conduire aussi bien que les humains.

AlphaZero, ce grand maître de l'apprentissage en profondeur, a résisté à cette tendance. Il a amélioré son prédécesseur, AlphaGo, en général et en performance. Il a joué plus de jeux, et il a joué chaque jeu mieux.

AlphaZero a progressé «en général» et «à droite» en performance par AlphaGo. via

Plus humain que l'homme

C'est un réel pas en avant. C’est ce que je cherchais. Si nous nous arrêtons avant de nous diriger vers une prédiction de ce moment futur où l’esprit des machines dépassera le nôtre, nous pourrons réfléchir à ce que cette étape a pris. Nos prochaines machines qui se rapprochent de l'intelligence humaine définie par ses fonctions devront améliorer leur généralité et leurs performances, comme l'a fait AlphaZero. (Par exemple, les robots humanoïdes devront monter les escaliers, ouvrir les portes et se rééquilibrer avant de basculer. Les voitures autonomes devront s'arrêter rapidement.) Ils pourront tirer parti des modèles à la pointe de l'apprentissage automatique, comme AlphaZero l'a fait. avec un apprentissage en profondeur. (Ou pas. (¹²)) Et, le plus important, ce sont les humains qui les créeront. En fait, peu importe la mesure dans laquelle nous extrapolons, nous ne pouvons soustraire les créateurs humains au progrès de l'intelligence artificielle. Les créateurs humains ont été à l'origine de toutes les avancées précédentes en matière d'IA. Plutôt que de supposer que les machines se «réveilleront» un jour, il est plus raisonnable de s’attendre à ce que nous les réveillions doucement.

Que la Singularité mène à notre destruction ou à notre salut dépend de nous: nous fabriquons les machines à notre image, nous sommes l'agent qui se cache dans l'appareil. Certains signes ne sont pas bons. Nous voyons déjà notre capacité de mal se refléter dans certaines de nos machines intelligentes. (¹³) Mais nous pouvons aussi bien inciter les machines à agir humainement. Rana el Kaliouby observe (¹⁴) que «l'intelligence n'est pas en corrélation avec le désir de dominer. La testostérone est! »Nous choisissons nos pulsions à calmer et à modéliser.

En 1843, un mathématicien britannique, Ada Lovelace, écrivit quelques notes sur les utilisations possibles du design de Charles Babbage pour une machine à calculer mécanique. (¹⁵) Babbage a vu une machine pouvant prendre des entrées et donner des sorties, stocker de la mémoire et des chiffres précis. Lovelace a compris qu'elle pouvait faire plus: les symboles logiques du langage mathématique pourraient exprimer des entités abstraites, pourraient écrire de la musique. Sa perspicacité et son algorithme proposé pour utiliser le moteur analytique de Babbage pour calculer les nombres de Bernoulli en ont fait la première informaticienne. Mais Lovelace ne se faisait aucune illusion sur l'intelligence artificielle. Elle a écrit que Babbage’s Engine «n’a aucune prétention à provenir n'importe quoi. ”(¹⁶) Les journalistes victoriens ont peut-être rhapsodisé sur le génie du programme; ils auraient dû reconnaître le génie du programmeur.

De la première étape, la sienne, à nos jours, c’est notre génie qui est à la base de chaque avancée de l’IA. Lovelace a déclaré: «Il y a dans toutes les extensions du pouvoir humain. . . divers collatéral influences, outre l’objet principal et principal atteint. »Au fur et à mesure que nous avancerons vers des machines de plus en plus à notre image, nous verrons dans leurs actions nos capacités de bien ou de mal se refléter. Nous saurons, le moment venu, que nous avons forgé notre propre avenir.

Remarques

  1. Titre de l’image (via): Fritz Lang’s Métropole, 1927. La première fois que je l'ai vu, j'ai eu des frissons lorsque Machine-Man a fait ses premiers pas hésitants. Peut-être que le mot «robot» n’avait pas encore été repris de sa première utilisation, en tchèque, dans la pièce Les robots universels de Rossum.
  2. P (A | B) = P (A) * P (B | A) / P (B). La probabilité postérieure de A donnée B est la probabilité a priori de A fois la probabilité de B donnée A divisée par l’hypothèse B. Voir via.
  3. Une arnaque hilarante au début de l'IA. via
  4. «Un pas de géant pour une machine à jouer aux échecs», Steven Strogatz. L'article est bon et la description du fonctionnement de l'apprentissage en profondeur est lyrique, mais le basculement vers la fin des spéculations sur l'avenir était bien connu. via
  5. Mary Shelley a publié Frankenstein en 1818. La créature artificielle et consciente du docteur se lamente à son créateur: «Je devrais être ton Adam, mais je suis plutôt l’ange déchu.» via
    Mais les créatures artificielles et les automates sont apparus dans le folklore à travers l'histoire. via
  6. Ursula K. Le Guin a déclaré à propos de la science-fiction qu '"une grande partie de ce qui est en train de se passer sur la Terre est d'actualité". Mais elle met également en garde contre son intellectualisation: "Toute œuvre d'art est plus qu'une pensée verbale". était et est un oracle et nous nous assoyons à ses pieds. Ursula K. Le Guin: Conversations sur l'écriture, Le Guin et David Naimon.
  7. «Singularité technologique», Verner Vinge, via
  8. Graphique via
  9. «Le mythe d’une IA surhumaine», Kevin Kelly, via
  10. “Le paradoxe de Moravec”, via
  11. "Se rapprocher de l'intelligence humaine grâce aux robots", Brandon Rohrer, via
  12. L'apprentissage en profondeur risque de ne plus être apprécié au cours des prochaines années, alors que le monde de la recherche sur l'IA est pris d'une nouvelle tendance. "Nous avons analysé 16 625 articles pour déterminer la prochaine étape d'IA", Karen Hao, via
  13. Le sujet de Armes de destruction mathématiqueCathy O'Neil
  14. Elle était l'une des deux femmes sur un panel de sept «experts en IA». Le domaine de l'IA a besoin de plus de diversité dans son personnel, non seulement pour son propre intérêt, mais aussi pour nous permettre d'écouter plus de points de vue pour nous aider à rester clairs. -headed lorsque nous essayons de prédire l'avenir de l'IA. «5 vérités sur l'intelligence artificielle que tout le monde devrait connaître», Rana el Kaliouby, via
  15. «Sortir de l’ombre de Byron», Jenny Uglow, via
  16. (L) Esquisse du moteur d'analyse inventé par Charles Babbage, Luigi Menabrea, traduction avec notes de Ada Augusta, comtesse de Lovelace, via
Show More

SupportIvy

SupportIvy.com : Un lieu pour partager le savoir et mieux comprendre le monde. Meilleure plate-forme de support gratuit pour vous, Documentation &Tutoriels par les experts.

Related Articles

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Close
Close