Intelligence artificielle

Comment garder nos créations sous contrôle – Prédire – Moyen

Comment garder nos créations sous contrôle - Prédire - Moyen


Dans un proche avenir, nos cousins ​​robots devront se comporter si nous voulons éviter une guerre robotique apocalyptique.

Crédit: MIT
"Bien que la singularité ait de nombreux visages, son implication la plus importante est la suivante: notre technologie correspondra et dépassera largement le raffinement et la souplesse de ce que nous considérons comme le meilleur des traits humains."
- Ray Kurzweil, La singularité est proche: quand l'homme transcende la biologie
«Dans trente ans, nous disposerons des moyens technologiques pour créer une intelligence surhumaine. Peu de temps après, l'ère humaine sera terminée. "
-Vernor Vinge, La singularité technologique à venir

M. Vinge et M. Kurzweil ont été les principaux défenseurs de l’idée de la singularité technologique, concept selon lequel l’intelligence artificielle et le progrès technologique en général aboutiront, dans un proche avenir, à un point où les machines sont exponentiellement plus intelligentes que L'humanité et les changements dans le monde qui nous entoure sont si rapides que des humains normaux et non modifiés ne pourront plus la suivre.

Il semble évident que la plupart des membres de la communauté scientifique s'accordent pour dire qu'il faut un ensemble de règles que tous les responsables de l'IA et de la technologie robotique doivent respecter. Cependant, la nature exacte de ces règles est en suspens. Une grande partie de ceci est simplement dû au fait que cette technologie en est encore à ses balbutiements et que ses fragments qui ont été rendus publics pour la consommation de masse jusqu'à présent étaient relativement anodins. Siri et Roomba ne représentent guère une menace existentielle pour l’humanité.

Cependant, nous les humains sommes connus pour notre peur des quantités inconnues. Et ce que nous ne comprenons pas vraiment, nous avons tendance à exterminer. À l'heure actuelle, nous contrôlons l'évolution de l'intelligence machine. Si / quand nous atteignons la singularité et que nos créations nous dépassent, il ne faudra peut-être que quelques heures, quelques minutes ou même quelques secondes avant qu’elles ne nous aient dépassés de si loin que nous ne les comprenons plus.

Il y a une raison pour laquelle un grand pourcentage de notre science-fiction tourne autour de robots et d'IA qui deviennent conscients de soi et qui essayent de conquérir le monde ou de faire disparaître l'humanité. Nous reconnaissons que c'est une possibilité. L’humanité excelle à proposer de nouveaux moyens de se mettre en danger. Cela aussi, nous le réalisons.

Pour éviter ce scénario, nous avons deux options:

Abandonner et / ou mettre hors la loi tous travaillent dans l'IA. Comme pour toute tentative de contrôle mondial des armes nucléaires ou de recherche médicale douteuse du point de vue de l’éthique, il s’agit d’un échec. Certains joueurs seront d'accord, mais beaucoup ne le seront pas. Le désir humain de satisfaire sa curiosité et d’avoir un avantage sur les autres est insurmontable.

À part cela, tout ce que nous pouvons faire, c’est essayer de nous assurer que tout le monde comprend les dangers potentiels et crée un cadre dans lequel ses créations doivent fonctionner, de manière à ce que tout soit mis en œuvre pour empêcher nos futurs robots contrôlés par l’IA de nous faire du mal.

Heureusement, nous pensons à cela depuis aussi longtemps que nous travaillons à la singularité.

3 lois

Isaac Asimov, auteur de science-fiction de renom et futuriste, a présenté sa marque de fabrique Trois lois de la robotique dans «Runaround», une nouvelle de 1942. Il a ensuite ajouté une loi «zéro» selon laquelle il devait intervenir avant les autres. Elles sont:

Loi 0: Un robot ne peut pas nuire à l’humanité, ou, par inaction, permettre à l’humanité de nuire

Première loi: un robot ne doit pas blesser un être humain ni, par son inaction, permettre à un être humain de se blesser.

Deuxième loi: un robot doit obéir aux ordres donnés par des êtres humains, sauf si de tels ordres sont contraires à la première loi.

Troisième loi: un robot doit protéger sa propre existence tant que cette protection n'entre pas en conflit avec la première ou la deuxième loi.

Asimov appliquerait ces lois à presque tous les robots qu'il présentait dans ses œuvres fictives suivantes, et la plupart des robotistes et informaticiens les considèrent aujourd'hui comme extrêmement valables.

Depuis que l'idée de véritables robots, existant aux côtés de l'homme dans la société, est devenue une possibilité réelle plutôt que le produit de la science-fiction, l'idée de la robotique est devenue un véritable sous-domaine de la technologie, intégrant toutes nos connaissances en matière d'intelligence artificielle et de machine. apprendre avec le droit, la sociologie et la philosophie. Au fur et à mesure que la technologie et les possibilités progressaient, de nombreuses personnes ont ajouté leurs idées au discours.

En tant que président de l'EPIC (Electronic Privacy Information Centre), Marc Rotenberg estime que deux lois supplémentaires devraient figurer sur la liste d'Asimov:

Quatrième loi: les robots doivent toujours révéler leur identité et leur nature en tant que robot aux humains quand on le leur demande.

Cinquième loi: les robots doivent toujours révéler leur processus de prise de décision aux humains lorsque cela leur est demandé.

CC BY-SA 3.0

6 règles

Satya Nadella, actuel PDG de Microsoft, a élaboré une liste de six règles que, selon lui, les scientifiques et les chercheurs en intelligence artificielle devraient suivre:

- L'intelligence artificielle doit exister pour aider l'humanité.

- Le fonctionnement interne de l’IA doit être transparent pour l’humanité.

- Amnesty International doit améliorer les choses sans nuire à des groupes de personnes distincts.

- L'intelligence artificielle doit être conçue pour que les informations personnelles et les informations de groupe restent confidentielles.

- L'intelligence artificielle doit être suffisamment accessible pour que l'homme puisse éviter des dommages non intentionnels.

- AI ne doit pas faire preuve de partialité envers une partie en particulier.

Crédit: Boston Dynamics

5 problèmes

Les informaticiens de Google ont également défini un groupe de cinq «problèmes de recherche pratique» distincts que les programmeurs en robotique doivent prendre en compte:

- Les robots ne devraient rien faire pour aggraver les choses.

- Les robots ne devraient pas être capables de "jouer leurs fonctions de récompense", ou de tricher.

- En cas de manque d'informations pour prendre une bonne décision, les robots devraient demander de l'aide à l'homme.

- Les robots doivent être programmés pour être curieux tant qu’ils restent en sécurité et ne font pas de mal aux humains.

- Les robots doivent reconnaître les espaces et les situations dans lesquels ils se trouvent et réagir de manière appropriée.

5 principes

L’ensemble de lignes directrices le plus directement axé sur la protection des personnes a peut-être été proposé conjointement par le Conseil de recherches sur les arts et les sciences humaines et le Conseil de recherches en génie et en sciences physiques, tous deux du Royaume-Uni, qui déclarent:

  1. Les robots ne devraient pas être conçus uniquement ou principalement pour tuer ou nuire à l'homme.
  2. Les humains, pas les robots, sont des agents responsables. Les robots sont des outils conçus pour atteindre des objectifs humains.
  3. Les robots doivent être conçus de manière à assurer leur sûreté et leur sécurité.
  4. Les robots sont des artefacts. ils ne doivent pas être conçus pour exploiter des utilisateurs vulnérables en évoquant une réaction émotionnelle ou une dépendance. Il devrait toujours être possible de distinguer un robot d'un humain.
  5. Il devrait toujours être possible de savoir qui est légalement responsable d'un robot.

Il est évident que l’essentiel de ces principes est que nous devons faire de notre mieux pour que nos créations de robots ne nous tuent pas. Si nous les considérons comme les «enfants» de l’humanité, nous avons certainement du pain sur la planche. Dans l’ensemble, la plupart des parents élèvent bien des enfants qui respectent la vie humaine. Mais un pourcentage non négligeable de la population se révèle être de mauvais œufs. Parfois, la cause est due à de mauvais parents, parfois à de mauvais gènes, et parfois, il n’ya pas de cause évidente.

Si nous vivons à la singularité et que nos enfants dépassent rapidement l’une de nos capacités pour les surveiller, nous ne pourrons peut-être pas nous fier aux règles que nous leur avons fixées. Leur évolution sera hors de notre contrôle. Nous pourrions rapidement nous retrouver dans une position similaire à celle où nous avons placé le gorille des plaines ou le panda géant.

Pour cette raison, il peut être préférable de leur inculquer la morale que nous espérons pouvoir mieux suivre nous-mêmes et que nos enfants puissent se contrôler eux-mêmes.

Merci pour la lecture et le partage!

Show More

SupportIvy

SupportIvy.com : Un lieu pour partager le savoir et mieux comprendre le monde. Meilleure plate-forme de support gratuit pour vous, Documentation &Tutoriels par les experts.

Related Articles

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Close
Close