Intelligence artificielle

2018 – Evolution One – Moyenne

2018 - Evolution One - Moyenne


Aujourd’hui, avec des centaines d’entreprises profondément engagées dans le domaine de l’intelligence artificielle, et travaillant encore plus pour définir leur stratégie en la matière, il pourrait être un peu difficile de cibler des acteurs spécifiques qui sont les mieux placés pour ouvrir la voie à l’avenir. Néanmoins, si nous examinons l’une des nombreuses listes décrivant les principaux acteurs (voir ici et ici, par exemple), cinq entreprises - Google, Facebook, Amazon, Microsoft et IBM - finissent inévitablement sur toutes les autres (d’autres entreprises mentionnées presque comme souvent Apple, Tencent et Baidu). Dans cet article, nous nous intéresserons à Google et à Microsoft, car en 2018, ces deux personnes sont apparues dans l'actualité pour le domaine de l'IA le plus souvent. Néanmoins, le reste des géants de la technologie n’est en aucun cas moins prolifique, et nous prévoyons d’en couvrir certains plus en détail dans notre prochain article, consacré aux dernières avancées technologiques.

Google

Démonstration des capacités de Google Pixel: Night Sight à partir de Blog Google

Cette année a été fructueuse pour les efforts de Google dans le domaine de l'IA, comme en témoignent le nombre de nouveaux produits que la société a lancés, ainsi que certaines améliorations critiques apportées aux services existants.

Le plus grand nombre d’annonces a été publié par Google I / O, la conférence annuelle des développeurs de la société qui s’est tenue en mai. Google a notamment présenté Smart Compose pour Gmail, mis à jour Google Maps avec une impressionnante mise à jour et, ce qui est peut-être le plus important, annoncé le lancement de son nouvel assistant virtuel basé sur l'intelligence artificielle, baptisé Google Duplex (voir un bon résumé des nouveaux produits et fonctionnalités présentés). chez Google I / O en 2018 ici).

Dans les propres mots de la société:

une nouvelle technologie permettant de mener des conversations naturelles pour effectuer des tâches du «monde réel» par téléphone. La technologie vise à exécuter des tâches spécifiques, telles que la planification de certains types de rendez-vous. Pour de telles tâches, le système rend l'expérience conversationnelle aussi naturelle que possible, permettant aux personnes de parler normalement, comme elles le feraient avec une autre personne, sans avoir à s'adapter à une machine. "

L'enregistrement d'un appel téléphonique à un salon de coiffure fait par Duplex était si impressionnant qu'il a même amené certains à se demander si Google Duplex avait réussi le test de Turing (indice: ce n'est pas le cas; à tout le moins, la personne qui a rendu le jugement a savoir qu’elle parle peut-être à une machine). Cela a également suscité une vive discussion sur le point de savoir s’il était approprié d’utiliser la technologie de cette manière sans informer les destinataires qu’ils n’interagissaient pas avec un être humain, mais parlaient plutôt à un bot. Bien qu'il puisse être difficile de répondre de manière définitive à de telles questions, nous verrons probablement la suite de cette discussion assez tôt, puisque Google a commencé à déployer Duplex sur certains de ses smartphones en décembre.

Une autre mise à jour intéressante de Google est arrivée avec la dernière mise à jour de sa gamme de smartphones Pixel (Pixel 3 et 3 XL), qui propose de nouvelles capacités de caméra vraiment impressionnantes activées par l'utilisation de l'IA (nous y reviendrons plus tard). poste dans une section consacrée aux progrès de la photographie numérique).

Enfin, DeepMind Technologies, détenue à 100% par Alphabet Inc, a réussi à franchir une étape importante avec la dernière itération de son programme AlphaZero.

Nous avons déjà vu les réalisations impressionnantes d’AlphaGo et d’AlphaGo Zero dans le jeu de Go en 2015 et 2016, lorsqu’il a facilement remporté la plupart des matchs face à deux des plus forts champions de Go; Cependant, en 2018, l’équipe de DeepMind a réussi à réaliser quelque chose d’intéressant: le tout dernier moteur AlphaZero a démontré sa supériorité sur tous les moteurs les plus puissants existants en matière d’échecs, de shogi et de Go.

Ce qui est particulièrement intéressant chez AlphaZero, c’est qu’il a réussi à réaliser cet exploit sans avoir à étudier les journaux de jeu des hommes; au lieu de cela, le programme a appris par lui-même comment jouer aux trois jeux, ne disposant que des règles de base pour commencer. En effet, en fonctionnant sans les limitations inhérentes à l’apprentissage des jeux précédemment joués, AlphaZero a adopté «un style de jeu novateur, hautement dynamique et« non conventionnel »» qui diffère de tout ce qui a été vu auparavant. Cela, à son tour, rend le moteur plus utile à la communauté, qui pourrait alors apprendre de nouvelles tactiques en observant les stratégies développées par la machine. Cela crée également une promesse d’applications futures de cette technologie dans le monde réel, étant donné la capacité d’AlphaZero à tirer des enseignements à partir de rien et à résoudre des problèmes d’information parfaits.

DeepMind travaille également à la création de systèmes capables de gérer des problèmes d’information imparfaits, comme le prouve son récent succès avec AlphaStar, qui a battu quelques joueurs professionnels dans StarCraft II (alors qu’avant, AI avait du mal à jouer avec StarCraft en raison de la complexité).

Microsoft

Julia White, vice-présidente, Microsoft Azure Marketing, prend la parole lors de la Conversations sur l'événement IA à San Francisco. Photo par John Brecher pour Microsoft

Comme à Google, Microsoft a eu le plaisir de jouer au jeu de l'IA en lançant de nouveaux produits et services liés à l'IA en 2018 et d'améliorer certaines des technologies sous-jacentes. Une partie importante de ce travail était centrée sur la communauté et visait à fournir de meilleurs outils et fonctionnalités aux développeurs pour leur permettre de créer des solutions basées sur l’IA sur la plate-forme en nuage de Microsoft.

Fait intéressant, la conférence de développeurs clés de Microsoft appelée «Build» se déroule également en mai, tout comme le fait Google. En 2018, cet événement a été particulièrement chargé pour Microsoft. La société a annoncé un nombre important de nouvelles annonces, et en particulier l’intégration de Project Brainwave dans Azure Machine Learning.

Le projet Brainwave (initialement appelé Catapult) est le résultat de plusieurs années de recherche qui ont débuté chez Bing en 2010. Brainwave a été annoncé à la communauté en août 2017 à Hot Chips, l'une des principales conférences sur les semi-conducteurs. En bref, Brainwave est une plate-forme matérielle sur des puces FPGA, conçue pour accélérer les calculs d'intelligence artificielle en temps réel, un domaine critique pour des services tels que les moteurs de recherche (ce qui explique également pourquoi ce projet est né de Bing). Avec l'intégration de Brainwave dans Machine Learning d'Azure, Microsoft affirme qu'Azure est la plate-forme cloud la plus efficace pour AI.

Lors de Ignite, une autre grande conférence tenue à Orlando en septembre dernier, Microsoft a publié Cortana Skills Kit for Enterprise, une tentative excitante de tester les assistants basés sur l'intelligence artificielle dans les bureaux. Pensez au cas où vous pouvez programmer un bot pour pouvoir planifiez un service de nettoyage pour le bureau ou soumettez automatiquement un ticket au service d’assistance guidé par votre brève commande vocale.

Quelques jours plus tard, Microsoft annonçait également l’intégration de la fonctionnalité de traduction en temps réel dans SwiftKey, une application de clavier Android acquise par Microsoft en 2016. Enfin, fin septembre, à la suite de Google Duplex, Microsoft a publié son outil Speech Services, introduction de meilleures capacités de synthèse de texte à synthèse vocale.

Plus tard en novembre, une autre série d’annonces intéressantes, telles que Cognitive Services Containers. Les services cognitifs permettent aux développeurs d'exploiter l'intelligence artificielle dans leurs applications sans être obligés d'être des experts en data science ou de posséder des connaissances étendues en matière d'intelligence artificielle. L’histoire du conteneur, quant à elle, est centrée sur les cas d’Edge Computing - un concept dans lequel il n’est pas nécessaire d’envoyer les données au cloud pour effectuer des calculs mais plutôt les traiter localement, ce qui permet de réduire la latence et d’optimiser les coûts. Avec Cognitive Services dans des conteneurs, les clients de Microsoft peuvent désormais créer des applications qui exécuteront une intelligence artificielle aux emplacements Edge.

Investissements

Top 100 startups en IA, de Perspectives CB

Les investissements dans l’espace d’intelligence artificielle ont récemment explosé, bien que, comme l’a raisonnablement annoncé Crunchbase, il soit difficile d’estimer de combien. CB Insights a construit une bonne infographie de l'espace d'intelligence artificielle et a découpé et découpé les meilleures startups par catégories de cet article. Nous voyons ici deux points importants à retenir. Premièrement, les sociétés chinoises telles que SenseTime et Face ++ (respectivement 1,6 et 0,6 milliard de dollars) ont collecté les fonds les plus importants du secteur de l'IA. Deuxièmement, sur 11 licornes existantes avec une valorisation estimée à plus de 20 milliards de dollars, 5 sociétés sont chinoises et contribuent jusqu'à 50% de la valeur totale, SenseTime est en tête du groupe avec une valeur impressionnante de 4,5 milliards de dollars. Cela souligne un point critique: la Chine semble progresser plus rapidement que d’autres pays. De plus, avec son empreinte de plus en plus grande, la Chine est en train de devenir le centre névralgique du secteur de l'IA. (Pour plus de détails, consultez ce résumé décrivant les différentes stratégies nationales d'IA que les pays du monde entier poursuivent aujourd'hui).

Ethique, réglementation et éducation

Fausse controverse

Faux extraits des discours du président Obama générés par AI, de The Verge

En décembre 2017, Motherboard a publié un article sur un utilisateur de Reddit, baptisé «deepfakes», qui publiait des vidéos hardcore sur des visages de célébrités gravées sur le corps de stars du porno. Bien que pas parfait, ces vidéos étaient tout à fait crédibles, surtout si elles ont été réalisées par une seule personne. Bien que Reddit ait rapidement interdit les vidéos, le débat sur la légalité et les utilisations abusives potentielles de cette technologie n'a fait que s'intensifier depuis.

La technologie derrière la création de fausses vidéos en échangeant les visages d'acteurs existe depuis un moment déjà, mais la facilité de création et la qualité ont définitivement atteint un nouveau niveau en 2018 (voir un autre exemple de ce qu'un utilisateur averti des technologies pourrait réaliser ici ). Faire de fausses vidéos porno, bien que déconcertant, peut encore être relativement inoffensif, mais comme nous l'avons vu récemment, la même technologie pourrait être utilisée pour générer de fausses informations ou créer de faux supports de propagande (ou faire dire au président Barack Obama des choses qu'il ne dirait jamais, du moins pas en public), ce qui pourrait avoir de graves répercussions pour nous en tant que société. Pourrait-on faire quelque chose à ce sujet? Cela reste à voir, mais le fait est que les contrefaçons profondes sont là pour rester et qu’il sera probablement encore plus difficile de les distinguer de la réalité.

Biais de l'IA

Photo tirée du blog de Microsoft "Reconnaissance faciale: il est temps d'agir"

Au cours des dernières années, les approches d’apprentissage supervisé et non supervisé ont donné des résultats intéressants (AlphaZero de DeepMind est un exemple de ce qui pourrait être réalisé par un apprentissage non supervisé). Néanmoins, un grand nombre d’applications du monde réel nécessitent des modèles de formation sur des données étiquetées (ce qui, d’ailleurs, est l’un des problèmes majeurs qui freine souvent les progrès ultérieurs).

Cependant, avoir un grand ensemble de données étiquetées pour former le modèle n’est pas tout à fait la même chose que d’avoir un bon jeu de données. Vous voyez, les réseaux de neurones s’appuyant sur l’apprentissage supervisé ne valent que sur les données sur lesquelles ils ont été initialement formés. Ainsi, si le jeu de données sous-jacent présente des défauts (comme se concentrer sur une caractéristique au détriment d’autres), il est probable que le réseau prendrait en compte ces biais et les amplifierait davantage. Cela pourrait ne pas sembler trop grave en théorie, mais seulement jusqu’à ce que nous prenions en compte les problèmes potentiels qui en découlent dans les applications du monde réel - et comme nous l’avons vu en 2018, ceux-ci pourraient être assez profonds.

Par exemple, dans l’étude réalisée par Joy Buolamwini, chercheuse à la M.I.T. Media Lab, elle a démontré que les principaux systèmes de reconnaissance des visages de Microsoft, IBM et Megvii classaient de manière erronée le sexe de seulement 1% des hommes de race blanche, mais avaient commis des erreurs chez près de 35% des femmes à la peau plus sombre. La raison? Ces modèles ont été formés sur un jeu de données biaisé contenant une plus grande proportion de photos d’hommes blancs et ont donc progressivement amélioré leur capacité à reconnaître correctement leur sexe. Compte tenu du fait que les forces de l'ordre utilisent de plus en plus les technologies de reconnaissance faciale, et que les Afro-Américains ont plus de chances d'être distingués car ils sont représentés de manière disproportionnée dans des bases de données de tir à la cible, de tels écarts de performances pourraient avoir un impact très négatif.

Un autre exemple célèbre du même problème qui a été rendu public en 2018 est celui associé à l'outil de recrutement interne d'Amazon développé par AI. Amazon souhaitait exploiter les capacités d'apprentissage machine pour permettre des processus de recrutement plus efficaces et, potentiellement, automatiser certaines de ces étapes. Malheureusement, il s’est avéré que l’outil susmentionné avait été formé sur les curriculum vitae des personnes qui avaient précédemment présenté leur candidature à la société, et la majorité d’entre eux étaient des hommes. En conséquence, le modèle a pris conscience de ces préjugés et s’est formé à son tour à dégrader les candidatures féminines, en privilégiant des éléments tels que le «langage masculin» pour promouvoir les applications masculines. Amazon a finalement abandonné l'outil, mais de nombreuses autres sociétés tentent de tirer parti de l'intelligence artificielle pour faciliter le processus de recrutement, dont les modèles pourraient présenter des défauts similaires.

Aujourd'hui, un nombre croissant de personnes (et d'entreprises) demandent aux autorités d'élaborer des cadres réglementaires régissant l'utilisation de la reconnaissance faciale. Cela arrivera-t-il de sitôt? Cela reste à voir, mais il y a des chances qu'un certain niveau de surveillance soit mis en place.

La voiture autonome d’Uber tue des piétons en Arizona

Véhicule autonome Uber Volvo XC90, image tirée d'un article du MIT Technology Review

Même la technologie la plus avancée est malheureusement tenue de faire des erreurs occasionnellement dans des environnements complexes et indéterministes. Et ainsi, le 18 mars 2018, ce qui devait arriver est arrivé, un véhicule autonome appartenant à Uber a frappé et tué un piéton à Tempe, en Arizona. Cet accident a obligé la société à suspendre tous les tests de ses voitures sans conducteur et à réexaminer ses processus et sa technologie; elle a également suscité une discussion animée sur l'état actuel de la technologie des voitures autonomes, ainsi que sur les défis éthiques et réglementaires à relever pour que les véhicules autonomes soient de plus en plus acceptés par le grand public.

Neuf mois plus tard, Uber était autorisé à reprendre ses essais de voitures autonomes à Pittsburgh, suivis par San Franciso et Toronto en décembre, bien que, dans ces cas, les véhicules autonomes d’Uber restaient limités au «mode manuel» (ce qui signifiait en se concentrant sur l'exposition du logiciel des voitures à de nouvelles circonstances, plutôt que d'exécuter des tests actifs). Pour obtenir de nouveau la grâce des autorités, Uber devait, entre autres, accepter de nouvelles restrictions concernant les types de routes et les conditions dans lesquelles il était autorisé à utiliser ses véhicules autonomes. De plus, Uber a dû passer à un système offrant une formation plus rigoureuse aux conducteurs (élément essentiel, car l'enquête sur l'accident mortel survenu en mars a montré que le conducteur était distrait et ne prêtait donc pas attention à la route, il était censé), maintenant appelé «spécialistes de la mission». Enfin, la société a mis en place un système de surveillance par un tiers et a également apporté des améliorations supplémentaires à sa technologie.

Néanmoins, il semble très peu probable que nous ayons mis un terme à la discussion sur la sécurité publique et les réglementations nécessaires en matière de véhicules autonomes; l’accident malheureux d’Uber n’a fait qu’alimenter le débat en cours. Nous verrons ce que l’année 2019 nous apportera; Cependant, nous pouvons être certains que les deux ou trois prochaines années seront probablement déterminantes pour la formation de l’opinion publique sur le sujet des voitures autonomes.

Pour ceux qui sont curieux d’histoire et de l’état actuel des véhicules autonomes, nous vous conseillons de consulter ce guide détaillé des voitures autonomes de Wired.

MIT investit 1 milliard de dollars dans un nouveau collège d'IA

Photo: Dôme du MIT, par Christopher Harting

Le 15 octobre 2018, le MIT a annoncé la création d'un nouveau collège, le MIT Stephen A. Schwarzman College of Computing, d'après le cofondateur et PDG de Blackstone, qui a fait un don fondamental de 350 millions de dollars. Le nouveau collège se concentrera sur les opportunités et les défis mondiaux présentés par la montée de l'intelligence artificielle.

Le MIT jouit déjà d'une très forte réputation sur le terrain (sans compter que ses efforts dans le domaine de l'intelligence artificielle remontent au tout début de ce domaine à la fin des années 50). Il est toutefois difficile de surestimer l’importance de ce dernier développement. Par exemple, le don de Schwarzman permettra la création de 50 postes de professeurs supplémentaires dédiés à la recherche sur l’IA, doublant ainsi le nombre de chercheurs spécialisés en informatique et en IA du MIT.

L’accent mis sur la collaboration interdisciplinaire, ainsi que la recherche sur les politiques et l’éthique pertinentes pour assurer une mise en œuvre responsable de l’IA, mérite également d’être souligné - bien que nous ayons vu un certain nombre de groupes de réflexion et d’initiatives de recherche axés sur ces sujets créés dans le Au cours des dernières années, il est bon de voir l'engagement du MIT, car il reste encore beaucoup de travail à faire sur le sujet.

Applications de l'IA: photographie numérique

Image générée par l'application Prisma à partir de Interne du milieu des affaires

La photographie numérique, au sens le plus large du terme, est un domaine dans lequel l’IA a réalisé ces dernières années peut-être les avancées les plus remarquables, du moins du point de vue du consommateur. Malgré tout, alors que de nombreuses avancées ont été réalisées dans ce domaine au cours des années précédentes (par exemple, Google Photos apprend à marquer et classer automatiquement les photos par catégorie en 2015 ou iPhone 7 à obtenir la possibilité de flouter automatiquement l'arrière-plan des photos prises en mode portrait. en 2016), nous avons assisté en 2018 à un certain nombre de prouesses technologiques particulièrement impressionnantes qui ont permis de passer aux produits de masse.

Des fonctionnalités telles que le mode Night Sight de Google Pixel ou les fonctionnalités Smart HDR disponibles sur les iPhone XS et XS Max ne sont que quelques exemples de ce qui a été rendu possible grâce à l’utilisation de l’intelligence artificielle. Ce qui est peut-être encore plus intéressant ici, c’est que ces nouvelles fonctionnalités ont clairement démontré la capacité de l’intelligence artificielle d’apporter des améliorations qui vont au-delà des limitations physiques des caméras, plaçant ainsi le champ complet sur une nouvelle voie passionnante. De ce fait, la photographie numérique a déjà fait ses preuves à la fois pour les habitués des autres avancées dans le domaine de l'IA et pour les utilisateurs très éloignés du terrain.

Un autre aspect des applications de photographie informatique concerne le fait que le réseau de neurones est utilisé pour retravailler complètement l’image à l’aide d’un algorithme permettant d’ajuster la sortie pour ressembler à l’œuvre d’artistes célèbres, tels que Van Gogh ou Monet (voir par exemple l’application Prisma). Des concepts similaires sont utilisés dans divers domaines de la vision industrielle et présentent des avantages, par exemple pour les voitures sans conducteur.

Nous aborderons davantage de technologies spécifiques, telles que les GAN à grande échelle et la synthèse vidéo à vidéo, qui ont récemment connu des avancées significatives, dans le prochain article d'Evolution One, intitulé “Principaux développements récents en intelligence machine”, une plongée en profondeur dans certains des domaines d’intelligence artificielle les plus en vogue, tels que le traitement du langage naturel et la vision par ordinateur.

Afficher plus

SupportIvy

SupportIvy.com : Un lieu pour partager le savoir et mieux comprendre le monde. Meilleure plate-forme de support gratuit pour vous, Documentation &Tutoriels par les experts.

Articles similaires

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Bouton retour en haut de la page
Fermer