Intelligence artificielle

Voici les 8 types d’intelligence artificielle, et ce qu’il faut savoir sur eux: Artificielle…

Voici les 8 types d’intelligence artificielle, et ce qu’il faut savoir sur eux: Artificielle…


L'intelligence artificielle (IA) est un terme largement utilisé, semblable au mot fabrication, qui peut couvrir la production de voitures, de gâteaux ou d'ordinateurs. Son utilisation comme terme général masque l’importance de préciser le but de l’IA. La finalité influe sur le choix de la technologie, sa méthode de mesure et l'éthique de son application.

A la base, l'IA repose sur différents objectifs de méta-niveau. Comme Bernard Marr le commente dans Forbes, il est nécessaire de faire la distinction entre «la capacité à reproduire ou à imiter la pensée humaine» qui a conduit beaucoup d’intelligence artificielle à des modèles plus récents qui «utilisent le raisonnement humain comme modèle mais pas comme objectif final». Comme la définition générale de l'IA peut varier, son objectif varie également au niveau appliqué.

D'après mon analyse, il existe au moins huit types d'objectifs dans l'IA conversationnelle appliquée. Dans chacun d'eux, il y a une intention principale, comme suggéré dans ce tableau:

Actuellement, l'objectif commun de l'IA conversationnelle est transactionnel. Selon un rapport de Statista de 2017, le public considère que les chatbots sont avant tout des interactions plus immédiates, personnalisées et simples avec les marques de leur choix. Cela peut refléter le fait que certaines sociétés cachent la finalité transactionnelle de leurs chatbots dans des interfaces qui semblent proposer des jeux, des diagnostics ou des informations permettant de dissimuler des ventes in-game, des offres 2 en 1 ou des offres de voyage. Plus généralement, cela montre plus probablement que l'IA conversationnelle à des fins transactionnelles est plus facile à mettre en œuvre et à monétiser.

Le rapport Statista suggère toutefois que les chatbots gagnent en popularité dans des domaines plus complexes, à vocation diagnostique ou comportementale, tels que les soins de santé, les télécommunications et la finance. Ces systèmes d'IA conversationnels, en particulier dans les domaines à haut risque tels que la santé, sont plus difficiles à développer et à monétiser; ils peuvent être un jeu à plus long terme.

La clarté de l'objectif détermine les choix délibératifs concernant la technologie. Par exemple, pour déterminer comment un système d'IA conversationnel est formé, dans quelle mesure il s'auto-apprend et s'il est nécessaire ou souhaitable de garder un être humain au courant. À cet égard, le débat sur l'IA conversationnelle «pure» (réseaux de neurones et apprentissage en profondeur) par rapport à l'IA «simple» (systèmes basés sur des règles) n'a de sens que par rapport à son objectif. Alors que les systèmes hybrides vont probablement devenir davantage la norme, son état actuel suggère que l’IA simple (plus prévisible) avec un être humain à la boucle est plus pertinente pour les objectifs de diagnostic et de comportement, et qu’il est possible de prendre plus de risques si est enjoué ou social.

Cela dit, le chatbot Tay de Microsoft a démontré les dangers de libérer un chatbot autodidacte dans une salle publique alors qu’il apprenait le discours de haine en quelques heures. Cela sert de rappel utile que toute l'IA conversationnelle actuelle est basée sur des statistiques et non sur des systèmes de croyance. Pour cette raison, certains recommandent de garder un être humain au courant des autres choix technologiques. Comme le commente Martin Reddy:[K]Etre un homme dans la boucle de la génération de dialogue initiale peut en fait être une bonne chose, plutôt que quelque chose que nous devons chercher à éradiquer (…) Les solutions de génération de langage naturel doivent permettre à un «directeur créatif» humain capable de contrôler le ton, le style et la personnalité du personnage synthétique. "

Sur ces points, il est essentiel de souligner qu'un système d'IA conversationnel est dynamique. Beaucoup de constructeurs de chatbot disponibles dans le commerce pourraient rendre cela plus clair. Il existe une notion selon laquelle vous construisez, puis déployez puis modifiez. En réalité, vous générez en permanence en fonction des journaux de conversation et des métriques que vous jugez pertinentes. Je dirais que ces mesures doivent être dictées par le but du système que vous créez.

Je suis troublé par les mesures numériques dominantes qui semblent avoir été appliquées à l'IA conversationnelle. Le mantra de «combien, combien de fois, combien de temps» n'est pas adapté à de nombreux objectifs mais continue de dominer la manière dont le succès est mesuré. Il est peut-être temps d'ajouter un peu moins de ventes et une plus grande quantité de preuves aux discussions sur les métriques.

Bien que les taux de conversion et de rétention soient des mesures valables de la participation aux outils numériques, leur objectif doit être contextualisé. Par exemple, un utilisateur qui s'engage 10 fois par jour est-il un résultat positif pour un outil axé sur le bien-être ou est-ce un échec de tout système de tri / signalisation? Peut-être est-il temps de considérer une utilisation utile comme meilleur indicateur de la valeur de l'IA conversationnelle.

Nous avons récemment collaboré avec Permobil, un fabricant suédois de technologies d'assistance, pour proposer aux clients de fauteuils roulants une intelligence artificielle conversationnelle axée sur des éléments de diagnostic et de changement de comportement, tels qu'un exercice assisté par un actionneur électrique visant à réduire les escarres. Bien que la plupart des utilisateurs aient trouvé le système utile, il existait différents modèles d'utilisation préférée, relativement peu de personnes souhaitant l'utiliser quotidiennement. Combinées aux données, telles que le temps passé dans le fauteuil roulant et la condition sous-jacente de l'utilisateur, l'intégration des modèles d'utilisation préférés peut piloter des algorithmes pour l'IA conversationnelle centrée sur l'utilisateur. Plus un système est personnalisé pour l'utilisateur, meilleurs sont les résultats probables en termes de ventes et de fidélisation de la clientèle.

À mon avis, les gagnants à long terme dans l'espace de l'IA conversationnelle seront ceux qui peuvent démontrer une utilisation significative et des résultats bénéfiques découlant directement de la raison d'être de leurs systèmes. Les résultats liés aux objectifs, au-delà de ceux appliqués à l'IA conversationnelle transactionnelle, sont le meilleur facteur de succès des modèles commerciaux.

Il est plus facile de suivre les résultats à certaines fins que d’autres. UNE Dérive Le rapport a identifié un service 24 heures sur 24, des réponses instantanées et des réponses à des questions simples comme étant les résultats essentiels pour le consommateur pour les chatbots dans le domaine des services à la clientèle. Il est plus facile de suivre ces mesures que les résultats de l'IA conversationnelle à des fins diagnostiques ou comportementales, qui nécessitent souvent des approches scientifiques plus rigoureuses.

L’engagement dans la recherche sur les avantages de l’intelligence artificielle conversationnelle est essentiel pour accroître la confiance des clients et leur utilisation de ces outils, ainsi que pour les stratégies de monétisation. La compréhension en langage naturel a un rôle intéressant à jouer dans l’analyse des résultats. Par exemple, au service de santé mentale numérique Big White Wall, il était possible de prédire PHQ 9 [an instrument used for screening, diagnosing, monitoring and measuring the severity of depression] scores et GAD 7 [General Anxiety Disorder self-report questionnaire] scores avec des niveaux de confiance élevés avec seulement 20 mots non continus fournis par un utilisateur.

Par extrapolation, il est tout à fait possible que les changements de langage (mots, ton, rythme) deviennent des mesures valables et habituelles des résultats liés à l'objectif. La notion selon laquelle nous n’avons peut-être plus besoin d’une évaluation formelle et de mesures de résultats, mais simplement d’outils sensibles pour analyser le langage est passionnante. Cela soulève également une foule de questions éthiques qui sous-tendent le degré de confiance et d'adoption de l'intelligence artificielle conversationnelle.

Nous vivons à une époque où le progrès technologique a jeté le gant de la pratique éthique, notamment dans le domaine de l'IA conversationnelle. Je soutiendrais que la clarté de l'objectif, qui se reflète dans la manière dont l'engagement et les résultats sont mesurés, contribue dans une large mesure à garantir un cadre d'intégrité éthique. À cet égard, six principes pourraient aider à définir ce cadre:

À moins que vous ne participiez au prix Loebner, où les juges s'attendent à être amenés à croire qu'un bot est humain, rien ne justifie de présenter un bot en tant que personne.

Il s’agit d’un débat plus nuancé que l’engagement de lutter contre les fausses nouvelles, de traiter les clients avec intégrité ou de pouvoir réagir aux problèmes lorsque quelqu'un dit à un bot qu’il va se faire du mal à soi-même. C'est aussi une question de choix. Par exemple, des recherches ont montré que certaines personnes préféraient parler à un bot pour améliorer le service à la clientèle ou parce qu'elles pouvaient être plus ouvertes.

2. Être transparent dans le but

Bien qu'un système d'IA conversationnel puisse avoir plusieurs objectifs, il est important de ne pas dissimuler son intention première. Si un système d'IA conversationnel semble avoir un but d'information avec une intention cachée de vente, il devient difficile pour un consommateur de faire confiance à l'information ou d'être enclin à acheter ce qui est proposé.

Il s’agit là de considérations sérieuses pour des systèmes comme Alexa d’Amazon pour lesquels Amazon a été apparemment conçu. Amazon déclare que Choice permet d’économiser du temps et des efforts pour les articles très bien notés et abordables grâce à l’envoi Prime. Toutefois, il est moins clair s'il s'agit d'informations factuelles ou s'il y a plus de critères en jeu, tels que la définition des priorités des produits Amazon.

Comme suggéré précédemment, les mesures doivent être liées à l'objectif et avoir un sens pour les clients. De plus en plus, les entreprises et les organisations pouvant démontrer des preuves valables et indépendantes du fait que leurs systèmes d'IA conversationnels font une différence par rapport à leur objectif seront privilégiées par rapport à celles qui enterrent des métriques douteuses en marketing.

Dans le domaine numérique, certains modèles commerciaux encouragent les comportements éthiques médiocres. Prenons, par exemple, les revenus publicitaires générés par des points de vue dans lesquels des géants des médias sociaux ont délibérément créé des dispositifs provoquant une dépendance, tels que le défilement infini et les "likes". Aza Raskin, la créatrice du parchemin infini, a décrit cela comme une «cocaïne comportementale». Il dit: "Derrière chaque écran de votre téléphone, il y a généralement un millier d'ingénieurs qui ont travaillé sur cette chose pour essayer de la rendre totalement dépendante."

Le rythme des changements technologiques, avec la monétisation prenant souvent du retard, peut avoir des conséquences inattendues. Par exemple, Airbnb doit maintenant lutter contre les agences de «gestion de l’air» qui gonflent les prix et perturbent les communautés locatives locales. Les mêmes tendances et tentations sont en jeu avec l'IA conversationnelle. En tant qu’industrie de l’intelligence artificielle, notre travail consiste à élaborer des modèles d’entreprise fondés sur une utilisation judicieuse et sur des résultats orientés vers un objectif précis.

Dans le domaine dynamique et imprévisible de l'IA conversationnelle, les questions éthiques ne sont pas toujours prévisibles. Lorsque des problèmes surgissent, nous devons faire preuve de leadership et faire vivre le principe du «ne pas faire de mal». Par exemple, le fabricant Genesis Toys n'a pas pu être contacté pour commenter lorsque les régulateurs allemands ont retiré leur poupée interactive du marché après l'avoir utilisée pour la surveillance à distance. Il semble que Cayla se soit montrée plus responsable que ses responsables. Lorsqu'on lui a demandé «Puis-je te faire confiance?», Elle a répondu: «Je ne sais pas». L'industrie doit assumer ses responsabilités en collaboration et il est à espérer que des initiatives telles que le AI va jouer ce rôle.

Un manque d'autorégulation affecte un secteur et pas seulement une marque. L'année dernière, les chercheurs de Facebook ont ​​présenté avec fierté un bot capable de tromper dans les négociations. Dans DériveSelon le rapport ChatBot, 27% des consommateurs seraient dissuadés d’utiliser un chatbot s’il n’était disponible que via Facebook.

En conclusion, l'IA conversationnelle a un potentiel énorme et excitant pour enrichir l'expérience humaine. Cependant, à mon avis, les gagnants à long terme dans cet espace seront ceux qui ne privilégient pas le gain économique par rapport à la pratique éthique. Les marques qui gagneront le plus en popularité seront dirigées par des pionniers aux objectifs transparents dans la pratique, qui mesurent des résultats significatifs et qui monétisent sur des bases équitables plutôt que fausses.

Show More

SupportIvy

SupportIvy.com : Un lieu pour partager le savoir et mieux comprendre le monde. Meilleure plate-forme de support gratuit pour vous, Documentation &Tutoriels par les experts.

Related Articles

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Close
Close