Intelligence artificielle

Privacy First – Pourquoi l’intelligence artificielle d’aujourd’hui est-elle endommagée et comment la réparer?

Privacy First - Pourquoi l’intelligence artificielle d’aujourd’hui est-elle endommagée et comment la réparer?


Photo par Dayne Topkin sur Unsplash

L'intelligence artificielle est sur le point de commencer une transformation aussi importante que celle qu'a connue le monde pendant la révolution électrique. L'intelligence artificielle est une technologie qui sera partout et partout. C’est encore une fois l’automatisation, mais cette fois alimentée par les données. Dans une étude récente, IDC prévoit que le marché de l'IA atteindra 200 milliards de dollars jusqu'en 2025, dominé par des géants de la technologie tels que Google, Amazon et Microsoft, proposant des solutions d'IA et des API basés sur le cloud. Andrew Ng, ancien scientifique en chef des données de Baidu, a utilisé de nombreuses fois l’analogie étonnante de l’IA et de l’électricité, soulignant la rareté des données comme obstacle majeur au ralentissement de l’IA, car les méthodes d’IA traditionnelles nécessitent une énorme quantité de données pour former des modèles. Un problème qui s’avère beaucoup plus profond que ce à quoi nous nous attendions, et les consommateurs crient haut et fort pour ne pas se sentir à l’aise avec le partage de données. Afin de répondre à ces préoccupations et de faciliter la libre circulation des lois sur les données, des cadres et des conseils consultatifs se multiplient comme des champignons. Le plus populaire est le règlement de 119 pages du Parlement européen (alias GDPR), un chef-d'œuvre de réglementations complexes, qui a non seulement semé la panique dans les équipes d'ingénierie du monde entier, mais a également amené le consommateur à s'interroger sur le droit nouvellement acquis d'être oublié. (plus des dialogues de confirmation insupportables lorsque vous naviguez sur le Web.) Le droit d'être oublié est reconnu comme une victoire majeure pour la protection de la vie privée des personnes par l'effacement de leurs informations sur Internet. Cependant, les données ont vraisemblablement été utilisées pour former un modèle - comment apprendre à une machine à désapprendre?

Comment résoudre le dilemme de la vie privée?
Il n’existe pas de réponse simple en matière de confidentialité des données, et la vérité pourrait être, comme d’habitude, un mélange de différentes méthodes, qui doivent être appliquées dans le bon contexte. Une technologie prometteuse a été annoncée discrètement dans une note complémentaire lors de Google I / O 2019, où Sundar Pichai a présenté TensorFlow, une technologie distribuée préservant la confidentialité, destinée à la formation d'IA sur de petits ensembles de données. Simplifié: Federated Learning change de modèle de formation. Au lieu de centraliser les données sur les serveurs, le modèle est envoyé aux données où il extrait les connaissances et uniquement le modèle mathématique sous-jacent.

Les poids sont renvoyés dans le nuage, où les modèles de plusieurs contributeurs sont agrégés dans un modèle global et partagés avec la communauté. Comme les données ne quittent jamais votre appareil, cela élève les normes de confidentialité à un nouveau niveau. Google a appliqué cette technique sur Gboard, le clavier numérique intelligent de Google, pour améliorer la prédiction du mot suivant, en apprenant par exemple ce que vous souhaitez taper. En plus de garantir la confidentialité des données et une sécurité accrue des données, cela permet également aux modèles d'apprendre à partir de petites données.

En quoi est-ce important?
L'apprentissage réparti est un instrument puissant qui donne aux entreprises de haute technologie un avantage concurrentiel pour transformer les données distribuées en connaissances et, en définitive, posséder des modèles d'IA supérieurs sans avoir à demander au consommateur des données, comme OWKIN, financé par Google Venture, qui est un pionnier dans l'apprentissage fédéré. les soins de santé pour surmonter le problème du partage des données, en construisant une intelligence collective à partir de données distribuées à grande échelle tout en préservant la confidentialité et la sécurité des données.

Quels sont les défis?
L'apprentissage fédéré est en train de changer le jeu de l'apprentissage de l'intelligence artificielle, mais il y a aussi des défis à relever: la formation de modèle et l'évaluation sur un ensemble de données non vu seront tout d'abord déconcertantes. Aujourd'hui, l'apprentissage fédéré est limité à un ensemble restreint d'applications dans lesquelles les étiquettes nécessaires peuvent être dérivées directement sans que l'utilisateur doive effectuer un travail supplémentaire. Encore plus difficile, les cas où les fonctionnalités ne sont pas statiques, comme dans un contexte d'entreprise. Outre le facteur humain, la mentalité bien établie d'agrégation centralisée des données afin de créer des modèles client spécifiques pour des avantages concurrentiels est un autre défi qui ralentit l'adoption d'un apprentissage fédéré.

À première vue, Federated Learning s'attaque au problème de la confidentialité et de la sécurité des données, qui n'est pas faux, mais qui peut réellement réduire considérablement la quantité de données nécessaire tout en formant un modèle, ce qui rend l'intelligence accessible aux consommateurs sans données volumineuses tirer parti de l'intelligence en tant que service, qui peut avoir un impact déterminant, en particulier pour les PME. En fin de compte, nous permettrons de former des modèles, qui n’avaient pas pu être formés auparavant en raison du manque de données.

Afficher plus

SupportIvy

SupportIvy.com : Un lieu pour partager le savoir et mieux comprendre le monde. Meilleure plate-forme de support gratuit pour vous, Documentation &Tutoriels par les experts.

Articles similaires

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Bouton retour en haut de la page
Fermer