Intelligence artificielle

Apprentissage profond dans l'interface cerveau-ordinateur

Apprentissage profond dans l'interface cerveau-ordinateur


Le concept de contrôler les appareils uniquement avec notre esprit n'est pas nouveau. La science-fiction et les films hollywoodiens sont connus pour illustrer cela. Plusieurs études et expériences ont été menées, telles que des singes contrôlant des bras robotiques pour se nourrir, contrôlant un fauteuil roulant et contrôlant des curseurs pour taper environ huit mots par minute.

Outre les dispositifs de contrôle, différentes applications et études des BCI sont:

  • Habitudes de sommeil
  • épilepsie
  • trouble d'hyperactivité avec déficit de l'attention (TDAH)
  • troubles de la conscience
  • profondeur d'anesthésie
  • fatigue et charge de travail mental
  • ambiance
  • émotions

Notre cerveau peut produire différents signaux au cours d'une expérience en raison de la fatigue, de l'humeur et même de mouvements corporels subtils tels que le clignement des yeux. En conséquence, un classificateur formé sur un utilisateur particulier peut mal se généraliser aux données enregistrées à un moment différent sur le même individu.

Les signaux EEG sont hautement spécifiques à l'utilisateur, en tant que tels, la plupart des systèmes BCI sont calibrés pour chaque utilisateur. Dans la recherche du Georgia Institute of Technology, ils ont obtenu une précision de 38% sur des sujets invisibles (ne faisant pas partie de l'ensemble de données de formation) et 75% sur des sujets vus.

Hajinoroozi et al. ont testé à la fois les prédictions intra-sujet et inter-sujet, et les résultats ont montré que les modèles inter-sujet étaient toujours moins performants que les modèles intra-sujet.

Dans la collecte de données, la vérité fondamentale est généralement déterminée sur ce que le sujet doit accomplir. Par conséquent, il peut être délicat car il est impossible de savoir ce que le sujet pense ou où le sujet se concentre précisément.

BCI est particulièrement difficile car la théorie est partagée avec plusieurs disciplines:

  • neuroscience
  • traitement de signal
  • apprentissage automatique
  • intelligence informatique
  • sciences cognitives
  • la physique

Ces défis montrent pourquoi le déploiement des systèmes BCI sur le marché de masse est un défi monumental.

Il est difficile de décoder l'activité électrique du cerveau avec une grande variabilité et un bruit non stationnaire en un signal significatif. Ces difficultés conduisent à l'utilisation d'algorithmes d'apprentissage automatique pour résoudre les applications BCI.

Le deep learning a la capacité d'extraire des fonctionnalités et d'apprendre des représentations hiérarchiques à partir de données de haute dimension et a conduit à de nombreuses applications du monde réel dans le domaine de la vision par ordinateur et du traitement du langage naturel. Compte tenu de son efficacité dans d'autres domaines, l'apprentissage en profondeur semble prometteur d'apprendre des données EEG brutes pour extraire de meilleures fonctionnalités pour améliorer les performances et la robustesse.

Un ensemble de données EEG est des modèles d'apprentissage profond de grande dimension avec un grand nombre de paramètres qui pourraient être en mesure d'apprendre directement les signaux EGG bruts.

Machine Boltzmann restreinte

Réseau neuronal récurrent

La mémoire à court terme (LSTM) est une architecture RNN composée de blocs de mémoire qui utilisent des unités de déclenchement avec une cellule de mémoire auto-connectée. LSTM résout le problème du gradient de fuite que subissent les RNN traditionnels.

Réseau de neurones convolutifs

CNN a surpassé les précédents vainqueurs du concours BCI sur plusieurs tâches. Cependant, un ensemble de SVM a obtenu des performances légèrement meilleures que l'approche CNN. Plusieurs études ont exploré l'idée de combiner DBN avec CNN et RNN avec CNN. La combinaison de DBN avec CNN donne des résultats prometteurs.

Schirrmeister et al. a exploré l'effet des modèles CNN peu profonds et profonds. Ils montrent que les modèles peu profonds (5 couches) entièrement convolutionnels fonctionnent mieux que les modèles profonds.

Zhang et al. évalué que la profondeur allant de 2 à 10 surpasse les modèles plus profonds en termes d'exactitude, de précision, de mesure F et de moyenne G.

En raison du petit nombre d'échantillons de formation disponibles pour BCI, de nombreux travaux de recherche suggèrent que ces architectures moins profondes avec beaucoup moins de paramètres se sont avérées plus utiles.

Ces types de bruit suggèrent l'utilisation de la régularisation afin de maintenir les poids du réseau petits pour réduire le sur-ajustement. Les méthodes de régularisation courantes pour les réseaux de neurones sont L1 et L2, qui ajoutent une pénalité aux poids en fonction de leur amplitude et de leur signe. La technique d'abandon est également très couramment utilisée.

Ces techniques de régularisation améliorent généralement légèrement les performances et la plupart des recherches ont utilisé au moins une technique de régularisation.

Dans BCI, de nombreuses tâches différentes et différents ensembles de données ont été utilisés dans la recherche, les résultats rapportés sont fortement influencés par la recherche individuelle pour cet ensemble de données particulier. Les indicateurs et la méthodologie de performance des rapports varient d'une étude à l'autre, faute de méthodologie de rapport standardisée.

La reproductibilité est cruciale pour faire avancer un champ; cela a été vu dans la communauté de la vision par ordinateur où les progrès technologiques progressent très rapidement. Avec la disponibilité d'un ensemble de données open source et le partage de codes, la communauté de la vision par ordinateur atteint des performances de pointe adaptées aux applications du monde réel.

Malheureusement pour les études BCI, de nombreux chercheurs utilisent un ensemble de données privé et ne publient pas leurs codes publiquement. L'acquisition de données est plus coûteuse et les données annotées nécessitent des contributions d'experts en la matière.

Les modèles d'apprentissage en profondeur sont parfaits pour mémoriser un ensemble de données, mais étant donné que l'EEG a un faible rapport signal / bruit, les modèles peuvent mémoriser des données de bruit. Par conséquent, les performances sont considérablement affectées, même avec diverses techniques de régularisation.

Zhang et al. a souligné que les modèles d'apprentissage en profondeur sont vulnérables aux attaques contradictoires. La conséquence pourrait aller de la simple confusion et de la frustration de l’utilisateur à une réduction significative de la qualité de vie de l’utilisateur et même à un danger délibéré pour l’utilisateur.

Généralement, les modèles d'apprentissage profond sont considérés comme des boîtes noires où ils ne donnent pas un aperçu des phénomènes neurophysiologiques sous-jacents à une décision. Cela rend les cliniciens et les utilisateurs finaux mal à l'aise, en particulier lorsqu'il est essentiel de comprendre comment et pourquoi le modèle produit un résultat pour faire des choix cliniques éclairés. Une étude de Sturm et al. utilise la propagation de pertinence par couche pour transformer les décisions en cartes thermiques indiquant la pertinence de chaque point de données pour le résultat de la décision.

Les modèles d'apprentissage profond peuvent prendre beaucoup de temps à se former; ainsi, il faudrait beaucoup de temps pour calibrer sur les nouveaux utilisateurs et avant chaque utilisation. Nous ne pouvons pas nous attendre à ce que les nouveaux utilisateurs passent des heures à enregistrer leurs schémas cérébraux sur différentes tâches, et nous ne pouvons pas permettre aux utilisateurs de BCI d'attendre chaque fois qu'ils souhaitent utiliser le système.

De nombreuses études sont évaluées hors ligne sur un petit nombre de sujets, mais pour que les applications BCI fonctionnent, l'apprentissage automatique doit fonctionner en temps réel.

L'avancement de l'apprentissage en profondeur est à la traîne en raison du manque de données et de partage de code; les progrès peuvent être beaucoup plus rapides lorsque les chercheurs partagent ouvertement un ensemble de données et des codes.

De nombreux problèmes doivent être résolus avant que les applications BCI puissent être déployées sur le marché de masse.

Afficher plus

SupportIvy

SupportIvy.com : Un lieu pour partager le savoir et mieux comprendre le monde. Meilleure plate-forme de support gratuit pour vous, Documentation &Tutoriels par les experts.

Articles similaires

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Bouton retour en haut de la page
Fermer