Intelligence artificielle

Détection d'anomalies avec les encodeurs automatiques dans TensorFlow 2.0

Détection d'anomalies avec les encodeurs automatiques dans TensorFlow 2.0


Dans ce guide détaillé, j'expliquerai comment le Deep Learning peut être utilisé dans le domaine de la détection d'anomalies. De plus, je vais expliquer comment implémenter un modèle de réseau neuronal profond pour la détection d'anomalies dans TensorFlow 2.0. Tout le code source et l'ensemble de données correspondant sont, bien sûr, disponibles pour téléchargement - sympa;)

  1. introduction
  2. Détection d'une anomalie
  3. Utilise des cas pour les systèmes de détection d'anomalies
  4. Étude de cas d'anomalie: fraude financière
  5. Comment fonctionne un Autoencoder?
  6. Détection d'anomalies avec AutoEncoder
  7. Détection de fraude dans TensorFlow 2.0

_________________________________________________________________

Une anomalie fait référence à une instance de données qui est sensiblement différente des autres instances de l'ensemble de données. Souvent, ils sont inoffensifs. Il ne peut s'agir que de valeurs statistiques aberrantes ou d'erreurs dans les données. Mais parfois, une anomalie dans les données peut indiquer certains événements potentiellement dangereux qui se sont produits précédemment.

Un tel événement peut être une fraude financière.

Dans cet article, je vais vous montrer comment utiliser la puissance des réseaux de neurones profonds pour identifier les transactions frauduleuses par carte de crédit financière qui peuvent être identifiées comme des anomalies dans un ensemble de données.

Malheureusement, les réseaux de neurones à action directe réguliers ne sont pas bien adaptés pour détecter les anomalies. Pour cette raison, je vais présenter une nouvelle architecture de réseau de neurones appelée Autoencoder.

Mais d'abord, je voudrais expliquer le terme d'anomalie plus en détail et montrer pourquoi les systèmes de détection d'anomalies jouent un rôle si important dans le domaine de l'analyse prédictive.

Une observation courante qui peut être faite lors de l'analyse de données réelles est que certaines instances ou observations dans l'ensemble de données peuvent rendre suspectes car elles diffèrent considérablement de la plupart des données de l'ensemble de données. Ces instances de données particulières sont différentes en ce qu'elles ne correspondent pas à d'autres modèles ou comportements attendus dans l'ensemble de données. Ces cas sont communément appelés anomalies.

Veuillez considérer l'ensemble de données suivant qui comprend 4 fonctionnalités.

Détection d39anomalies avec les encodeurs automatiques dans TensorFlow 2.0 - Détection d'anomalies avec les encodeurs automatiques dans TensorFlow 2.0

Un examen plus approfondi révèle quelques irrégularités dans cet ensemble de données. Les valeurs des deuxième et cinquième instances de données sont très différentes de celles des autres instances. Les valeurs d'entité de ces deux instances diffèrent beaucoup des valeurs d'entité correspondantes d'autres instances.

Il est clair que nous observons ici deux anomalies. Des anomalies dans les données peuvent se produire pour plusieurs raisons. Parfois, les anomalies sont des erreurs dans les données qui se sont produites lors de la collecte ou du prétraitement des données.

Bien sûr, il y a également de fortes chances que les anomalies appartiennent aux données réelles. Dans ce cas, ils ne sont rien de plus que quelques valeurs aberrantes statistiques. D'un autre côté, les anomalies peuvent parfois indiquer un nouvel événement sous-jacent, jusqu'alors inconnu, qui a causé ces anomalies en premier lieu.

Dans ce cas, les anomalies dans les données peuvent indiquer des événements tels que fraude, abus ou interruption de service, qui constituent tous un danger pour une entreprise ou une organisation. La question que vous vous posez peut-être maintenant est pourquoi nous pouvons voir ces événements comme des anomalies dans les données.

La réponse simple est que la fraude, les abus ou la perturbation des services sont bien sûr des événements qui ne sont pas conformes au comportement ou aux processus habituels et attendus dans une entreprise ou une organisation. En fait, ce sont des événements assez rares.

Examinons un domaine d'activité particulier où des anomalies dans les données peuvent suggérer une menace ou un problème potentiel.

1579025953 598 Détection d39anomalies avec les encodeurs automatiques dans TensorFlow 2.0 - Détection d'anomalies avec les encodeurs automatiques dans TensorFlow 2.0

Bancaire: Dans le domaine bancaire, des anomalies peuvent être liées à des achats / dépôts anormalement élevés ou à des cyber-intrusions

1579025953 790 Détection d39anomalies avec les encodeurs automatiques dans TensorFlow 2.0 - Détection d'anomalies avec les encodeurs automatiques dans TensorFlow 2.0

Soins de santé: En matière de soins de santé, la fraude dans les réclamations et les paiements peut apparaître comme des anomalies. Mais plus important encore, des anomalies dans les données de santé des patients peuvent suggérer une maladie ou une aggravation de la situation sanitaire

1579025953 573 Détection d39anomalies avec les encodeurs automatiques dans TensorFlow 2.0 - Détection d'anomalies avec les encodeurs automatiques dans TensorFlow 2.0

Fabrication: Lors de la fabrication, un comportement anormal de la machine peut être enregistré comme une anomalie dans les données produites par la machine

1579025953 365 Détection d39anomalies avec les encodeurs automatiques dans TensorFlow 2.0 - Détection d'anomalies avec les encodeurs automatiques dans TensorFlow 2.0

La finance: Comme déjà mentionné dans l'exemple précédent, dans le domaine de la finance (qui peut également appartenir à la banque et vice versa), les transactions financières frauduleuses peuvent être enregistrées en tant qu'instances de données anormales

1579025954 635 Détection d39anomalies avec les encodeurs automatiques dans TensorFlow 2.0 - Détection d'anomalies avec les encodeurs automatiques dans TensorFlow 2.0

Maison intelligente: Dans le cas des maisons intelligentes, les fuites d'énergie peuvent provoquer des observations inattendues dans les données

1579025954 346 Détection d39anomalies avec les encodeurs automatiques dans TensorFlow 2.0 - Détection d'anomalies avec les encodeurs automatiques dans TensorFlow 2.0

Telecom: Dans les abus de l'itinérance des télécommunications, la fraude aux revenus, les interruptions de service peuvent être reconnues comme des cas anormaux dans les données.

Comme vous pouvez le voir sur ces exemples, la détection d'anomalies est un élément important dans une variété de domaines d'activité. Les modèles de détection d'anomalies peuvent protéger les entreprises et les institutions contre les dommages financiers et personnels. Et même être une bouée de sauvetage potentielle dans les soins de santé.

Prenons l'exemple de la fraude. Imaginez que vous retirez de l'argent de votre compte bancaire. Vous le faites une fois par semaine, à chaque fois à partir d'un guichet automatique dans votre ville natale. Et vous retirez à chaque fois que le montant d'argent dans la fourchette laisse entre 100 et 250 $. Bien sûr, chaque fois que vous retirez de l'argent, votre banque collecte les données associées au retrait, telles que l'heure, le lieu, le montant d'argent, etc.

1579025954 89 Détection d39anomalies avec les encodeurs automatiques dans TensorFlow 2 - Détection d'anomalies avec les encodeurs automatiques dans TensorFlow 2.0

Tant que vous respectez votre modèle habituel, les instances de données collectées sont à peu près les mêmes. Imaginez maintenant le cas où votre carte a été volée et les voleurs ont découvert votre numéro d'identification personnel ATM. Les voleurs en profitent et retirent une grosse somme d'argent bien au-dessus de votre montant habituel dans un GAB qui n'est pas dans votre ville natale.

Comme vous pouvez l'imaginer, l'instance de données qui contient les informations associées pour ce retrait d'espèces spécifique diffère considérablement des instances précédentes en termes de montant d'argent et de lieu de retrait.

Dans ce cas, l'instance de données attirerait l'attention comme une anomalie.

Bien entendu, l'anomalie et le type de menace qu'elle peut suggérer dépendent de l'industrie et du type de données associé. Dans tous les cas, l'objectif des modèles de détection d'anomalies est de détecter des données anormales afin que des mesures puissent être prises pour approfondir les anomalies détectées et éviter d'éventuelles menaces ou problèmes pour l'entreprise ou ses clients.

Pour la suite de l'article, je me concentrerai uniquement sur la fraude financière comme étude de cas pour la détection d'anomalies.

C'est le moment où nous pouvons utiliser les réseaux de neurones profonds à notre avantage. Les réseaux de neurones sont des systèmes universels de reconnaissance de formes qui peuvent identifier des formes et les associer à des comportements frauduleux que nous, humains, ne considérerions jamais.

Par exemple, des modèles tels que le temps passé à survoler un bouton ou une zone particulière de l'écran pendant la préparation d'une transaction.

Une personne peut ne jamais savoir si ce modèle est lié à une sorte de comportement frauduleux ou non. Pour les réseaux de neurones, cependant, ce n'est pas du tout un problème. Une architecture de réseau de neurones qui est bien adaptée pour identifier de tels modèles est appelée Autoencoder.

Cela dépasserait certainement le cadre de cet article pour vous expliquer en détail cette architecture de réseau neuronal. Au lieu de cela, je voudrais donner un bref aperçu de ce réseau. Pour une explication plus détaillée d'Autoencoder, n'hésitez pas à lire l'article «Deep Autoencoder in TensorFlow 2.0».

La forme la plus simple d'Autoencoder est un réseau neuronal à action directe que vous connaissez déjà. Comme pour les réseaux de neurones à action directe, un Autoencoder a une couche d'entrée, une couche de sortie et une ou plusieurs couches cachées. L'image suivante montre l'architecture d'un AutoEncoder. Comme nous pouvons le voir, la couche d'entrée et la couche de sortie d'un AutoEncoder ont le même nombre de neurones.

1579025955 569 Détection d39anomalies avec les encodeurs automatiques dans TensorFlow 2 - Détection d'anomalies avec les encodeurs automatiques dans TensorFlow 2.0

Un Autoencoder peut être divisé en deux parties:

L'encodeur

L'encodeur fait référence à la première moitié de l'autoencodeur, où le nombre de neurones cachés diminue à mesure que le réseau s'approfondit.

Le nombre décroissant de neurones force un «encodage» ou une compression des caractéristiques d'entrée X dans une représentation plus courte qui peut être trouvée dans la couche cachée du milieu. Appelons cette représentation de X comme vecteur caché z.

1579025955 886 Détection d39anomalies avec les encodeurs automatiques dans TensorFlow 2.0 - Détection d'anomalies avec les encodeurs automatiques dans TensorFlow 2.0

Le décodeur représente la partie de l'autoencodeur où le nombre de neurones dans les couches cachées augmente à nouveau.

La représentation latente plus courte des caractéristiques d'entrée qui sont codées dans la couche cachée centrale est utilisée par le décodeur pour reconstruire les caractéristiques d'entrée d'origine X. Appelons l'entrée reconstruite comme x_hat.

1579025955 243 Détection d39anomalies avec les encodeurs automatiques dans TensorFlow 2.0 - Détection d'anomalies avec les encodeurs automatiques dans TensorFlow 2.0

Si le décodeur est capable de reconstruire les caractéristiques d'entrée X de ce vecteur beaucoup plus court z que cela signifie que X contient beaucoup d'informations qui ne sont pas pertinentes et peuvent être rejetées.

Les équations qui décrivent l'ensemble du processus de codage et de décodage de X Loos comme suit:

1579025955 991 Détection d39anomalies avec les encodeurs automatiques dans TensorFlow 2.0 - Détection d'anomalies avec les encodeurs automatiques dans TensorFlow 2.0

Ici W1, W2, W3, et W4 représentent les matrices de poids qui relient les couches de l'autoencodeur. sigma représente une fonction d'activation non linéaire arbitraire.

Cette représentation latente z est très important car il peut être utilisé à de nombreuses fins différentes, telles que la détection de fraude dans la transaction financière, comme nous le verrons dans quelques minutes. Tout d'abord, nous verrons comment former un auto-encodeur afin d'obtenir une représentation latente précise des entrées.

L'autoencodeur est entraîné de la même manière qu'un réseau neuronal à action directe. Nous devons simplement minimiser la distance entre les caractéristiques d'entrée et leur homologue reconstruit x_hat.

La distance entre X et x_hat peut être correctement mesuré par la fonction de perte d'erreur quadratique moyenne. Afin de minimiser la distance ou la valeur de la fonction de perte, nous devons utiliser une approche de descente de gradient régulière:

1579025955 887 Détection d39anomalies avec les encodeurs automatiques dans TensorFlow 2.0 - Détection d'anomalies avec les encodeurs automatiques dans TensorFlow 2.0

En minimisant la fonction de perte MSE, nous réduisons la différence entre X et x_hat. Cela conduit automatiquement à une meilleure représentation latente z des fonctionnalités d'entrée X.

Maintenant que nous avons appris ce qu'est un AutoEncoder et comment le former, voyons comment utiliser cette architecture de réseau neuronal pour détecter des anomalies dans les données.

Nous devons être clairs sur le fait que les anomalies dans un ensemble de données sont des événements très rares.

Cela signifie que les ensembles de données qui doivent être examinés pour détecter des anomalies de toute nature sont très déséquilibrés. La grande majorité des instances de l'ensemble de données sera absolument normale - contrairement aux seules très rares instances de données anormales.

Pour mettre cela en perspective, dans le prochain exemple de détection d'anomalies, l'ensemble de données que nous allons utiliser contiendra plus de 280 000 instances de données de transaction par carte de crédit, dont seulement 492 sont frauduleuses. Cela ne représente que 0,17% des instances de données qui peuvent être considérées comme des anomalies. Et ce déséquilibre est un grave problème.

L'ensemble de données mentionné est le célèbre «ensemble de données sur la fraude par carte de crédit». Il contient les transactions effectuées par carte de crédit en septembre 2013 par des titulaires de carte européens. Cet ensemble de données présente les transactions qui ont eu lieu en deux jours, où nous avons 492 fraudes sur 284 807 transactions.

L'ensemble de données se présente comme suit:

1579025956 962 Détection d39anomalies avec les encodeurs automatiques dans TensorFlow 2 - Détection d'anomalies avec les encodeurs automatiques dans TensorFlow 2.0
  • traits V1,…, V28 sont les principaux composants obtenus avec l'ACP (analyse des composants principaux)
  • "Temps»: Secondes se sont écoulées entre chaque transaction et la toute première transaction
  • "Montant": Le montant de la transaction
  • "Classe”: C'est notre label. 1 représente une transaction frauduleuse, 0 sinon

Nous aurons des difficultés à effectuer la formation supervisée basée sur les étiquettes des réseaux de neurones comme auparavant. Parce que cette fois, nous n'avons tout simplement pas assez d'instances de données qui décrivent les anomalies que nous voulons détecter - dans notre cas, les transactions frauduleuses.

Par conséquent, il pourrait être très difficile pour notre modèle d'apprendre le concept général d'une anomalie ou d'une transaction frauduleuse, simplement parce que le modèle ne voit presque jamais ce genre d'instances. Ajoutez à cela le fait que nous devons diviser l'ensemble de données en un ensemble de formation, de test et de validation, ce qui réduirait encore le nombre d'anomalies dans les ensembles de données correspondants.

La conséquence générale d'un nombre très limité d'instances de données anormales est que notre modèle serait très inefficace pour classer ces événements, car dans la grande majorité des cas, le modèle n'apprend que des instances de données normales. Heureusement, c'est le moment où nous pouvons utiliser un encodeur automatique pour nous aider. Nous pouvons utiliser les propriétés uniques de ce réseau de neurones pour résoudre le problème d'avoir un ensemble de données très déséquilibré.

Cela signifie qu'au lieu de fournir des étiquettes qui classent les fonctionnalités d'entrée comme étant frauduleuses ou non, nous comparons la prédiction de l'Autoencoder avec les fonctionnalités d'entrée initiales.

De plus, en cas de détection de fraude, nous devons former l'Autoencoder uniquement sur les instances de données non frauduleuses. Pendant la formation, l'Autoencoder ne verra que des millions de transactions par carte de crédit non frauduleuses uniquement.

1579025956 226 Détection d39anomalies avec les encodeurs automatiques dans TensorFlow 2.0 - Détection d'anomalies avec les encodeurs automatiques dans TensorFlow 2.0

De cette façon, nous utilisons l'Autoencoder pour encoder les informations sous-jacentes ou les plus pertinentes des fonctionnalités d'entrée dans une représentation latente plus courte. Intuitivement, nous pouvons dire que de cette façon, l'Autoencoder n'apprend que le concept d'une transaction par carte de crédit absolument normale.

Et ce concept appris d'une transaction de carte de crédit normale peut être trouvé comme la représentation latente dans la couche intermédiaire, qui est utilisée pour recréer les caractéristiques originales utilisées comme données d'entrée pour l'Autoencoder.

1579025956 350 Détection d39anomalies avec les encodeurs automatiques dans TensorFlow 2.0 - Détection d'anomalies avec les encodeurs automatiques dans TensorFlow 2.0

Après une formation avec les instances de données normales, nous pouvons enfin utiliser le réseau neuronal pour détecter les anomalies.

Cette fois, nous pouvons montrer les données du réseau des deux types - des anomalies ainsi que des données normales. Comme précédemment, les caractéristiques d'entrée sont codées par l'autoencodeur en une représentation latente qui est utilisée pour reconstruire l'entrée.

1579025956 128 Détection d39anomalies avec les encodeurs automatiques dans TensorFlow 2.0 - Détection d'anomalies avec les encodeurs automatiques dans TensorFlow 2.0

Comme déjà mentionné, un AutoEncoder utilise la fonction d'erreur quadratique moyenne comme fonction de perte pour mesurer la différence ou l'erreur entre l'entrée reconstruite et l'entrée d'origine.

Veuillez faire attention aux points suivants: Si l'autoencodeur a été correctement formé, nous nous attendons à ce que l'erreur entre la sortie et l'entrée soit assez petite pour les données normales.

Cependant, ce n'est pas le cas des anomalies ou dans notre cas des transactions de données frauduleuses.

N'oubliez pas qu'au cours de la formation, l'autoencodeur n'a appris que les concepts et les caractéristiques d'une instance de données normale. Cela signifie que les poids et les biais de l'autoencodeur n'ont été ajustés que pour encoder et reconstruire des données normales - dans notre cas, les transactions non frauduleuses.

Si nous essayons maintenant de coder une transaction frauduleuse, la représentation latente de cette transaction serait considérablement différente de la représentation latente d'une transaction normale.

En conséquence directe, l'entrée reconstruite différerait encore plus de l'entrée d'origine, ce qui entraînerait une erreur beaucoup plus importante que dans le cas des transactions normales.

La connaissance du fait que des données d'entrée frauduleuses entraînent des valeurs de perte plus élevées de la fonction de perte d'erreur quadratique moyenne peut être utilisée à notre avantage. Il nous suffit de trouver un seuil de perte qui distingue les données normales des données frauduleuses.

En pratique, cela signifierait que les instances de données pour lesquelles nous obtenons une valeur de perte supérieure à ce seuil classent cette instance comme une anomalie ou dans notre cas une transaction frauduleuse.

En revanche, les instances de données dont les valeurs de perte sont inférieures à ce seuil peuvent être considérées comme des données normales ou des transactions non frauduleuses.

  • Cas 1: La valeur de perte MSE pour une fonction d'entrée est au-dessus du seuil de perte → la fonctionnalité de saisie est une anomalie (ici: transaction frauduleuse)
  • Cas 2: La valeur de perte MSE pour une fonction d'entrée est en dessous du seuil → la fonction de saisie est normale (ici: transaction non frauduleuse)

Résumons ce que nous avons appris sur la façon de détecter les anomalies dans un ensemble de données.

  1. Premièrement, si votre ensemble de données qui doit être examiné pour détecter des anomalies est déséquilibré (ce qui est presque toujours le cas), vous devez utiliser un encodeur automatique
  2. Entraînez l'autoencodeur en utilisant la fonction de perte d'erreur quadratique moyenne uniquement sur des données normales, n'utilisez pas d'instances de données anormales pendant la formation
  3. Après la formation, la valeur de perte pour les anomalies devrait être beaucoup plus élevée que pour les instances de données normales
  4. Maintenant, vous devez trouver un seuil de valeur de perte qui distingue le mieux les anomalies des données normales.

Afin de trouver cette valeur de seuil qui distingue le mieux les anomalies des données normales, vous devez simplement essayer de nombreuses valeurs de seuil différentes.

Pour cette procédure, je recommande de prendre quelques milliers d'instances de données, où environ 5 à 10% de ces instances sont des anomalies. Ensuite, vous calculez simplement pour chaque instance la valeur de la perte, la comparez avec le seuil et la classifiez comme une anomalie ou non.

En fin de compte, vous devez vérifier la qualité de ces classifications en utilisant les étiquettes réelles. Pour quantifier le résultat de la classification, je recommande d'utiliser les métriques d'évaluation que nous avons couvertes dans l'article précédent «Métriques d'évaluation en science des données et apprentissage automatique».

Ayant les résultats des métriques d'évaluation, vous pouvez décider si ce seuil était bon et ajuster le seuil si nécessaire.

Comme vous l'avez peut-être déjà deviné, le modèle de détection des anomalies sera un Autoencoder qui identifiera les transactions financières frauduleuses dans l'ensemble de données introduit précédemment.

Tout le code source et les jeux de données utilisés sont accessibles dans mon référentiel GitHub de ce projet. N'hésitez pas à télécharger le code et à l'essayer par vous-même.

Malheureusement, je ne peux pas entrer dans le détail de toutes les fonctions et classes utilisées, car cela dépasserait le cadre du cours. Je voudrais plutôt me concentrer uniquement sur la mise en œuvre du modèle de réseau neuronal. Toutes les autres classes et méthodes utilisées (en particulier le prétraitement des données peuvent être consultées dans le référentiel GitHub). Tout le code source est bien documenté afin que vous n'ayez aucune difficulté à comprendre le code.

Sur cette note, commençons…

J'aime d'abord définir un BaseModel classe qui contient les méthodes d'initialisation des poids et des biais et le calcul de la passe directe.

Ces méthodes seront ensuite héritées de la classe qui définira le modèle de détection d'anomalie réel. De cette façon, nous pouvons définir plus tard plusieurs modèles d'Autoencoder (avec différents hyperparamètres par exemple) qui hériteront des méthodes du BaseModel classe. En faisant cela, nous pouvons économiser beaucoup de code car les différentes versions du modèle partagent les mêmes fonctionnalités.

Dans init_variables (self) nous définissons le poids et les biais. Comme vous pouvez le voir, l'encodeur automatique aura trois couches cachées au total. Le nombre de neurones dans ces couches est [20, 8, 20].

propagation_avant (self, x) calcule simplement la sortie de l'autoencodeur, qui est les caractéristiques d'entrée reconstruites

Dans ce qui suit, nous pouvons définir la classe réelle dans laquelle l'autoencodeur sera formé:

Cette classe contient les méthodes de calcul de la valeur de perte d'erreur quadratique moyenne et de l'étape de descente de gradient.

Le processus de formation doit être explicite:

Tout d'abord, nous divisons plusieurs hyperparamètres comme la taille du lot, le taux d'apprentissage, etc.

Un hyperparamètre très important est le seuil de perte de valeur introduit, que j'appelle ici SEUIL = 10. Cette valeur de la fonction de perte MSE distinguera pendant la phase de test les anomalies des instances de données normales.

Ensuite, nous définissons l'instance des classes AnomalyDetector (), qui est le modèle réel d'Autoencoder et Performance (SEUIL), où certaines mesures d'évaluation (précision, rappel, F1-Score) seront calculées. Si vous n'êtes pas familier avec ces mesures, n'hésitez pas à consulter l'article «Mesures d'évaluation dans le Deep Learning».

Les ensembles de données de formation et d'évaluation étaient auparavant convertis au format de données TensorFlow Records. Dans les méthodes get_training_data () et get_test_data () Je utilise le API tf.data pour extraire, charger, créer des mini-lots et mélanger les jeux de données.

Dans l'étape suivante, nous parcourons l'ensemble de données d'apprentissage, calculons pour chaque mini-lot la fonction de perte d'erreur quadratique moyenne et appliquons une descente de gradient.

Après avoir traité 1000 mini-lots, j'utilise le Performance() avec le seuil de perte pour évaluer le modèle de détecteur d'anomalie sur env. 34 000 instances dans l'ensemble de données de test. L'ensemble de données de test contient les 480 instances de données frauduleuses (anomalies) et les autres sont des instances de données normales.

Juste après 5 époques, nous obtenons les résultats suivants:

  • Le détecteur d'anomalie a une très bonne valeur de précision de 93. Cela signifie que 93% du temps, le modèle classe correctement une anomalie.
  • La valeur de rappel de 43,3 nous indique que l'autoencodeur a identifié 43,3% d'anomalies dans l'ensemble de données. Malheureusement, plus de la moitié des anomalies restent invisibles pour le modèle.

Il est intéressant de voir que pour les instances de données non frauduleuses, la valeur moyenne de perte d'erreur absolue n'est que de 0,385. D'un autre côté, la valeur de perte MSE pour les instances de données frauduleuses est de 19,518 beaucoup plus élevée. Tout comme cela devrait être et exactement ce que nous attendons.

Afficher plus

SupportIvy

SupportIvy.com : Un lieu pour partager le savoir et mieux comprendre le monde. Meilleure plate-forme de support gratuit pour vous, Documentation &Tutoriels par les experts.

Articles similaires

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Bouton retour en haut de la page
Fermer