Intelligence artificielle

  • Explication de la normalisation des lots – Vers la science des données

    Explication de la normalisation des lots – Vers la science des données

    Explication de la normalisation des lots – Vers la science des données une. Pourquoi normaliser par rapport à un mini-batch? Idéalement, la normalisation devrait concerner l’ensemble des données d’entraînement, car cela garantit qu’il n’y aura aucun changement dans la distribution des entrées entre les différents lots. Cependant, étant donné que tout ensemble de données ne…

  • Classification multi-classes – un contre tous et un contre un

    Classification multi-classes – un contre tous et un contre un

    Classification multi-classes – un contre tous et un contre un Supervisé Sans surveillance Renforcement L’apprentissage automatique supervisé se classe en régression et classification. Nous utilisons la technique de régression pour prédire les valeurs cibles des variables continues, comme la prévision du salaire d’un employé. En revanche, nous utilisons la technique de classification pour prédire les…

  • Zoomers vs Boomers – Utilisation de transformateurs pour classer les utilisateurs de Twitter par génération et effectuer une analyse générationnelle

    Zoomers vs Boomers – Utilisation de transformateurs pour classer les utilisateurs de Twitter par génération et effectuer une analyse générationnelle

    Zoomers vs Boomers – Utilisation de transformateurs pour classer les utilisateurs de Twitter par génération et effectuer une analyse générationnelle Nous voulions concevoir un modèle qui exploite les différences générationnelles à la fois dans le style de tweet textuel et les tendances des métadonnées (telles que la fréquence de tweet ou le nombre de mots).…

  • Résolvez facilement le déséquilibre des classes avec Pytorch Partie 2

    Résolvez facilement le déséquilibre des classes avec Pytorch Partie 2

    Résolvez facilement le déséquilibre des classes avec Pytorch Partie 2 Le même tournesol suréchantillonné avec Pytorch? Crédits à Jeffrey Johnson pour la photo. Compréhension WeightedRandomSampler de Pytorch Dans l’article précédent, nous avons vu comment résoudre le déséquilibre de classe en suréchantillonnant avec WeightedRandomSampler. En pratique, cela réduit les risques de sur-ajustement. Dans cet article, nous…

  • Arbres de décision de la racine

    Arbres de décision de la racine

    Arbres de décision de la racine Comment utilisons-nous les distributions pour identifier les divisions candidates? Lorsque nous examinons les variables catégorielles, nous voulons sélectionner une catégorie qui a une distribution nettement différente des autres. Par exemple, nous pouvons voir que les hommes et les femmes ont survécu à des taux différents. Pour les variables quantitatives,…

  • Autoencoders Adversarial Latent – Vers la science des données

    Autoencoders Adversarial Latent – Vers la science des données

    Autoencoders Adversarial Latent – Vers la science des données Python-PyTorch Génération de visages et d’expressions par le simple code photo par Bianca Berg sur Unsplash Il y a quelques années, les modèles de reconnaissance faciale prenaient d’assaut Internet. Les gens ont été complètement renversés par la façon dont un ordinateur peut identifier un visage et,…

  • Veulent-ils un data scientist… ou un yes-man?

    Veulent-ils un data scientist… ou un yes-man?

    Veulent-ils un data scientist… ou un yes-man? Image de Unsplash J’ai entendu une histoire intéressante d’un de mes amis travaillant dans la science des données. Appelons-le Bob. Bob a travaillé pour une startup de taille moyenne qui a vendu un produit d’abonnement libre-service avec des prix assez variables, certains clients dépensant 10 fois plus que…

  • Revue de Metropolis Hastings – Vers la science des données

    Revue de Metropolis Hastings – Vers la science des données

    Revue de Metropolis Hastings – Vers la science des données Quand Randomness est devenu le leader Introduction très courte Metropolis Hastings est une classe d’algorithmes d’échantillonnage MCMC (Markov Chain Monte Carlo). Son utilisation la plus courante consiste à optimiser l’échantillonnage à partir d’une distribution postérieure lorsque la forme analytique est intraitable ou peu plausible à…

  • Prévision de séries chronologiques avec ARIMA en R – LZP

    Prévision de séries chronologiques avec ARIMA en R – LZP

    Prévision de séries chronologiques avec ARIMA en R – LZP La prévision et la prédiction, un ensemble de mots interchangeables qui, du point de vue de la science des données, se tournent vers la prédiction d’événements futurs sur la base d’un ensemble de données historiques. Il existe de nombreuses méthodes qui peuvent être utilisées pour…

  • Classificateur de texte avec plusieurs sorties et plusieurs pertes dans Keras

    Classificateur de texte avec plusieurs sorties et plusieurs pertes dans Keras

    Classificateur de texte avec plusieurs sorties et plusieurs pertes dans Keras Dans cet article, nous allons passer en revue la définition d’un classificateur multi-étiquettes, les pertes multiples, le prétraitement de texte et une explication étape par étape sur la façon de construire un RNN-LSTM multi-sortie dans Keras. L’ensemble de données sur lequel nous travaillerons consiste…