PC & Mobile

Laurel & Hardy dans l'apprentissage automatique

Laurel & Hardy dans l'apprentissage automatique


Source: Flickr

"Eh bien, voici une autre belle pagaille dans laquelle vous m'avez eue!"

Cette semaine, je vais encore plus loin dans mes références, jusque dans les années 1930. Au cas où certains lecteurs du millénaire se contenteraient de penser «OK Boomer», j'aimerais préciser que je suis moi-même un millénaire. C’est juste que les références parfois anciennes ont tellement plus de sens que les références modernes.

Donc, pour ceux qui ne connaissent pas Laurel & Hardy, je vous encourage à aller sur Youtube et à regarder quelques vidéos avant de les lire. Pour ceux d'entre vous qui ont eu la chance de faire l'expérience de ce duo en action, j'espère que vous verrez le parallèle avec ce que je vais dire.

Laurel et Hardy de Machine Learning sont connus sous le nom de Bias and Variance. A l'instar de Laurel & Hardy, Bias et Variance se rejoignent à la hanche. Alors que les deux peuvent entraîner des erreurs significatives dans votre modèle, contrairement à Laurel et Hardy, qui ont compris le pouvoir des erreurs pour faire rire les gens, dans Machine Learning, les erreurs ne sont pas une question de rire. Si vous ne faites pas attention aux biais et à la variance, ils peuvent vous coûter votre travail.

Pour vous aider à ne pas vous retrouver dans une situation délicate, voyons pourquoi le Laurel & Hardy de Machine Learning mérite votre attention.

Variance

Stan Laurel, Source: Flickr

"Vous pouvez conduire un cheval à l'eau, mais un crayon doit être conduit." - Laurel

Les fans de la série se souviendront que Laurel avait vraiment de bonnes idées. Il proposerait une façon intéressante de faire quelque chose et le partagerait avec Hardy, qui à son tour dirait: «Dis-moi ça encore une fois». Dès que ces mots seraient prononcés, Laurel trébucherait et donnerait une version complètement absurde de son idée la deuxième fois.

Laurel illustre la variance dans l'apprentissage automatique. La variance est l’erreur de votre modèle quand il ne peut pas généraliser à des données qu’il n’a jamais vues auparavant. Si vous modifiez les données, même légèrement, les prédictions du modèle sont complètement fausses. Comme chaque itération d’un message «Répète-moi ça encore» a conduit à une réponse différente de Laurel, il en va de même avec votre modèle d’apprentissage automatique s’il présente une variance très élevée.

En d’autres termes, votre modèle apprendra le bruit avec le signal afin qu’il ne puisse tout simplement pas séparer les éléments s’il manque un élément de plomb!

Biais

Oliver Hardy, Source: Flickr

«Vous utilisez réellement votre cerveau. C’est ce qui vient de l’association avec moi. »- Hardy

Hardy, en revanche, n’a jamais compris Laurel lorsqu’il a partagé pour la première fois ses idées qui, du moins pour le spectateur, étaient claires. Cependant, Hardy était étrangement capable de comprendre la version non absurde que Laurel avait dévoilée la seconde fois.

De toute évidence, Hardy avait beaucoup de difficulté à séparer le signal du bruit et c’est ce que Bias est. De manière simplifiée, le biais peut être défini comme une erreur provoquée par le fait que votre modèle ne peut rien apprendre des données d'apprentissage.

En d’autres termes, si vous utilisez simplement votre cerveau, vous aurez l’air plus intelligent qu’un modèle qui a un biais élevé.

Et alors?

Voici l'habituel alors quoi? Pourquoi devriez-vous vous soucier de ces analogies terriblement forcées? Vous devez vous en soucier, car chaque problème d’apprentissage automatique consiste à équilibrer le compromis entre les deux.

Source: elitedatascience.com

Si votre modèle a un biais très élevé, il n’apprend tout simplement pas assez (ou même pas du tout), de sorte que le principe de l’apprentissage automatique est dépassé. Cela peut arriver, par exemple, parce que vous utilisez une régression linéaire pour un problème non linéaire. Ainsi, pour passer de Hardy à Laurel, il faut utiliser des modèles plus complexes.

Si vous rendez votre modèle trop complexe, comme si vous utilisiez un SVM alambiqué à rétroprojection, Laurel commence à halluciner les crayons et les chevaux comme je viens d’halluciner le nom du modèle, vous voulez donc également l’éviter.

En gros, vous devez trouver un compromis entre les deux, un endroit heureux où Laurel & Hardy et vous vivez en parfaite harmonie.

Jusqu'à ce que vous vous mettiez dans une autre belle pagaille! Mais c’est la vie d’un scientifique de données, n’est-ce pas?

Maintenant, si certains d'entre vous ont souffert jusqu'à présent, je vous propose ci-dessous un lien pour une meilleure explication du compromis biais / variance, un lien qui pourrait aider votre cerveau à récupérer de ce que vous venez de lire:

WTF is the Bias-Variance Tradeoff? (Infographic)

Afficher plus

SupportIvy

SupportIvy.com : Un lieu pour partager le savoir et mieux comprendre le monde. Meilleure plate-forme de support gratuit pour vous, Documentation &Tutoriels par les experts.

Articles similaires

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Bouton retour en haut de la page
Fermer