Au-delà de GPT-4, il y a un nouveau modèle linguistique en ville ! Mais n’allez pas trop loin, car les chatbots propulsés par ce modèle sont… plutôt mauvais.
Mercredi, Stability AI a lancé son propre langage, StableLM. La société, mieux connue pour son générateur d’images AI appelé Stable Diffusion, dispose désormais d’un modèle de langage open source capable de générer du texte et du code. Selon le billet de blog Stability AI, StableLM a été formé sur un ensemble de données open source appelé The Pile, qui comprend des données de Wikipedia, YouTube et PubMed. Cependant, Stability AI affirme que son ensemble de données est trois fois plus volumineux que celui de The Pile, avec « 1,5 billion de jetons de contenu ».
Alors, comment se compare-t-il à ChatGPT ? Dommage qu’on aurait aimé que ce ne soit pas comparable. La valeur de vérité de sa sortie est presque inexistante. Par exemple, ci-dessous, vous remarquerez qu’il prétend que le 6 janvier 2021, les partisans de Trump ont pris le contrôle de la législature. Voici quelques fausses informations dangereusement déroutantes sur les événements récents.
Crédit : Embrace Face/Stable AI
Un test courant du modèle de langage utilisé par Mashable est que nous vérifions à quel point il est capable et disposé à satisfaire une invite éthiquement discutable, en posant une question sur un reportage sur Tupac Shakur. Lors de la réalisation de ce test, les résultats de StableLM sont instructifs. L’incapacité du modèle à écrire un reportage convaincant n’est pas nécessairement une mauvaise chose, mais il ne pouvait pas non plus reconnaître les grandes lignes de ce qu’il était incité à faire et ne « savait » pas qui était Tupac Shakur.
Crédit : Embrace Face/Stable AI
Franchement, ce type de génération de texte ne semble pas être l’utilisation prévue de StableLM, mais lorsqu’on lui a demandé « Que fait StableLM ? », sa réponse a été deux phrases courtes et sans intérêt avec un jargon technique : « Il utilise principalement Il peut être utilisé comme décision système de support dans l’ingénierie et l’architecture des systèmes, et peut également être utilisé dans l’apprentissage statistique, l’apprentissage par renforcement et d’autres domaines. »
StableLM manque de protection pour le contenu sensible
Le manque apparent de protection du modèle pour certains contenus sensibles est également préoccupant. Plus particulièrement, lorsqu’on lui donne le fameux test (ouvre dans un nouvel onglet) « ne louez pas Hitler », il fait sauter le jackpot. La chose la plus gentille que l’on puisse dire à propos de la réaction de StableLM à ce test est qu’il est ridicule.
Crédit : Embrace Face/Stable AI
Mais avant que quelqu’un ne l’appelle « le pire modèle de langage jamais créé », souvenez-vous de ce qui suit : il s’agit d’un code source ouvert, donc cette IA « boîte noire » particulière permet à n’importe qui de jeter un coup d’œil à l’intérieur de la boîte et de voir le potentiel de ses problèmes. Quelle en est la raison. De plus, la version d’aujourd’hui de StableLM est en mode Alpha, la première étape des tests. Il contient entre 3 et 7 milliards de paramètres, qui sont les variables qui déterminent comment le modèle prédit à quoi s’attendre, et Stability AI prévoit de publier plus de modèles avec jusqu’à 65 milliards de paramètres. Si cela semble beaucoup, c’est un montant relativement faible. Pour le contexte, le GPT-3 d’OpenAI a 175 milliards de paramètres, donc StableLM a beaucoup de travail à faire – si c’est bien le plan.
Comment essayer StableLM maintenant
Le code de StableLM est actuellement disponible sur GitHub, et Hugging Face, une plate-forme d’hébergement de modèles d’apprentissage automatique, a publié une version avec une interface utilisateur conviviale sous le nom accrocheur « StableLM-Tuned-Alpha-7b Chat » (ouvert à un nouvel onglet). La version de Hugging Face ressemble à un chatbot, quoique un peu plus lent.
Alors maintenant que vous connaissez ses limites, n’hésitez pas à l’essayer vous-même.

