Google a fait pression pour la libération de Bard, bien que les employés l’aient qualifié de « menteur pathologique » et « épouvantable » en interne.
Selon 18 anciens et actuels employés de Google, leur relation avec Bloomberg(ouvre dans un nouvel onglet), la volonté de concurrencer le ChatGPT d’OpenAI et le Bing alimenté par l’IA a dépassé les considérations éthiques. Vous l’avez peut-être remarqué vous-même si vous avez essayé Bard, mais les chatbots IA sont sujets aux erreurs. Budd aurait donné des conseils dangereux sur la façon d’atterrir l’avion. Les réponses sur la plongée sous-marine « peuvent entraîner des blessures graves ou la mort », a déclaré un autre employé.
VOIR AUSSI : Les Googleurs pensent également que le lancement de Bard a été » bâclé » et « précipité »
Google, qui a toujours dominé le marché des moteurs de recherche, est dans une position précaire : d’une part, il doit résister aux challengers de l’intelligence artificielle, et d’autre part, il doit conserver son statut de géant technologique. Google s’efforce d’intégrer Bard et l’IA générative dans les outils destinés aux consommateurs, malgré les craintes que le déploiement de grands modèles de langage immatures (LLM) puisse générer des réponses nuisibles, offensantes ou inexactes. Toute opposition des travailleurs de la sécurité et de l’éthique est considérée comme un obstacle aux nouvelles priorités de Google. « Les employés responsables de la sécurité et des implications éthiques des nouveaux produits sont priés de ne pas entraver ou tenter de tuer les outils d’IA générative en cours de développement », ont déclaré les employés. BloombergL’équipe d’éthique est désormais « impuissance et démoralisée », selon les anciens et actuels employés.
Jusqu’à ce qu’OpenAI lance ChatGPT en novembre 2022, l’approche de Google en matière d’IA est plus prudente et moins orientée vers le consommateur, travaillant souvent dans les coulisses d’outils tels que la recherche et les cartes. Mais comme la popularité massive de ChatGPT a conduit les dirigeants à utiliser le « code rouge (ouvre dans un nouvel onglet) », Google a abaissé la barre des lancements de produits de sécurité pour suivre le rythme de ses rivaux de l’IA.
Jen Gennai, qui dirige l’équipe « innovation responsable » de Google, a annulé l’évaluation des risques de son équipe, qui a déclaré que Bard n’était pas prêt. Le raisonnement est qu’en tamponnant le barde en tant qu ‘ »expérience », il peut être lancé et commencer à s’améliorer en fonction des commentaires du public. De même, Google a annoncé des capacités d’IA pour Docs et Slides. Mais cette approche a échoué. Bard est largement considéré comme un produit inférieur à ChatGPT, et le lendemain de la sortie de Google Docs et Slides, Microsoft a déployé une IA entièrement intégrée à ses outils de travail – pas seulement Microsoft Word et PowerPoint, mais la suite Office complète, y compris Teams et Outlook . Samsung envisage également de remplacer Google par Bing comme moteur de recherche par défaut sur ses appareils mobiles.
Depuis que Google a supprimé(ouvre un nouvel onglet) la fameuse phrase « Don’t be evil » de son code de conduite, il semble devenir de plus en plus comme son ennemi Meta, dont l’ancienne devise interne « Move fast, break things » semble devenir le mantra officieux de toute la Silicon Valley. La confiance du public risque d’être brisée lorsque la moralité et la sécurité sont compromises par une action rapide.