banner

Blog

Jun 29, 2023

Les outils d'IA inventent beaucoup de choses, et c'est un énorme problème

Avant que l’intelligence artificielle puisse conquérir le monde, elle doit résoudre un problème. Les robots hallucinent.

Les outils basés sur l'IA comme ChatGPT nous ont fascinés par leur capacité à produire des réponses faisant autorité et à consonance humaine à apparemment n'importe quelle invite. Mais alors que de plus en plus de personnes se tournent vers cette technologie en vogue pour des choses comme l’aide aux devoirs, la recherche sur le lieu de travail ou les demandes de renseignements sur la santé, l’un de ses plus grands pièges devient de plus en plus évident : les modèles d’IA ne font souvent qu’inventer des choses.

Les chercheurs en sont venus à qualifier cette tendance des modèles d’IA à diffuser des informations inexactes d’« hallucinations », voire de « confabulations », comme l’a déclaré le responsable de l’IA de Meta dans un tweet. Pendant ce temps, certains utilisateurs des réseaux sociaux qualifient simplement les chatbots de « menteurs pathologiques ».

Mais tous ces descripteurs découlent de notre tendance bien trop humaine à anthropomorphiser les actions des machines, selon Suresh Venkatasubramanian, professeur à l'Université Brown qui a contribué à co-écrire le plan de la Maison Blanche pour une déclaration des droits de l'IA.

La réalité, a déclaré Venkatasubramanian, est que les grands modèles de langage – la technologie qui sous-tend les outils d’IA comme ChatGPT – sont simplement formés pour « produire une réponse plausible » aux invites des utilisateurs. "Donc, en ce sens, toute réponse qui semble plausible, qu'elle soit exacte, factuelle, inventée ou non, est une réponse raisonnable, et c'est ce qu'elle produit", a-t-il déclaré. "Il n'y a aucune connaissance de la vérité là-bas."

Le chercheur en IA a déclaré qu’une meilleure analogie comportementale que les hallucinations ou les mensonges, qui impliquent que quelque chose ne va pas ou que quelque chose est mal intentionné, serait de comparer ces résultats informatiques à la façon dont son jeune fils racontait des histoires à l’âge de quatre ans. « Il vous suffit de dire : « Et puis, que s'est-il passé ? et il continuerait simplement à produire plus d’histoires », a déclaré Venkatasubramanian. "Et il continuerait encore et encore."

Les entreprises à l’origine des chatbots IA ont mis en place des garde-fous visant à prévenir la pire de ces hallucinations. Mais malgré le battage médiatique mondial autour de l’IA générative, de nombreux acteurs du domaine restent déchirés quant à savoir si les hallucinations des chatbots constituent ou non un problème pouvant être résolu.

En termes simples, une hallucination fait référence au moment où un modèle d’IA « commence à inventer des choses – des choses qui ne correspondent pas à la réalité », selon Jevin West, professeur à l’Université de Washington et co-fondateur de son Center for an Public informé.

"Mais il le fait avec une pure confiance", a ajouté West, "et il le fait avec la même confiance que si vous posiez une question très simple comme : 'Quelle est la capitale des États-Unis ?'"

Cela signifie qu'il peut être difficile pour les utilisateurs de discerner ce qui est vrai ou non s'ils demandent à un chatbot quelque chose dont ils ne connaissent pas déjà la réponse, a déclaré West.

Un certain nombre d’hallucinations très médiatisées issues des outils d’IA ont déjà fait la une des journaux. Lorsque Google a dévoilé pour la première fois une démo de Bard, son très attendu concurrent de ChatGPT, l'outil a proposé très publiquement une mauvaise réponse en réponse à une question sur les nouvelles découvertes faites par le télescope spatial James Webb. (Un porte-parole de Google à l'époque a déclaré à CNN que l'incident « met en évidence l'importance d'un processus de test rigoureux » et a déclaré que la société s'efforçait de « s'assurer que les réponses de Bard répondent à un niveau élevé de qualité, de sécurité et de fondement dans les informations du monde réel. » . »)

Un avocat chevronné de New York s’est également retrouvé dans une situation délicate lorsqu’il a utilisé ChatGPT pour des recherches juridiques et a soumis un mémoire comprenant six « faux » cas que le chatbot semble avoir simplement inventé. Le média CNET a également été contraint de publier des corrections après qu'un article généré par un outil d'IA a fini par donner des conseils extrêmement inexacts en matière de finances personnelles lorsqu'on lui a demandé d'expliquer le fonctionnement des intérêts composés.

Cependant, lutter contre les hallucinations de l'IA pourrait limiter la capacité des outils d'IA à aider les personnes ayant des efforts plus créatifs, comme les utilisateurs qui demandent à ChatGPT d'écrire de la poésie ou des paroles de chansons.

PARTAGER