Concept

Hallucination (intelligence artificielle)

Résumé
Dans le domaine de l’intelligence artificielle, une hallucination est une réponse manifestement fausse qui est présentée comme un fait certain. Par exemple, un chatbot qui invente un chiffre d’affaires pour une entreprise sans avoir de données à ce sujet. Ce phénomène est appelé « hallucination » par analogie avec le phénomène de l’hallucination en psychologie humaine. Le terme hallucination en intelligence artificielle a pris de l'importance vers 2022 parallèlement au déploiement des modèles de langage basés sur l'apprentissage profond tels que ChatGPT. Si le terme hallucination avait déjà été utilisé pour désigner certaines erreurs de modèles de classification d'images, c'est l'apparition des modèles de langage de grande taille (abrégé LLM de l'anglais large language model) qui en généralise l'usage. En août 2022, Meta averti lors de la sortie de BlenderBot 3 que le système est sujet aux « hallucinations » que Meta définit comme des « déclarations confiantes qui ne sont pas vraies ». Le 15 novembre 2022, Meta dévoile une démo de Galactica, conçue pour « stocker, combiner et raisonner sur les connaissances scientifiques ». Le contenu généré par Galactica est accompagné de l'avertissement « les sorties peuvent ne pas être fiables ! Les modèles de langage ont tendance à halluciner le texte ». Meta retire la démo de Galactica le 17 novembre en raison de son caractère offensant et de son inexactitude. Le 30 novembre 2022, OpenAI publie en version bêta ChatGPT qui est basé sur le modèle de fondation GPT-3.5 (une révision de GPT-3). Le professeur Ethan Mollick de Wharton qualifie ChatGPT de « stagiaire omniscient, désireux de plaire, qui vous ment parfois ». L’experte en science des données Teresa Kubacka raconte avoir délibérément inventé l'expression « électromagnon inversé cycloïdal » et testé ChatGPT en l'interrogeant sur ce phénomène inexistant. ChatGPT a inventé une réponse plausible appuyée par des citations plausibles qui l'ont obligée à vérifier si elle avait accidentellement tapé le nom d'un phénomène réel.
À propos de ce résultat
Cette page est générée automatiquement et peut contenir des informations qui ne sont pas correctes, complètes, à jour ou pertinentes par rapport à votre recherche. Il en va de même pour toutes les autres pages de ce site. Veillez à vérifier les informations auprès des sources officielles de l'EPFL.