Retour au glossaire
H
Définition

Hallucination IA Définition IT

Production par un modèle d'IA générative d'une information fausse ou inventée, présentée avec la même assurance qu'une réponse correcte.

Une hallucination IA désigne la production par un modèle de GenAI — typiquement un LLM — d'une information fausse, inventée ou non vérifiable, présentée avec la même assurance qu'une réponse correcte. Le modèle ne « ment » pas au sens humain : il échantillonne dans un espace de probabilités, sans vérité de terrain pour contrôler la sortie.

Le phénomène est massif : selon une étude Stanford 2024 sur les LLM juridiques, 17 à 33 % des réponses contenaient des hallucinations factuelles. Côté médical, une revue NEJM AI 2024 a mesuré jusqu'à 28 % d'erreurs cliniques chez les modèles publics non spécialisés. Pour la DSI, c'est aujourd'hui le principal obstacle à l'industrialisation de la GenAI sur des usages critiques.

Pourquoi les LLM hallucinent

Les causes sont structurelles :

  • Apprentissage statistique: : le modèle prédit le mot suivant le plus probable, pas le mot le plus vrai.
  • Données d'entraînement bruitées: : les corpus web contiennent erreurs, opinions, fictions.
  • Date de coupure (knowledge cutoff): : les modèles ignorent les événements postérieurs à leur entraînement.
  • Hors-distribution: : sur un sujet sous-représenté dans l'entraînement, le modèle invente plausiblement.
  • Compression: : un modèle de 70B paramètres ne peut pas mémoriser tout l'internet — il interpole.

Les types d'hallucinations

  • Hallucinations factuelles: : un fait inventé (une date, une citation, un nom).
  • Hallucinations de raisonnement: : une chaîne logique incorrecte mais cohérente en apparence.
  • Hallucinations d'instruction: : ne pas suivre la consigne exacte (changer de format, oublier une contrainte).
  • Hallucinations de source: : citer un article, un arrêt, un livre qui n'existe pas.
  • Hallucinations de capacité: : prétendre avoir fait une action qu'il n'a pas pu faire (cas typique pour les agents IA).

Détecter et réduire les hallucinations

Plusieurs stratégies, cumulables :

  • [RAG](/fr/glossary/rag): : ancrer les réponses sur des sources internes vérifiées. Réduit drastiquement les hallucinations factuelles.
  • Fine-tuning: : entraîner le modèle sur des données métier de qualité.
  • Prompt engineering défensif: : « réponds uniquement si tu es sûr », « cite tes sources », « si tu ne sais pas, dis-le ».
  • Self-consistency / chain-of-thought: : générer plusieurs réponses et vérifier leur convergence.
  • Vérification par un second LLM: : un judge model contrôle la réponse du premier.
  • Citation obligatoire: : exiger une référence vérifiable pour chaque affirmation.
  • Human-in-the-loop: : revue humaine sur les usages critiques.
  • Modèles spécialisés: : un modèle entraîné sur le droit hallucine moins que GPT-4 généraliste sur du droit.

Mesurer le taux d'hallucination

Plusieurs benchmarks publics existent :

  • TruthfulQA: : 817 questions piégeuses sur des idées reçues.
  • HaluEval: : benchmark dédié aux hallucinations en résumé, QA et dialogue.
  • HELM: (Stanford) : suite holistique d'évaluation.
  • Vectara HHEM: : Hughes Hallucination Evaluation Model, modèle qui détecte les hallucinations.

En interne, la pratique courante consiste à constituer un eval set propre à l'entreprise, avec des questions dont on connaît la bonne réponse, et à mesurer le taux d'erreur du système.

Hallucinations et responsabilité

Côté juridique, plusieurs jurisprudences récentes ont rappelé que l'utilisateur reste responsable du contenu généré. En 2023, un avocat américain a été sanctionné pour avoir cité dans une plaidoirie des arrêts… inventés par ChatGPT. Le RGPD impose par ailleurs un droit à l'exactitude des données personnelles, ce qui pose la question des hallucinations sur des personnes physiques.

L'AI Act européen et la norme ISO 42001 imposent désormais aux fournisseurs et déployeurs de mettre en place des dispositifs de mesure, réduction et communication sur le risque d'hallucination.

Kabeen et le contexte vérifié

Donner à un LLM ou à un agent IA du contexte exact sur le SI (quelle application existe, qui en est propriétaire, quel est son usage réel) évite la majorité des hallucinations métier. Kabeen sert précisément à exposer ce contexte vivant — par API ou via MCP — aux modèles et agents déployés en entreprise.

Questions fréquentes

Qu'est-ce qu'une hallucination en IA ?

+

Une hallucination est la production par un modèle d'IA générative — typiquement un LLM — d'une information fausse, inventée ou non vérifiable, présentée avec la même assurance qu'une réponse correcte. Le modèle ne ment pas : il échantillonne dans un espace de probabilités sans vérité de terrain pour contrôler la sortie. C'est l'obstacle principal à l'industrialisation de la GenAI sur des usages critiques.

Pourquoi les LLM hallucinent-ils ?

+

Les causes sont structurelles : l'apprentissage statistique (le modèle prédit le mot suivant le plus probable, pas le plus vrai), les données d'entraînement bruitées, la date de coupure (knowledge cutoff), les sujets hors-distribution (sous-représentés dans le corpus), et la compression intrinsèque (un modèle de 70B paramètres ne peut pas mémoriser tout l'internet, il interpole).

Comment réduire le taux d'hallucination ?

+

Cinq leviers cumulables : (1) le RAG pour ancrer les réponses sur des sources vérifiées, (2) le fine-tuning sur des données métier de qualité, (3) le prompt engineering défensif ("cite tes sources", "dis je ne sais pas si nécessaire"), (4) la vérification par un second LLM (judge model), (5) le human-in-the-loop sur les usages critiques. Aucun de ces leviers ne supprime totalement le risque ; la combinaison le réduit drastiquement.

Qui est responsable d'une hallucination d'IA ?

+

Dans la plupart des jurisprudences récentes, c'est l'utilisateur ou le déployeur qui reste responsable du contenu généré, pas l'éditeur du modèle. Un avocat américain a été sanctionné en 2023 pour avoir cité des arrêts inventés par ChatGPT. Le RGPD impose par ailleurs un droit à l'exactitude des données personnelles, et l'AI Act européen comme ISO 42001 imposent désormais des dispositifs de mesure et de réduction du risque d'hallucination.

Besoin d'aide pour cartographier votre SI ?

Kabeen vous aide à inventorier, analyser et optimiser votre portefeuille d'applications.

Essayer gratuitement