« Thierry Ardisson n’est pas mort »
Pourquoi ChatGPT hallucine, et comment l’éviter ?👇
⁉️ Pourquoi l’IA se trompe encore avec assurance ?
👉 Parce que les modèles de langage n’apprennent pas la vérité, mais la probabilité. Et comme les benchmarks valorisent l’exactitude brute plutôt que la prudence, ils préfèrent inventer… plutôt que dire « je ne sais pas ».
Exemple concret (vidéo à l’appui) :
- À ma question sur Ardisson, ChatGPT dit : « Non, il est vivant »
- Forcé de chercher sur le web, il corrige : « Oui, il est décédé »
- Puis il revient… à « Non, il est vivant »
Résultat : ChatGPT hallucine et devient schizophrène d’autant plus que l’erreur s’inscrit dans sa fenêtre de contexte
Deux problèmes majeurs :
👉 Dans les contextes sensibles (médecine, droit…), une erreur confiante est bien plus grave qu’une absence de réponse.
👉 Et au quotidien, plus tu délègues (à l’IA ou aux autres), plus tu perds ta compétence et ton esprit critique.
Que faire ?
➡️ Personnaliser les instructions pour les sujets sensibles.
Exemple : « Si tu n’es pas sûr, dis-le clairement. Privilégie la prudence à l’invention. »
➡️ Ne pas tout déléguer. Travailler avec l’IA (et avec les autres), sans jamais sortir totalement de la boucle.
💬 Alors, ton avis ?
- Avez-vous déjà vécu ce type de bug ?
- Vous préférez une IA qui devine quitte à se tromper… ou une IA qui admet ses limites ?
ChatGPT est formé sur un grand ensemble de données figées jusqu’en juin 2024 : il s’appuie donc sur ce savoir pour répondre sur l’histoire, la science, la technique, la culture, etc.
Mais pour tout ce qui est récent, donc ARDISSON, en évolution ou d’actualité (rapports, événements, études, lois, articles…), il doit utiliser la recherche Web pour compléter et actualiser ses réponses....ils faut donc lui préciser.
C'est mal connaitre la conception même des IA que d'affirmer qu'il hallucine t devient schizophrène....