Intelligence artificielle Pédagogique Point chaud / en émergence Technologique

Des IA plus fiables?

Aujourd’hui je vous propose d’explorer le sujet des hallucinations dans les modèles d’intelligence artificielle (et de solutions à ces hallucinations!)

Il existe deux types principaux d’hallucinations dans les modèles d’IA

Hallucinations liées aux données
Ces hallucinations surviennent soit parce que les données apprises sont intrinsèquement fausses, soit à cause de subtilités du langage. Par exemple, si un article scientifique parle de résultats obtenus sur des souris, mais que le résumé utilise le terme “mammifères”, le modèle apprend à généraliser — et peut finir par halluciner que des résultats obtenus chez les souris s’appliquent également aux humains ou à d’autres mammifères sans validation scientifique appropriée. Cette généralisation peut mener à la génération d’informations erronées.

Hallucinations liées au modèle lui-même
Malgré des données d’entraînement de qualité, le modèle peut ne pas avoir assez de contexte pour répondre correctement à une requête spécifique. Cela arrive lorsqu’il ne dispose pas de données pertinentes ou qu’il n’arrive pas à faire les liens nécessaires entre les informations dont il dispose. Comme ces modèles sont conçus pour générer du texte de manière fluide sans mécanisme de vérification inhérent, ils vont produire du contenu erroné ou faux tout en paraissant confiants dans leurs réponses. L’absence d’un système intégré pour sourcer ce qui est généré fait en sorte qu’il est difficile pour le modèle de reconnaître ses limites et d’indiquer clairement à l’utilisateur qu’il ne possède pas l’information demandé

Explication du RAG

RAG signifie “Retrieval-Augmented Generation” ou “Génération augmentée par récupération” en français. Le principe de cette méthode est de fournir au modèle des ressources (choisies par l’utilisateur) pertinentes à un sujet spécifique. Le modèle va ensuite identifier parmi ces ressources celles qui sont pertinentes au contexte de la question posée par l’utilisateur. Enfin le modèle va générer la réponse en intégrant ces documents au contexte de la question.

Comme l’explique Jerry Liu : «Si on y réfléchit, le RAG est fondamentalement de l’ingénierie de prompt, car vous trouvez essentiellement un moyen d’intégrer du contexte dans le prompt. C’est simplement une méthode programmatique d’ingénierie de prompt. C’est une façon de formuler des requêtes pour récupérer automatiquement du contexte [depuis votre base de données].» (traduction libre)
En ajoutant cette couche au modèle existant, on lui donne une instruction claire : s’il ne trouve pas l’information dans la base de données consultée, il doit indiquer qu’il ne sait pas. Cela permet également au modèle d’indiquer la section de texte qu’il a utilisée pour créer la réponse et donc, de fournir des sources vérifiables à l’utilisateur. Cette approche garantit aussi que les sources utilisées sont à jour et de qualité.

Bien sûr, cette méthode n’est pas infaillible et nécessite que le modèle comprenne bien le contexte de la question qui lui est posée pour répondre avec de l’information pertinente.

Comme le souligne Louis-François Bouchard (2024) :
« C’est (actuellement) la meilleure façon de contrôler vos résultats et de rendre votre modèle plus sûr et aligné. Fondamentalement, c’est la meilleure façon de garantir que vous donnerez la bonne réponse […] » (traduction libre)

Il existe d’autres moyens de rendre le modèle mieux aligné et donc plus pertinent comme par exemple la rédactique ou le réglage fin (fine-tuning). Si cela vous intéresse, je pourrais également réaliser des publications détaillées sur ces méthodes complémentaires.

Aspect pédagogique

Compétences IA pour les personnes étudiantes
Parmi les compétences générales à développer en regard de l’usage des outils de l’IA selon le rapport du comité expert, en voici quelques-unes particulièrement pertinentes :

  • Savoir découvrir, comparer et choisir l’outil d’IA approprié à ses usages personnels, étudiants et professionnels.
  • Savoir interagir efficacement avec des outils d’IA afin d’atteindre l’objectif souhaité.
  • Être capable de déconstruire et critiquer les résultats générés par les outils d’IA.

Ces compétences sont plus faciles à développer si les apprenants ont accès aux sources utilisées par l’IA ou si celle-ci fournit des sources de qualité. De plus, l’apprentissage de la recherche et de l’évaluation de sources de qualité devient une compétence fondamentale dans ce contexte numérique en évolution rapide.

Aspect éthique et citation des sources
Le rapport du comité expert mentionne également comme profil de sortie futur pour les étudiants : « Utiliser les outils d’IA de façon éthique, légale, déontologique et sécuritaire. »

L’intégration de mécanismes de citation de sources dans les outils d’IA renforce non seulement la fiabilité des informations générées, mais encourage également une pratique éthique de la recherche et de la production de contenu académique. Cette dimension éthique devient cruciale dans un environnement éducatif où l’IA joue un rôle de plus en plus important.

L’IA comme outil
Dans le rapport, on mentionne de : « considérer les dérives possibles de percevoir le rôle potentiel de l’IA comme un tiers éducatif (Paquelin, 2024) dans les différentes étapes des processus d’enseignement-apprentissage et par conséquent d’identifier la place qui pourrait lui être accordée ou non. En d’autres termes, faire en sorte que l’humain reste au cœur des processus d’enseignement-apprentissage et ne pas tomber dans la dérive anthropomorphique de l’IA (l’IA n’est pas un autrui); »
Le fonctionnement d’une IA générative avec RAG, en fournissant des sources vérifiables et en incluant des citations précises de ces sources, permet de la considérer davantage comme un outil de recherche et d’assistance plutôt que comme une entité autonome remplaçant le jugement humain dans le processus éducatif.

Ressources
Vous pouvez retrouver de l’information et plusieurs exemples d’outils utilisant les RAG sur la page de mes collègues des bibliothèques : https://libguides.biblio.usherbrooke.ca/IA/outils

Références :
Bouchard, L.-F., Huppe-Marcoux, F., & Solano, O. (2024, octobre 31). The Rise of RAG [Substack newsletter]. High Learning Ratehttps://highlearningrate.substack.com/p/the-rise-of-rag
Bouchard, L.-F. (2024, janvier 9). RAG Explained [Louis-François Bouchard, aka What’s AI]. https://www.louisbouchard.ai/rag-explained/
Sherbrooke, U. de. (2025). Adapter les programmes d’études pour tenir compte de l’IA à l’Université de Sherbrooke : Recommandations et invitation à l’action. Service de soutien à la formation, Université de Sherbrooke. https://doi.org/10.5281/zenodo.13376588
Weng, L. (2024, juillet 7). Extrinsic Hallucinations in LLMs. https://lilianweng.github.io/posts/2024-07-07-hallucination/

 

Premiers résultats d'une enquête sur la santé mentale des personnes étudiantes au supérieur
Impact écologique des intelligences artificielles
+ posts

À propos de l'auteur

Thomas Mechineau

Laisser un commentaire