La fin de 2022 et le début de cette année ont été soulignés par la prolifération d’outils visant à simplifier l’utilisation de l’intelligence artificielle générative (IAG) et à la rendre accessible au grand public. Parmi ces outils, ChatGPT a suscité l’attention internationale en tant que figure de proue de cette nouvelle vague de technologies d’IA conviviales. Cela a suscité la controverse, notamment dans le domaine de l’éducation.
Des réactions variées dans le domaine de l’éducation
Depuis son apparition, ChatGPT a été testé dans des contextes universitaires avec des résultats qui ont surpris plus d’une personne. Les réactions provoquées ont été très diverses et elles sont allées de l’interdiction de son utilisation à la promotion de son utilisation rationnelle et critique.
Plusieurs préoccupations ont été soulevées, cependant trois d’entre elles semblent avoir obtenu un consensus :
- le besoin de réfléchir à l’impact de ces technologies sur les modalités pédagogiques,
- de promouvoir une utilisation responsable et éthique et enfin,
- de saisir les opportunités qu’elles offrent pour l’enseignement et l’apprentissage.
Ces questions deviennent de plus en plus pertinentes en raison des avancées rapides des assistants IA.
L’avènement d’une nouvelle ère d’assistants IA
Les avancées rapides dans le domaine de l’IA et des algorithmes de Deep Learning ont permis la création de modèles de langage tels que celui qui alimente ChatGPT. Au cours des derniers mois, nous avons vu apparaitre de façon régulière de nouvelles applications qui exploitent ce modèle (Perplexity.ia, ChatSonic, le nouveau Bing de MS, etc.).
Nous assistons à l’avènement d’une nouvelle ère d’assistants IA de plus en plus capables d’effectuer des tâches complexes et de communiquer de manière naturelle avec les personnes utilisatrices. Ces technologies ne sont pas infaillibles et ne sont pas exemptes non plus de défis (dérapages, biais existants dans les données utilisées, fiabilité, etc.). Donc, pour tirer le meilleur parti de ces outils, il est important de pouvoir poser un regard critique et de comprendre les limites qui peuvent être associées à leur utilisation.
Promouvoir la pensée critique
En effet, pour tirer profit de technologies comme ChatGPT, il apparait nécessaire de promouvoir la pensée critique.
Il s’agit d’une compétence essentielle pour évaluer de manière critique les informations qui nous sont présentées (Aldama et coll., 2023), pouvoir faire la distinction entre ce qui est véridique et ce qui est plausible et nous servir de ces outils de manière éthique (Collin et coll., 2023). Heureusement, il y a de plus en plus d’initiatives qui vont dans ce sens.
Vers des usages éthiques et responsables de l’IA
Il est indispensable de considérer les enjeux éthiques et de responsabilité dans toutes les applications de l’IA, y compris dans le domaine de l’éducation. Ces dernières années, plusieurs initiatives ont vu le jour à l’échelle nationale et internationale pour encourager une utilisation de l’IA éthique et responsable. Nous pouvons souligner, par exemple, la Déclaration de Montréal pour un développement responsable de l’IA, le Global Partnership on AI (GPAI), l’initiative AI Now Institute, etc.
La Commission européenne a publié en 2020 le Livre blanc intitulé « Intelligence artificielle : une approche européenne axée sur l’excellence et la confiance » et le Rapport sur l’intelligence artificielle à l’ère numérique (2022). Pour sa part, l’UNESCO a publié la Recommandation sur l’éthique de l’intelligence artificielle (2021), qui propose des orientations pour une utilisation responsable de l’IA à l’échelle mondiale.
Au Québec, plusieurs initiatives dans le domaine de l’enseignement supérieur ont vu le jour. Nous pouvons nommer l’Observatoire international sur les impacts sociétaux de l’IA et du numérique (OBVIA), dont l’Université de Sherbrooke est l’un des membres fondateurs. Il s’agit d’un réseau de recherche qui vise à encourager la production et l’utilisation éthique et responsable de l’IA et du numérique. Un autre exemple est le Pôle montréalais d’enseignement supérieur en intelligence artificielle (PIA) qui a créé une trousse d’outils visant à intégrer l’éthique de l’intelligence artificielle en enseignement supérieur.
En conclusion, les nouveaux assistants d’IA sont là pour rester et continuer à se perfectionner. Ils offrent certainement des possibilités intéressantes pour l’apprentissage et l’enseignement, mais ils imposent aussi une réflexion approfondie sur nos pratiques pédagogiques. Plus que jamais, il apparait nécessaire d’encourager le développement de la pensée critique en tant que compétence clé pour l’apprentissage. Il semble essentiel aussi de poursuivre les efforts pour mettre en place des cadres et des initiatives visant à promouvoir des utilisations éthiques et responsables de l’IA.
Références
Aldama, C., García-Pérez, D. (2023). “Social Challenges and Actions for Thinking and Reasoning in the Digital Age.” In: The Palgrave Handbook of Global Social Change. Palgrave Macmillan, Cham. https://doi.org/10.1007/978-3-030-87624-1_3-1
Castets-Renard, C. (2019). Intelligence artificielle : combattre les biais des algorithmes. 10 octobre 2019. The conversation.
Clabum, T. (2023). ChatGPT talks its way through Wharton MBA, medical exams. The Register. 24 janvier 2023.
Collin, S., et Marceau, E. (2023). Enjeux éthiques et critiques de l’intelligence artificielle en enseignement supérieur. Éthique publique, 24(2). https://doi.org/10.4000/ethiquepublique.7619
D’Agostino, S. (2023). ChatGPT Advice Academics Can Use Now. 12 janvier 2023. Inside Higher ED.
Roose, K. (2023). A Conversation With Bing’s Chatbot Left Me Deeply Unsettled. 17 février 2023. The New York Times.
Yang, M. (2023). New York City schools ban AI chatbot that writes essays and answers prompts. The Guardian. 6 janvier 2023.
Alexandra Lez, M.A.
Conseillère en technopédagogie
SSF | École de gestion
Université de Sherbrooke
Bureau K1-3041
Tél. 819 821-8000, poste 61920
USherbrooke.ca | École de gestion | SSF