Intelligence artificielle

Apprivoiser les IA depuis un an… et la suite? Enjeux éthiques et sociaux

Compte rendu de la conférence de Céline Verchère lors du MPU 2024 

Céline Verchère est professeure associée à l’École de politique appliquée et directrice associée du Laboratoire nanotechnologies et nanosystèmes. Figure respectée dans le domaine de l’innovation responsable comptant plus de 20 ans d’expérience dans les technologies émergentes, ses travaux portent sur l’intégration des technologies dans la société. Ayant déjà exprimé sa volonté d’être un «poil à gratter» qui invite à réfléchir autrement aux projets technologiques en prenant en considération les enjeux sociaux, elle était toute désignée pour ouvrir les deux journées consacrées à l’IA dans le cadre du Mois de la pédagogie universitaire organisée par le Service de soutien à la formation les 15 et 16 février 2024. 

En s’appuyant sur les travaux de l’Organisation de coopération et de développement économiques (OCDE), la professeure Verchère a défini l’intelligence artificielle (IA) comme un système automatisé qui résout des problèmes en utilisant des données entrantes, généralement appelées « requêtes ». Les systèmes d’IA présentent différents niveaux d’autonomie et d’adaptabilité et les outils d’IA générative peuvent créer divers types de données, telles que des images, de la musique, des vidéos, des résumés. 

Selon la conférencière, une innovation est « quelque chose qui [se diffuse] sur le marché à grande échelle » et qui « change nos manières de faire et notre vision du monde ». En s’appuyant sur cette définition, elle considère que ChatGPT est important dans l’histoire de l’IA grâce à trois de ses caractéristiques innovantes. Premièrement, l’agent conversationnel a des traits humains. Deuxièmement, son langage GPT (Generative Pre-trained Transformer) « est capable d’analyser et générer du texte en tenant compte des contextes variés »  et, troisièmement, le modèle commercial d’OpenAI (propriétaire de ChatGPT) permet de diffuser massivement ses outils au grand public tout en les expérimentant. 

L’agent conversationnel (Chatbot) génère l’effet ELIZA consistant « à prêter des traits humains et amicaux à des systèmes d’IA ». Cette caractéristique combinée à son modèle de langage GPT permet à ChatGPT de transformer les mots d’une question en langage mathématique (en jetons), qui sont des séries de chiffres et d’opérateurs algébriques. Les jetons subissent ensuite une contextualisation pour déterminer la réponse la plus probable avant qu’un processus de réencodage convertisse le tout en langage naturel (le schéma de la page 14 de sa présentation illustre très bien ce processus). ChatGPT ne comprend pas la question au sens humain, mais en restituant sa réponse dans un vocabulaire humain, il rend beaucoup plus conviviale l’interaction et peut lui donner des apparences d’humanité tout en facilitant l’appropriation des connaissances par la population. La professeure Verchère souligne qu’il faut donc rester vigilant : «la machine ne réfléchit pas à votre place; elle exécute des opérations qui peuvent vous aider à réfléchir.» Finalement, le modèle commercial rompt avec  l’approche traditionnelle qui réservait les nouveaux outils à une élite technique. L’entreprise intègre également l’IA dans des outils informatiques existants (Office 365 par exemple via un partenariat avec Microsoft), facilitant ainsi son adoption dans les domaines du travail et de l’éducation par exemple. 

Professeure Verchère, bien que consciente des impacts positifs possibles des outils d’IA (ex. : optimisation de processus, suivi plus personnalisé), s’est concentrée lors de la conférence sur les impacts et enjeux généraux négatifs de ceux-ci autour de 8 thèmes principaux. Concernant l’environnement (1), les grandes quantités de ressources nécessaires pour entrainer, puis faire fonctionner les outils d’IA doivent être prises en considération lorsque vient le temps de permettre, voire d’encourager, l’utilisation de ces outils. Pour le second thème, la concentration des outils d’IA performants et des moyens pour les développer au sein d’un petit nombre de grandes entreprises soulève des questions de monopole et de la dépendance (2) potentielle des universités envers ces acteurs aux vocations éloignées de la pédagogie. Par ailleurs, l’IA peut avoir des effets significatifs sur la sécurité des états et la démocratie (3) plus largement, en raison, entre autres, du risque de manipulation de l’opinion publique. L’utilisation des outils d’IA soulève également de nombreux enjeux liés à la collecte, le partage, la protection des données et le consentement (4) et donc, in fine, aux responsabilités des entreprises créatrices et utilisatrices de ces outils. 

Sur un plan plus individuel, des impacts sur la santé mentale et l’épanouissement humain (5) peuvent être anticipés, par exemple liés à une dépendance accrue à ces outils engendrant des pertes de compétences et une déresponsabilisation. Également, au-delà des biais liés au manque de diversité des données utilisées pour entraîner des outils d’IA, leur déploiement peut aggraver les iniquités d’accès (6) et la fracture numérique en marginalisant ceux qui ne maitrisent pas les langues utilisées par les robots ou qui ne sont pas capables d’utiliser un clavier. L’avant-dernier thème se rapproche plus des défis pédagogiques avec des impacts sur la véracité des informations (7). Une IA générative comme ChatGPT ne discrimine pas entre le vrai ou le faux, elle répond ce qui est le plus probable, voire le plus couramment répété. La recommandation de la conférencière est «plutôt que de chercher ce qui est vrai ou faux, il faut complètement changer le référentiel, notamment pour les étudiants, pour plutôt chercher à comprendre qui a émis cette information et avec quelle intention». Finalement, elle a averti l’auditoire que si, aujourd’hui, on reste avec l’idée que seuls les humains sont capables d’originalité et de créativité (8), c’est une frontière qui pourrait être remise en cause dans les années à venir avec une «créativité machine» en développement. 

Pour le domaine de l’enseignement plus particulièrement, la conférencière a recensé 3 grands impacts positifs dans la littérature scientifique : optimiser le travail des personnes enseignantes et étudiantes, personnaliser l’apprentissage et optimiser les processus administratifs (comme les admissions). Les impacts négatifs pour ce domaine, toujours selon la littérature qu’elle a recensée, recoupent les éléments précédemment détaillés : intégrité académique et intellectuelle, désinformation, augmentation de la fracture numérique et des inégalités, uniformisation possible des contenus (si les outils d’IA sont utilisés basiquement) et potentiel de dépendance aux géants du numérique. Deux dimensions seraient ainsi principalement impactées : l’acquisition des compétences académiques et les évaluations. 

Au vu des actions des entreprises du domaine de l’IA (intégration dans les outils informatiques existants, type Microsoft Copilot, et stratégie de pénétration du domaine éducatif), la professeure Verchère croit en l’importance que l’on réfléchisse à ce sujet au sein de l’université pour, entre autres, qu’elle soit adaptée, voire un peu en avance sur ce qui est attendu dans le monde du travail concernant les usages des outils d’IA. 

Sur le plan éthique et dans une perspective d’innovation responsable, la professeure Verchère conclut en suggérant la mise en place d’une co-construction d’une relation avec les outils d’IA. Elle avance quelques questionnements, à savoir «qu’est-ce [ces outils] induisent, c’est quoi les scripts qu’ils proposent, nous imposent ? Et nous, comment on peut être créatifs et en profiter, plutôt que de rester dans des normes qui, à [s]on avis, fonctionnent moins bien avec les IA ?». Se poser la question d’un usage responsable revient pour elle à développer des compétences relevant de la posture (esprit critique), des compétences techniques (comment ça marche), relationnelles (dialoguer avec les machines et savoir s’arrêter) et d’apprendre à apprendre et transmettre sans les machines (apprentissage expérientiel, pédagogie transformatrice passant par le processus). 

Les deux journées thématiques IA du MPU 2024 ont offert à la communauté universitaire de nombreuses conférences et ateliers. Si le sujet vous intéresse, nous vous suggérons la lecture d’un autre compte-rendu, celui du panel d’experts «Considérer la place des intelligences artificielles (IA) dans les programmes de formation». Vous pouvez également retrouver les présentations d’autres activités sur cette page. 

L'IA et le marché du travail canadien : une nouvelle étude de Statistique Canada
Considérer la place des IA dans les programmes de formation
+ posts

À propos de l'auteur

Serge Piché

Laisser un commentaire