Point chaud / en émergence Technologique

Gérer les défis éthiques des chatbots à l’université

Par

Les établissements d’enseignement supérieur aux États-Unis adoptent de plus en plus d’outils d’intelligence artificielle tels que les chatbots (parfois appelés assistants virtuels) pour améliorer leurs services de soutien en ligne. Dans un sondage Educause effectuée en juin 2021, 36% des répondants ont déclaré que les chatbots et autres assistants numériques étaient déjà en place sur leurs campus, tandis que 17% ont indiqué qu’ils étaient en voie d’être intégrés à leur infrastructure numérique. En parallèle, 68% des répondants ont mentionné que cette intégration posait déjà de sérieuses questions éthiques qui pourraient retarder ou totalement freiner l’adoption de telles solutions.

Des experts soulignent que le choix de déployer des chatbots, et plus largement des algorithmes d’IA, soulève de nombreuses questions. L’outil sera-t-il accessible aux personnes dont l’anglais (ou le français chez nous!) n’est pas la langue maternelle, aux étudiants souffrant de troubles du langage ou de problèmes de lecture, ou à ceux et celles disposant d’appareils plus anciens ? Des politiques sont-elles en place pour clairement 1) définir l’utilisation que feront les institutions des données récoltées et 2) identifier qui pourra y accéder? L’université est-elle en mesure de veiller à ce que les données qui alimentent l’outil et les personnes qui participent à sa mise en œuvre soient diversifiées ? Quel type d’évaluation a été prévu pour s’en assurer?

L’Université du Texas à Austin a mis fin à un système d’apprentissage automatique en 2020 après que des critiques ont cité des problèmes de biais et de discrimination. Le système aidait le Département d’informatique à évaluer les demandes d’admission au doctorat en notant les chances d’un candidat d’être accepté grâce à des algorithmes basés sur des données historiques. Parfois, ce type de système est mis en place sans examiner suffisamment les défis non technologiques qui peuvent se présenter. C’est sur ce point que l’Université de la Californie à Irvine a voulu travailler en développant un outil chatbot hybride. Ce dernier s’inspire, comme d’autres chatbots, des mots-clés fournis par l’usager pour répondre aux questions mais peut fournir des réponses plus justes aux requêtes après les avoir référées à une équipe-conseil humaine lorsque le niveau de précision est jugé plus faible. En ajustant une réponse précédente ou en spécifiant une nouvelle réponse à donner, la personne conseillère va permettre à l’algorithme de corriger le tir lors d’une requête subséquente. De plus, les informations sensibles ne sont pas du tout considérées par l’algorithme et sont référées immédiatement à une personne. L’outil et l’humain travaillent alors de pair pour mieux assister un nombre croissant de clients.

À lire!

Source

Swaak, Taylor. AI Chatbots Pose Ethical Risks. Here’s How One University Is Handling Those. Chronicle of Higher Education, 27 janvier 2022.

La formation à distance à la rescousse de la formation comodale
Entretien entre 3 démissionnaires de la formation supérieure
+ posts

À propos de l'auteur

Laisser un commentaire