Un article paru sur le site Slate présente un portrait préoccupant d’universités américaines qui exploitent des algorithmes pour guider leurs efforts de recrutement de candidats potentiels à leurs programmes de doctorat. L’abandon de l’utilisation controversé d’un tel système à l’Université du Texas à Austin visant à sélectionner les meilleures candidatures met en lumière une tendance lourde observée aux États-Unis: la sélection des candidats encourage des pratiques que les auteures qualifient de prédatrices et discriminatoires. Ces pratiques ont pour résultat d’accroître les inégalités en excluant des populations entières d’étudiantes et d’étudiants.
Comme le rappellent les auteures de l’article, l’utilisation des données pour soutenir le recrutement étudiant n’est pas un phénomène nouveau. Cependant, l’informatisation des systèmes a notamment permis au secteur privé de collecter une masse énorme de données provenant de différentes sources, incluant non seulement les résultats à divers tests de classement, sondages et questionnaires mais aussi des historiques de navigation sur le web, masse de données qui a été combinée et croisée avec des informations nominatives et socioéconomiques (le genre, l’origine ethnique, le statut socioéconomique, etc.). Ces données ont ouvert la porte à des algorithmes spécialisés qui peuvent automatiser la création de profils étudiants et les classer selon différents critères. Ces profils sont ensuite vendus à gros prix aux universités afin qu’elles puissent mieux cibler les candidatures désirées dans leurs programmes respectifs en fonction de leurs besoins.
En raison de la pandémie due au COVID-19, certains examens ont dû être annulés au printemps dernier; des institutions ont utilisé des modèles prédictifs pour estimer les scores qu’auraient obtenu les personnes étudiantes avant la crise. Apparemment, ces prédictions pouvaient être faussées par l’utilisation de données partielles, lesquelles, par exemple, proviennent de biais qui exclut les populations sous-représentées dans les données collectées:
Algorithms include the conscious and unconscious bias of their human creators, and they often reflect societal biases and inequities. So the potential benefits they produce in research labs are typically not borne out in reality. Algorithms cannot correct the racial, gender, and disability discrimination of the past and should not be used to reverse the progress we are making toward equality and accessibility in higher education.
Voilà un exemple où l’utilisation de l’IA doit être supervisée par l’humain tout au long du processus…
À lire!
Source: Richardson, Rashida et Lerner Miller, Marci. The Higher Education Industry Is Embracing Predatory and Discriminatory Student Data Practices. Slate, 13 janvier 2021.