À la demande de la vice-rectrice aux études de l’UdeS, j’ai choisi quelques textes à présenter au Conseil des études en vue d’une discussion autour des enjeux des intelligences artificielles génératives comme chatGPT. Je souhaite en garder la trace ici:
Il s’agit de cinq articles non-scientifiques qui me semblent faire un premier tour de la question, alors que j’ai sciemment mis de côté les articles plus alarmistes (ex : The Atlantic) ou qui restaient trop en surface des caractéristiques de base de l’outil (ex : La Presse). Je profite de l’occasion pour remercier mes collègues Marc Couture et Alexandra Lèz pour leurs nombreuses suggestions.
1) La liste d’une trentaine d’activités pédagogiques qui mettent à profit chatGPT:
Certaines activités sont plutôt de niveau scolaire, mais la plupart d’entre elles peuvent être adaptées à l’enseignement supérieur, montrant que l’outil peut également servir aux personnes enseignantes.
Par exemple, « Utilisez ChatGPT pour générer des questions d’évaluation formative qui vous aideront à vérifier la compréhension des [personnes étudiantes] et à identifier les points à améliorer. Vous pouvez saisir la commande suivante dans ChatGPT : « Générer 5 questions à choix multiple pour évaluer la compréhension des élèves sur [le concept enseigné]. »
Aussi disponible ici en format PDF, plus intéressant à imprimer.
2) Pour aller au-delà de la panique relative au plagiat :
Plusieurs personnes observatrices tentent de calmer le jeu en indiquant que les institutions d’enseignement s’adaptent depuis des années à de nouvelles innovations technologiques ayant le potentiel de favoriser la triche.
« …Educators worried about the potential for cheating in the classroom with things like high-tech calculators, Internet search engines, and even spell-check. Instead of caving to cheating in these instances, schools had to adapt their approaches, such as limiting the use of calculators on tests and using plagiarism checkers like TurnItIn. ChatGPT and large language models should spur similar adaptations. New tools will emerge to detect this type of AI writing, which largely remains formulaic. Likewise, professors should adapt their essay prompts to focus on analytical thinking instead of regurgitating facts. They might also change the distribution of assessment types in a course to focus on proctored exams and fewer take-home tests. »
[Diebold, Gillian, « Higher Education Will Have to Adapt to Generative AI—And That’s a Good Thing », Center for Data Innovation, 17 janvier 2023]
3) Où l’on présente plusieurs limites des textes générés actuellement par chatGPT :
Ainsi, « [l]a caractéristique principale des modèles de langage utilisés par les IA reste « l’illusion d’exactitude », comme l’observait à la mi-décembre Melissa Heikkilä, journaliste à la MIT Technology Review, spécialisée dans les questions d’IA. « Les phrases qu’elles produisent semblent correctes – elles utilisent les bons types de mots dans le bon ordre. Mais l’IA ne sait pas ce que cela signifie. Ces modèles […] n’ont pas la moindre idée de ce qui est correct ou faux, et ils présentent avec assurance des informations comme vraies, même si elles ne le sont pas… » […] Les mots mis bout à bout par l’IA de façon grammaticalement correcte peuvent également trahir une méconnaissance profonde de la réalité physique de notre monde (référence à des ordres de grandeur invraisemblables pour des distances, des durées). »
4) Où l’on rappelle l’importance des sciences humaines pour l’apprentissage du « comment penser » :
L’auteur répond ici à l’article de Stephen Marche « The College Essay Is Dead » paru dans The Atlantic le 6 décembre 2022:
« …[W]hile an essay or dissertation is often the product of learning in the humanities, it is not the core substance. Seminar discussions, theoretical inquiries, stages of peer reviewing, oral defenses—these are the foundation upon which essays are constructed. And, during a time in which calls for diversity in higher academia have reached a fever pitch, these elements of an education in the humanities require students to investigate their unique identities and the role of those identities in the theoretical conversations into which they intend to enter. Because of this, the humanities are not simply an education in what to think, but how to think. […]
…[I]f students do not understand what makes for good prose or stylistic academic writing, or if they cannot formulate a nuanced and original argument based on primary source material, how are they to judge whether the output of ChatGPT offers them a more compelling paper than what they have (or could have) written themselves? »
5) Et, s’il fallait encore se convaincre que ce n’est que le début de tels questionnements, un article sur les avancées prévues de l’intelligence artificielle générative… dès 2023!
« Dans sa compréhension et sa génération de texte ou de langage, le système GPT-3 traite l’information qu’il reçoit à partir de 175 milliards de critères différents. C’est énorme ! […] Pourtant, ce n’est rien à côté de ce que sera GPT-4, son itération suivante. Selon ce que les dirigeants d’OpenAI ont indiqué dernièrement, GPT-4 pourrait traiter l’information en fonction d’un nombre de critères que les rumeurs situent entre 1 et 100 billions (soit entre 1000 et 100 000 milliards de critères). »
[McKenna, Alain, « GPT-4, le bond exponentiel après ChatGPT », Le Devoir, 16 janvier 2023]