Une centaine d’experts, incluant des personnalités comme Yoshua Bengio, Elon Musk, Steve Wozniak, des membres de DeepMind de Google, ainsi que des experts américains en IA, des universitaires et des ingénieurs exécutifs chez Microsoft, alliés d’OpenAI, ont signé une pétition appelant à une pause de six mois dans l’entrainement d’intelligences artificielles plus puissantes que GPT-4 d’OpenAI.
Les préoccupations de ces experts portent sur les dangers pour la société, notamment en ce qui concerne la perte d’emplois, la propagation de fausses informations, etc. Ils appuient ces mises en garde sur des résultats de recherches approfondies menées par des laboratoires d’IA et rappellent l’importance de planifier et gérer avec soin l’intelligence artificielle et selon les principes d’Asilomar AI.
Les signataires affirment que les décisions concernant les puissants systèmes d’IA ne devraient pas être laissées entre les mains de leaders technologiques non élus. Ils appellent à une pause de six mois, impliquant la participation de tous les acteurs clés, ou à défaut, avec l’intervention des gouvernements pour instaurer un moratoire.
Cette pause ne signifie pas une interruption du développement de l’IA en général. Le but serait plutôt de permettre aux laboratoires d’IA et aux experts indépendants de travailler ensemble pour développer des protocoles de sécurité rigoureusement audités et supervisés pour les systèmes d’IA avancés, qui devraient être appliqués à tous les développements futurs de l’IA.
Dans la lettre ouverte, on propose également de recentrer le développement de l’IA sur la création de systèmes plus précis, sûrs, interprétables, transparents, robustes, alignés, dignes de confiance et loyaux, tout en travaillant avec les décideurs politiques pour accélérer le développement de systèmes de gouvernance de l’IA robustes, tels que de nouveaux organismes de réglementation, la surveillance et le suivi des systèmes d’IA, un écosystème d’audit et de certification, la responsabilité pour les dommages causés par l’IA, etc.
Ils soulignent également la nécessité d’établir des techniques pour distinguer ce qui est réel de ce qui est créé artificiellement, ainsi que des organismes capables de faire face aux perturbations économiques et politiques que l’IA pourrait causer.
En conclusion, cette lettre ouverte qui demande une pause de six mois dans l’entrainement des systèmes d’IA plus puissants que GPT-4 souligne les risques encourus si le développement de ces technologies n’est pas guidé par des principes de transparence, de responsabilité et d’éthique qui prennent en compte les conséquences potentielles sur la société et la démocratie.
Références :
ABC News, A. (2023). OpenAI CEO Sam Altman says AI will reshape society, acknowledges risks: “A little bit scared of this.” ABC News, 16 mars 2023. https://abcnews.go.com/Technology/openai-ceo-sam-altman-ai-reshape-society-acknowledges/story?id=97897122
Altman, S. (2023) Planning for AGI and beyond. OpenAI. https://openai.com/blog/planning-for-agi-and-beyond
Bender, E. M., Gebru, T., McMillan-Major, A., & Shmitchell, S. (2021, March). On the Dangers of Stochastic Parrots: Can Language Models Be Too Big? In Proceedings of the 2021 ACM conference on fairness, accountability, and transparency (pp. 610-623) https://doi.org/10.1145/3442188.3445922
Gagné, J. F., Les algorithmes: des risques pour la démocratie. (2018, November 27). Les Algorithmes: Des Risques Pour La Démocratie | UdeMNouvelles. https://nouvelles.umontreal.ca/article/2018/11/27/les-algorithmes-des-risques-pour-la-democratie/
Pause Giant AI Experiments: An Open Letter – Future of Life Institute. (n.d.). Future of Life Institute. https://futureoflife.org/open-letter/pause-giant-ai-experiments/
Quel rôle donner à l’IA dans la démocratie? Entre dangers et opportunités, UNIGE. (2021, December 16). https://www.unige.ch/lejournal/evenements/automne-2021/quel-role-donner-a-lia-dans-la-democratie/
Team, T. F. (2017, January 18). A Principled AI Discussion in Asilomar – Future of Life Institute. Future of Life Institute. https://futureoflife.org/principles/principled-ai-discussion-asilomar/
Alexandra Lez, M.A.
Conseillère en technopédagogie
SSF | École de gestion
Université de Sherbrooke
Bureau K1-3041
Tél. 819 821-8000, poste 61920
USherbrooke.ca | École de gestion | SSF