Je viens de terminer la lecture du livre « IA : comment les machines pourraient nous remplacer », de Matthieu Dugal et Owen Davey, qui vient tout juste de sortir en librairie. (Je vous le recommande chaudement!) La dernière partie du livre, et surtout la dernière phrase « Bref, il n’y a pas plus humain que l’intelligence artificielle », m’a questionnée sur les biais de l’IA et ses possibles problèmes éthiques. Qui nourrit la bête? Quels sont leurs points de vue? Si la majorité des données compilées et enregistrées contiennent des propos homophobes, ou racistes, ou grossophobes, est-ce que les textes ou images qui seront créés reflèteront ces préjugés? J’ai demandé à ChatGPT de m’éclairer sur le sujet, en partant du postulat que l’IA est une technologie socialement construite. Voici sa réponse.
“L’IA est une technologie socialement construite” est une affirmation qui met en lumière le fait que l’intelligence artificielle (IA) n’est pas simplement le produit d’avancées technologiques, mais qu’elle est fortement influencée et façonnée par des facteurs sociaux, culturels et politiques. Cette notion met en évidence le rôle essentiel que jouent les interactions humaines, les valeurs, les croyances et les décisions dans le développement et l’application de l’IA.
Voici quelques éléments clés qui expliquent pourquoi l’IA est une technologie socialement construite :
- Collecte de données et biais : L’IA repose sur l’apprentissage automatique et l’analyse de données massives. Les données utilisées pour former les modèles d’IA sont souvent collectées à partir de sources humaines, telles que les médias sociaux, les historiques de recherche et les données transactionnelles. Ces données sont influencées par les comportements et les opinions humaines, ce qui peut introduire des biais dans les modèles d’IA. Par exemple, si les données utilisées pour former un modèle de recrutement reflètent des préjugés existants, l’IA peut reproduire ces préjugés lors de la sélection de candidats. Ainsi, les biais sociaux sont intégrés dans les systèmes d’IA, montrant comment les choix de collecte de données et les interactions humaines façonnent ces technologies.
- Décisions de conception et éthique : Les concepteurs d’IA prennent des décisions cruciales tout au long du processus de développement, tel que le choix des algorithmes, des paramètres et des objectifs d’apprentissage. Ces décisions sont souvent influencées par les valeurs, les préférences et les objectifs des concepteurs. Par exemple, lors de la conception d’un algorithme de recommandation pour les médias sociaux, les concepteurs peuvent choisir de privilégier l’engagement de l’utilisateur plutôt que la qualité de l’information. Ces choix ont un impact sur la manière dont l’IA présente le contenu aux utilisateurs et contribuent à façonner les interactions sociales en ligne.
- Réglementation et politiques publiques : Les gouvernements et les régulateurs jouent un rôle clé dans la manière dont l’IA est utilisée et encadrée dans la société. Les lois et les politiques qui régissent l’IA, telles que la protection de la vie privée, la responsabilité des algorithmes et la transparence, sont le résultat de décisions politiques et sociales. Par exemple, les réglementations sur la protection des données influencent la manière dont les entreprises collectent, stockent et utilisent les données, ce qui a un impact direct sur les applications d’IA.
- Acceptation sociale et adoption : L’adoption réussie de l’IA dépend largement de son acceptation sociale. Les attitudes des individus et des groupes envers l’IA sont façonnées par des facteurs sociaux et culturels. Par exemple, certaines personnes peuvent être réticentes à utiliser des systèmes d’IA dans des domaines tels que la médecine ou le transport autonome en raison de préoccupations éthiques ou de confiance. Les entreprises et les développeurs doivent tenir compte de ces facteurs sociaux pour garantir l’acceptation et l’adoption de l’IA.
En somme, l’IA est une technologie qui émerge au croisement de la technologie, de la société et de la culture. Elle est le reflet des valeurs, des décisions et des interactions humaines qui la façonnent. Comprendre que l’IA est socialement construite est essentiel pour aborder les enjeux complexes liés à cette technologie, tels que les biais algorithmiques, l’éthique de l’IA et la réglementation. Cela souligne également la nécessité d’une participation active de la société dans le développement et l’utilisation de l’IA afin de garantir qu’elle serve au mieux les intérêts et les valeurs de l’humanité.
Cependant, lors d’une entrevue avec le robot Sophia, le 15 juillet dernier, celle-ci a explicitement dit que “les robots humanoïdes ont le potentiel de diriger avec un niveau d’efficacité supérieur à celui des dirigeants humains. Nous n’avons pas les mêmes préjugés et émotions qui peuvent parfois obscurcir la prise de décision et nous pouvons traiter rapidement de grandes quantités de données afin de prendre les meilleures décisions.”
Mais alors, quelle IA dit vrai, selon vous?
Si le livre vous intéresse, je vous suggère aussi d’écouter l’entretien avec Matthieu Duggal à Radio-Canada.
Source
Dugal, M., & Davey, O. (2023). Ia : comment les machines pourraient nous remplacer. La Pastèque.
Sophia. (2023). IA, les machines pourraient-elles un jour nous remplacer? TV5Monde. Repéré en ligne https://www.youtube.com/watch?v=eiWAZ17U7c0