Je prends connaissance d’une initiative fort intéressante qui vise à développer un cadre de référence pour baliser le développement de l’intelligence artificielle (IA). Une série de 23 principes articulés autour de préoccupations liées à la recherche, à l’éthique, aux valeurs ainsi qu’à certaines considérations à long terme est le fruit des discussions d’un groupe d’experts en intelligence artificielle qui participaient à la conférence Asilomar en janvier dernier. Parmi les signataires du document, plusieurs personnalités bien connues des domaines des technologies et de la recherche y figurent, incluant des experts dans le domaine de l’IA mais également des institutions et compagnies intéressées à ses applications, dont Google, Apple, IBM et plusieurs autres.
Dans un article qui aborde l’alignement aux valeurs de la société, Ariel Conn a rencontré différents participants qui ont contribué à la définition des 23 principes pour discuter d’une question sous-jacente fondamentale: qu’est-ce que nous voulons développer au juste? Définir ce que l’on veut tout en tenant compte des valeurs qui ne font pas nécessairement consensus est un défi considérable. Il y a des divergences d’opinion quant à la formulation même du principe (“Highly autonomous AI systems should be designed so that their goals and behaviors can be assured to align with human values throughout their operation.”). À ce sujet, Yoshua Bengio de l’Université de Montréal questionne la faisabilité d’assurer cet alignement:
Yoshua Bengio, an AI pioneer and professor at the University of Montreal, suggests “assured” may be too strong. He explains, “It may not be possible to be completely aligned. There are a lot of things that are innate, which we won’t be able to get by machine learning, and that may be difficult to get by philosophy or introspection, so it’s not totally clear we’ll be able to perfectly align. I think the wording should be something along the lines of ‘we’ll do our best.’ Otherwise, I totally agree.”
Toby Walsh, professeur invité à l’Université de Berlin et associé à l’Université de New South Wales en Australie, souligne pour sa part que le mot “highly” devrait être abrogé, car il croit que tous les systèmes devraient être alignés aux valeurs, qu’importe leur niveau d’autonomie initial. Un point de vue que partage Francesca Rossi d’IBM, qui va plus loin en souhaitant que ce principe s’applique à tous les systèmes, incluant ceux qui ne sont pas autonomes.
On voit donc que la discussion ne fait que commencer, je vais suivre de près ces développements.
Source: Conn, Ariel. How Do We Align Artificial Intelligence with Human Values? Future Of Life Institute, 3 février 2017.