Technologique Tendances sociétales

Conversation avec François Grondin (génie) sur l’avenir de l’IA

François Grondin est professeur adjoint au Département de génie électrique et génie informatique à l’Université de Sherbrooke depuis 2020. Il a obtenu son baccalauréat en génie électrique à l’Université McGill et sa maîtrise (’11) et son doctorat en génie électrique à l’Université de Sherbrooke. Il a ensuite travaillé comme chercheur postdoctoral au Massachusetts Institute of Technology au sein du laboratoire CSAIL pendant deux ans.

Il a récemment prononcé une conférence intitulée Comprendre ChatGPT à l’Institut interdisciplinaire d’innovation technologique (3!T) dans le cadre de la série « L’IA face au génie humain », ce qui nous a donné envie de le rencontrer.

JSD : Bonjour François. S’il te plaît, parle-nous un peu de toi et de ton expérience avec les intelligences artificielles.

Je suis un gars de robotique. Je fais du traitement audio. Alors ChatGPT, les modèles de langage, etc. j’ai toujours été un peu exposé à ça par la bande, parce que je travaille avec des gens qui en font…  Moi aussi j’en apprends encore beaucoup.  Les gens disent parfois que je suis un expert et ça me gêne un peu… Les vrais experts, ils sont à des années-lumière de moi, mais je pense que, de toutes façons, à la vitesse où le domaine change, on se sent tous un peu dépassés. Il n’y a personne qui peut dire qu’il comprend parfaitement. Si un scientifique dit : « Moi, je comprends, je connais tout de ça », je pense qu’il ou elle parle à travers son chapeau, parce que ça va trop vite. Il faudrait que je lise 15 articles par jour pour être capable de suivre, ce qui est évidemment impossible.  Je vais devoir demander à ChatGPT de me résumer les articles que je n’ai plus temps de lire… (rires)

JSD : Pourrais-tu nous donner une idée de l’état actuel de la recherche en IA?

En ce moment c’est un peu prétentieux d’appeler ça de « l’intelligence » artificielle. L’intelligence, c’est beaucoup plus complexe que ça. Si on regarde le cerveau humain, la quantité d’énergie qu’on consomme dans une journée en tant que personne, puis la quantité qui va pour alimenter le cerveau… On est à plusieurs ordres de grandeur de magnitude de l’énergie qu’on utilise en ce moment sur des machines pour faire des tâches semblables.

Essentiellement, il y a quelque chose qu’on n’a pas compris de comment les gens fonctionnent, parce que les humains sont capables, avec un nombre limité de connexions, puis une espèce de structure organique assez dense, de faire des choses qu’une machine ne pourrait jamais faire.

Donc, moi je crois qu’on n’a pas compris ce qu’est l’intelligence. On a trouvé une patch, on a trouvé une façon de créer des choses qui ressemblent à ça, mais on n’est pas près du remplacement de l’intelligence humaine, parce qu’il y a quelque chose de fondamental qu’on n’a pas encore cerné, puis qu’on est même pas proche de cerner.

Pour différentes raisons, je ne crois pas que les IA vont atteindre la singularité technologique d’ici 5 ans ou même 10 ans. Entre autres, parce que l’IA apprend seulement sur des données existantes, même si elle fait des liens.

Elle est capable d’apprendre de nouveaux concepts, mais tout ce que l’IA fait de « créatif » en ce moment, c’est basé sur des exemples qui ont été vus dans le passé. La créativité humaine va au-delà de ça. Je pense que l’IA est limitée à ce niveau, parce que c’est un excellent perroquet, mais c’est tout de même un perroquet.  L’humain a une quelque chose de plus qu’on ne le comprend pas nous-mêmes. Pourquoi en vient-on à faire des liens? Pourquoi des artistes arrivent-ils à créer un nouveau genre musical qui n’a jamais été entendu avant? Il y a quelque chose là-dedans que l’IA ne peut pas faire en ce moment, parce qu’elle est limitée à son fameux dataset [ensemble de données].

Il y a un débat qui sévit en ce moment dans le domaine de l’IA. Est-ce qu’en ajoutant de plus en plus de paramètres, de plus en plus de données, on va atteindre « l’intelligence »?…  De mon point de vue, ce n’est pas vrai que la recherche des dix prochaines années va se limiter à faire des modèles de plus en plus gros…  On pourrait comparer cette course à celle pour obtenir des voitures plus puissantes. Il fût un temps où, pour obtenir une voiture plus efficace, on augmentait le volume du cylindre du moteur.  Sauf que l’essence coûte cher…  Alors on a commencé à développer des stratégies qui étaient beaucoup plus astucieuses que juste grossir, grossir, grossir. 

Je pense qu’on arrive à la fin d’une période où seuls les gros joueurs sont capables d’entraîner les réseaux.  Même pour eux, ça coûte cher et on est comme en train de d’arriver à la limite de ce qu’on peut faire avec les ressources que l’on a. Il va donc falloir qu’on retourne à la planche à dessin, puis qu’on se dise peut-être que la descente de gradient par force brute avec des milliards de paramètres, ce n’est pas la stratégie la plus viable à long terme.

JSD :  On lit toutes sortes de choses sur l’avenir des IA. On entend que très rapidement les modèles de langage vont se mélanger avec les modèles neuronaux que la synthèse de la parole va se mettre là-dedans… On va juste demander oralement au système de répondre à nos questions. On s’en va où d’après toi?  Mettons dans 3 ans, 5 ans maximum.

Moi, je pense que tout ce qui est « modalités » va évoluer. En ce moment, avec ChatGPT, on est limité à du texte écrit. Éventuellement les modalités, ça va être la voix, ça va être le vidéo, ça va être les photos… Donc, on peut imaginer des modalités inter-croisées. Par exemple, je prends une photo, puis je dis verbalement à mon téléphone « enlève l’arrière-plan, remplace-le par telle chose ». On va pouvoir par exemple dire « génère-moi une vidéo de 10 secondes d’un enfant qui fait du vélo sur un chemin de terre ». Ça ne sera pas une vidéo déjà existante, mais une vidéo vraiment générée de A à Z. On pourra l’ajuster en disant : « Mets-moi ça plus en fin de journée… Diminue l’ensoleillement… Ajoute des arbres en arrière-plan… »

À mon avis, ça va toucher tout ce qui est divertissement. Tout le monde va pouvoir devenir un créateur de contenu sans avoir aucune connaissance particulière.

Je pense qu’il va avoir une explosion de fausses nouvelles et de faux contenus parce que le contenu généré sera aussi crédible que le contenu réel… Du moins, je parle en termes de modalités : la voix va être réaliste, les images vont être réalistes…  Donc, moi je pense que ce qui va probablement arriver, c’est qu’on va devoir s’asseoir en tant que société, tout le monde ensemble et on va créer des standards. 

On va devoir développer des normes d’authentification pour vérifier les contenus. Il va y avoir une nécessité d’avoir une autorité quelque part qui définit du contenu comme étant vraiment du contenu original et non du contenu généré. Un peu de la même façon que mes billets de banque ont été authentifiés.  Des choses qui font en sorte que je sais que cette information, c’est une vraie.

JSD : Toi, es-tu optimiste ou pessimiste par rapport à tout ça ? Tu le sais, il y a des gens qui demandent un moratoire, qui commencent à comparer l’IA au nucléaire, au clonage humain, etc.

Je ne suis pas un pessimiste, mais je suis quelqu’un qui croit qu’il ne faut quand même pas attendre dix ans avant de se poser des questions sur ce qui va arriver. Je crois qu’il faut se donner des lignes directrices dès maintenant.  Notre responsabilité, en tant que scientifiques, c’est de conseiller la société.  Dans notre processus de développement de technologie, il faut anticiper des mécanismes pour pouvoir la baliser.

C’est un peu comme si quelqu’un créait un nouveau type d’énergie.  De nos jours, on va penser à quel sera l’effet de cette énergie sur l’environnement. Si je dois utiliser cette nouvelle énergie comme carburant, est-ce que ça aura une empreinte négative ou positive? C’est une réflexion qu’on n’avait pas nécessairement dans le passé. On était plus dans l’émerveillement de la découverte. Je trouve que maintenant – en tout cas j’ose l’espérer – il y a une certaine maturité qui commence à s’installer. Maintenant, on demande aux scientifiques de ne pas uniquement être des concepteurs de notions abstraites, mais aussi de réfléchir déjà une étape plus loin aux impacts que leur découverte technologique aura…

On le voit déjà : Il y a à peine un an on était uniquement dans le « Wow Factor » de « Ah! L’IA peut faire ci, l’IA peut faire ça… », tandis que maintenant on se demande de plus en plus comment on va baliser l’IA…

Je pense qu’une bonne façon de se préparer, c’est de regarder la réaction de la société face à l’arrivée d’Internet.  Quand Internet est arrivé, au début c’était l’émerveillement.  Puis, rapidement, ça a été « Comment qu’on gère un crime commis sur Internet? » Des questions qu’on ne se posait jamais avant.  Aujourd’hui, Internet fait partie de nos vies, mais ne prend pas toute la place non plus. On lui a trouvé une place, puis on l’a comme « encadré ».  J’ai l’impression que c’est un peu la même chose qui va se produire avec l’IA.

Source: entrevue personnelle avec François Grondin, 26 mai 2023

Visite de Colin de la Higuera -des ressources pour réfléchir à l'IA et aux REL
Journée sur l'IA dans le supérieur : rapport d'étonnement
+ posts

À propos de l'auteur

Jean-Sébastien Dubé

Laisser un commentaire