Développer l’esprit critique à l’ère des « Deep Fakes »

Au-delà des fausses nouvelles, voilà qu’apparaissent ce que l’on a baptisé les « deep fakes « , des technologies reposant sur l’intelligence artificielle et qui permettent de reproduire des voix et de transformer des vidéos. L’expression combine les termes « deep learning » (l’apprentissage profond de l’intelligence artificielle) et « fake », pour falsification, comme dans « fake news« .

« Pour résumer, des logiciels qui utilisent l’intelligence artificielle permettent de transposer la tête ou le visage de quelqu’un sur le corps de quelqu’un d’autre dans des vidéos. Par exemple, on peut calquer le visage de quelqu’un, comme un politicien, pour ensuite lui faire dire n’importe quoi. » (Radio-Canada, 11 août 2018)

« On est dans une ère où l’image manipulée est devenue la norme et où la technologie est à la portée de tous. […] Avec le deepfake, on vient rehausser fortement le potentiel de fabrication de fausses nouvelles… […] On savait qu’on ne pouvait pas croire tout ce qu’on lisait. Maintenant, il ne faut pas croire tout ce qu’on entend et même ce qu’on voit de nos propres yeux. », estime Catalina Briceño, spécialiste des transformations numériques et professeure invitée à l’École des médias de l’UQAM.

Voici un exemple de ce que de tels logiciels permettent de faire.  Ici on a utilisé une application gratuite nommée FakeApp:

À noter, ici la voix a été reproduite par un imitateur, mais des logiciels peuvent aussi synthétiser la voix de personnes connues, comme celui de la compagnie montréalaise Lyrebird (prononcé « liar bird« ).

Les créateurs de ces logiciels se défendent en rappelant que de telles avancées permettront de développer des agents vocaux, d’améliorer le doublage au cinéma ou d’offrir à des personnes ayant perdu l’usage de la parole des voix de synthèse plus naturelles.  Mais d’autres sont horrifiés de ce que certains individus font avec ces outils, notamment le développement d’une nouvelle branche de la pornographie où l’on plaque les visages de personnalités publiques sur des actrices et acteurs de films XXX.

Plusieurs auteurs parlent de l’avènement prochain d’une « infopocalypse » ou de « destruction de la vérité » et militent pour que l’Organisation des Nations Unis ou les gouvernements locaux encadrent les développements scientifiques (comme ils l’avaient fait pour le clonage), afin que les chercheurs soient davantage préoccupés par les effets pernicieux de leurs inventions:

« L’approche « on construit et on verra », fréquente dans le secteur techno, ne devrait pas être appliquée au champ de l’intelligence artificielle, croit l’ancien ingénieur logiciel Shahar Avin. Cet expert, qui étudie désormais les risques existentiels à l’Université de Cambridge — pensez à tout ce qui menace l’humanité, de la bombe nucléaire à la grippe aviaire —, croit que trop de chercheurs sous-estiment le mauvais usage qui pourrait être fait de leurs algorithmes. « Ils créent des technologies, puis d’autres personnes se trouvent aux prises avec les conséquences. […]

…[Le] Rapport sur le mauvais usage de l’IA, publié récemment par 26 auteurs, dont Shahar Avin. Ce document recense une vingtaine de dérapages possibles à court terme, dont des fausses nouvelles audios et vidéos « hautement réalistes », qui menacent la sécurité, l’économie et la démocratie. Dans le climat actuel, imaginez les conséquences d’une fausse vidéo où des demandeurs d’asile s’attaquent à une dame âgée dans la rue.

Loin de proscrire la recherche en intelligence artificielle, le rapport recommande aux chercheurs de faire preuve de davantage de prudence et invite les législateurs à réfléchir aux façons d’encadrer ce domaine scientifique. « Nous avons besoin de l’humanité dans ce qu’elle a de meilleur », dit Shahar Avin, en donnant l’exemple du clonage humain, interdit par l’ONU en 2005. » (Sabourin, 2018)

En entrevue avec Stéphane Bureau, la journaliste indépendante Carole Beaulieu considère qu’il « est primordial, plus que jamais, d’enseigner au public la vigilance non seulement par rapport aux fausses nouvelles, mais également par rapport à l’hypercontrefaçon de bandes audio ou de vidéos. Les jeunes sont particulièrement vulnérables.

À ce sujet, [Mme Beaulieu] tient à souligner l’initiative baptisée 30 secondes avant d’y croire de la Fédération professionnelle des journalistes du Québec, en partenariat avec l’Agence Science-Presse. Il s’agit d’une formation donnée aux élèves québécois du deuxième cycle du secondaire pour les aider à démêler le vrai du faux quand il s’agit d’information sur le web et les réseaux sociaux. » (Radio-Canada, 20 juin 2018)

Une autre avenue, c’est d’utiliser l’intelligence artificielle pour nous aider à détecter ces « faux », c’est ce qu’on appelle les media forensics:

« Dean Pomerleau [professeur adjoint à l’Institut de robotique de l’Université Carnegie Mellon] a l’impression d’assister à « une course à l’armement, et l’attaque est toujours plus facile que la défense ». Il souhaite d’ailleurs que les participants du prochain Fake News Challenge [un concours ayant pour objectif de créer un algorithme d’intelligence artificielle capable d’assister les journalistes dans la détection des articles trompeurs], dont la date demeure à déterminer, se mesurent aux créations d’entreprises comme Lyrebird. » (Sabourin, 2018)

Sources:

BuzzFeedVideo, « You Won’t Believe What Obama Says In This Video!« , YouTube, 18 avril 2018, 1 min 13.

Radio-Canada Première, « Après les fausses nouvelles, voici l’ère de l’hypercontrefaçon de la vidéo et de l’audio » (entrevue avec Carole Beaulieu), 20 juin 2018 (23 min 15 sec.)

Radio-Canada Première, « Le deepfake repousse les limites de la falsification » (entrevue avec Catalina Briceno), Dessine-moi un été, 11 août 2018, 10 min 43 sec.

Sabourin, Marc-André, « Qui dit vrai?« , L’actualité, 8 juin 2018Rad

L'Alberta veut diversifier la formation postsecondaire vers les technologies
Humaniser vos formations en ligne par la vidéo

Exprimez-vous !

*