C’est en parcourant mon fil sur Twitter que je prends connaissance d’un projet de développement en intelligence artificielle visant à soutenir la formation de conseillères et conseillers qui interviennent auprès de clientèles en détresse.
Le projet Trevor, fondé en 1998 par les créateurs d’un film du même nom récompensé d’un Oscar pour le meilleur court métrage en 1995, offre des services de soutien à l’intervention de crise et de prévention du suicide chez les jeunes de la communauté LGBTQ de moins de 25 ans. L’organisme a mis en place au fil des ans un programme de formation pour entraîner des bénévoles à intervenir auprès des jeunes songeant au suicide, programme dans lequel les jeunes sont habituellement joués par des acteurs dans un contexte de simulation. Depuis peu, les conseillers bénévoles s’entraînent en parlant à des personnages tel que “Riley”, un jeune de 16 ans natif de la Caroline du Nord qui se sent déprimé. “Riley” est un système qui a été entraîné à l’aide des transcriptions d’interventions réelles effectuées par le passé: l’algorithme généré exprime ce que vit l’adolescent qui découvre qu’il est anxieux à l’idée de faire son “coming out” à sa famille, parce qu’il s’est récemment confié à ses amis et que cela ne s’est pas bien passé et qu’il a déjà eu des pensées suicidaires.
Devant une demande croissante de la part de leur clientèle, les lignes d’assistance téléphonique ainsi que des services de clavardage en ligne se tournent de plus en plus vers des outils exploitant les possibilités de l’IA afin de combler l’écart entre l’offre et la demande. C’est une évolution qui pourrait avoir du sens mais qui soulève du même coup des questions sur les performances de la technologie dans des situations où la vie de personnes vulnérables peut être en jeu. Les responsables de l’organisme précisent que l’objectif n’est pas de remplacer l’humain mais bien de les assister de façon à ce qu’ils puissent être plus efficaces dans leurs interventions:
“We didn’t set out to and are not setting out to design an AI system that will take the place of a counselor, or that will directly interact with a person who might be in crisis,” says Dan Fichter, the organization’s head of AI and engineering. This human connection is important in all mental health services, but it might be especially important for the people the Trevor Project serves.
Cette initiative n’est pas sans rappeler une autre en lien avec des services offerts aux vétérans américains rapportée par le New York Times l’an dernier, où un algorithme dénommé “Reach Vet” développé par le gouvernement a permis d’assister des médecins à diagnostiquer différents problèmes de santé mentale et à proposer un plan de soins approprié.
Est-ce que ce type d’algorithmes pourrait éventuellement être adapté pour mettre en place des simulateurs sophistiquées, par exemple dans certains programmes de formation afin de mieux former les futurs professionnels dans notre institution?
À lire!
Source: Ohlheiser, Abby et Hao, Karen. An AI is training counselors to deal with teens in crisis. MIT Technology Review, 26 février 2021.