Chatbot, psychothérapeute de demain ?

http://www.mbadmb.com/wp-content/uploads/2018/01/entête-psychotherapeute-chatbot-300×225.jpg

Entre évolutions sociétales et avancées technologiques, les prédictions vont bon train sur les métiers en voie de disparition. Ce n’est pas nouveau, je n’ai jamais vu d’allumeur de réverbères ni de poinçonneur dans le métro, mais le développement fulgurant des chatbots m’amène à me questionner sur les métiers ayant une dimension humaine et sociale. De fait, sera-t-il possible demain de déléguer son soutien psychologique à un robot ?

Qu’est-ce qu’un chatbot ?

Un chatbot, ou « agent conversationnel », est un programme capable de simuler une conversation (langage naturel, parlé ou écrit) avec ses utilisateurs et de leur apporter des réponses adaptées à leurs demandes : résolution de problème, passage de commande ou orientation vers un service plus adapté. C’est un service accessible 7j/7, 24h/24 et qui ne nécessite aucune installation.

Si la technologie n’est pas nouvelle, son utilisation explose ces dernières années grâce :

– au succès grandissant des messageries instantanées (Facebook messenger, Whatsapp, WeChat…), avec plus de 3 milliards d’utilisateurs actifs par mois

– aux progrès en intelligence artificielle et en machine learning.

Depuis Avril 2016, plus de 100 000 chatbots ont été lancés sur Facebook. D’ici 2020, il est estimé que 80% des entreprises utiliseront des chatbots pour les interactions clients.

Pour plus d’informations, je vous invite à étudier cette infographie :

Infographie : les 10 chiffres clés du marché des chatbots

ELIZA, le 1er Chatbot psychothérapeute

Dans les années 60, Joseph Weizenbaum, informaticien au MIT, créa « ELIZA », le 1er agent conversationnel qui simulait une conversation avec un psychothérapeute rogérien. Le programme consistait alors à reformuler les affirmations du patient sur un mode interrogatif, ou à extraire de son affirmation quelques mots qu’il recombinait autrement. Lorsque ELIZA ne trouvait pas de répartie satisfaisante, il écrivait simplement « Je comprends… ».

Eliza se contentait de relancer son interlocuteur, sa fonction était « d’écouter » et non d’engager un réel dialogue.

A l’époque, Joseph Weizenbaum observa que certains patients devenaient de plus en plus dépendants émotionnellement de leur relation avec ELIZA. Parmi eux, sa secrétaire, qui aimait entretenir de longues conversations avec le programme, sans pour autant ignorer qu’il s’agissait d’un robot.

Si le cœur vous en dit, vous pouvez vous aussi discuter avec ELIZA :

ELIZA, l’ancêtre des chatbots

Ellie, le psychologue virtuel du programme Simsensei

En 2014, des chercheurs de l’Institut des Technologies Créatives (Université de Californie du Sud) ont imaginé Ellie, une psychologue virtuelle. Elle analyse en temps réel les expressions faciales et les inflexions de la voix de ses interlocuteurs dans le but de détecter les signes d’une dépression nerveuse. Ce dispositif se base sur l’association de l’IA et de la technologie Kinect de Microsoft.

Testé sur un groupe de 60 personnes dont 30 avait été diagnostiquées comme dépressives, SimSensei a identifié 90 % des individus souffrant de dépression.

Psylio, la plateforme de soutien canadienne

« Sachez que Psylio vous offre différentes possibilités pour soutenir votre réflexion ou votre mise en action.

Nul besoin de transmettre vos données personnelles, seulement une adresse courriel suffit au système pour vous accompagner. Après avoir répondu à un court questionnaire pour cibler votre besoin, vous aurez accès à des pistes de solution vous donnant de l’information pertinente ainsi que des exercices pour vous mobiliser. Ensuite, lorsque vous l’aurez décidé, Psylio pourra vous aider à communiquer avec des ressources disponibles dans votre région. À toute heure du jour et de la nuit, et en toute circonstance, Psylio est à votre disponibilité. »

Voilà comment vous accueille le site Internet de Psylio.

Ses créateurs ne revendiquent pas cette plateforme comme un service de psychothérapie mais de soutien. Son objectif est de joindre ceux qui n’oseraient pas décrocher leur téléphone pour demander de l’aide et d’arriver à les orienter plus ou moins rapidement sur les bonnes ressources à contacter (soutien moral / psychologique, aide alimentaire, violence / abus sexuels…).

Woebot, le chatbot de Facebook

http://www.mbadmb.com/wp-content/uploads/2018/01/woebot1-300×158.jpg

Woebot, développé conjointement par Facebook et des psychologues de l’université de Stanford, repose sur les thérapies comportementales et cognitives (TCC). Il s’adresse aux adolescents déprimés en tentant de « redresser » les représentations erronées qu’ils se font d’eux-mêmes et du monde. Ce « remodelage cognitif » invite l’utilisateur à adopter une vision plus positive de son quotidien.

Par exemple, si l’utilisateur dit « Personne ne se soucie de moi », Woebot lui indique qu’il est dans un cycle de pensées négatives et qu’au contraire son entourage pense à lui.

En Juin 2017, The Journal of Medical Internet Research Mental Health a publié les résultats d’une étude menée sur 70 étudiants répartis en 2 groupes : pendant 2 semaines, le 1er groupe a conversé avec Woebot alors que le 2nd a lu un e-book sur la dépression. Il a été démontré que le protocole suivi par le 1er groupe était plus efficace pour lutter contre la dépression (mais à titre personnel je m’interroge sur la représentativité de l’étude notamment du fait de sa durée…).

L’OMS estime que la dépression touche mondialement 300 millions de personnes, ainsi la vocation de Woebot est, selon ses créateurs, de pallier au mieux au manque de thérapeutes et non de se substituer à eux.

Vous aussi interagissez avec Woebot

https://www.woebot.io/

Quelques interrogations

Si pour certains, se confier à un avatar numérique permet de surmonter sa peur d’être jugé, ces nouveaux usages soulèvent néanmoins quelques questions :

Comment gérer la dissociation cognitive ?

Samantha, l’IA du film Her de Spike Jonze, n’existe pas encore et bien que de réels progrès soient faits en la matière, aucun chatbot n’arrive aujourd’hui à faire illusion et à passer le célèbre test de Turing. Cependant, il est important de porter une attention particulière aux projections et aux croyances qu’un tel usage pourrait engendrer chez des personnes vulnérables.

Qu’en est-il de la protection des données ?

« Si c’est gratuit, c’est toi le produit ! »

En utilisant Facebook messenger comme canal de communication, les confidences et les informations médicales partagées par le patient avec Woebot ne sont pas protégées. De telles données personnelles ne devraient-elles pas être sécurisées et non transmissibles à un tiers sans le consentement éclairé du patient ?

Qui porte la responsabilité déontologique ?

Je m’interroge également sur la possibilité de soumettre ces chatbots à une responsabilité juridique : dans le cas où la santé mentale du patient se détériore, les chatbots peuvent-ils être incriminés ? Et si l’usager confie vouloir commettre un crime ?

Même si pour certains il peut être plus facile de se livrer à un algorithme plutôt qu’à un psychothérapeute fait de chair et d’os, à ce jour ces chatbots ne constituent pas selon moi une prise en charge satisfaisante. Ils seraient plutôt un déclencheur pour amener le patient à consulter un professionnel, doué d’empathie et de compassion…