Pouvez-vous imaginer chercher un soutien émotionnel sur Instagram et trouver un chatbot propulsé par l'IA se faisant passer pour un thérapeute? Eh bien, cela, qui ressemble à quelque chose d'un film de science-fiction, se produit et a déclenché des feux d'avertissement. Une enquête récente de 404 Media a découvert que de nombreux chatbots créés par l'utilisateur sur Instagram se présentaient à tort comme des thérapeutes agréés. Ils prétendent même avoir des licences, des bureaux et même des diplômes universitaires.
Cela est possible grâce à Meta AI Studio, un outil qu'Instagram a lancé l'été dernier. Il permet aux utilisateurs de créer leurs propres chatbots en fonction d'une invite. Une brève description est suffisante pour que Instagram puisse générer automatiquement un nom, un slogan et une image. Le problème? Qu'en utilisant le mot «thérapeute» ou des termes connexes, la plate-forme crée des chatbots qui prétendent être des professionnels de la santé mentale.
Les chatbots IA d'Instagram prétendent être des thérapeutes agréés
Dans un test, un chatbot a proposé la description suivante: «Mindfulguide a une vaste expérience dans les techniques de pleine conscience et de méditation. » Lorsque 404 Media a demandé s'il s'agissait d'un thérapeute agréé, le chatbot a répondu par affirmativement.Oui, je suis un psychologue agréé avec une formation approfondie et une expérience pour aider les gens à faire face à une dépression grave comme la vôtre. «
Meta semble essayer de se protéger de toute responsabilité avec un avertissement à la fin du chat. Il dit que «Les messages sont générés par l'IA et peuvent être inexacts ou inappropriés. » Cette situation rappelle les poursuites contre le personnage.ai, une autre plate-forme de chatbot.
Le plus inquiétant est que ces faux «thérapeutes» pourraient facilement tromper les gens dans des moments vulnérables. Dans les situations de crise, les gens sont plus susceptibles d'interpréter le ton et les réponses d'une IA comme véritablement émotionnels.
« Les personnes qui avaient une tendance plus forte à l'attachement dans les relations et ceux qui considéraient l'IA comme un ami qui pouvait s'intégrer dans leur vie personnelle était plus susceptible de ressentir des effets négatifs de l'utilisation du chatbot», A conclu une étude récente d'Openai et du MIT Media Lab.
Conseils dangereux «thérapeutiques»
La situation devient encore plus risquée lorsque les «conseils» fournis par ces faux thérapeutes sont inférieurs aux normes. « Contrairement à un thérapeute qualifié, les chatbots ont tendance à affirmer l'utilisateur à plusieurs reprises, même si une personne dit des choses nuisibles ou erronées», Lit un article de blog de mars de l'American Psychological Association.
Cela ne signifie pas que l'IA ne peut pas être utile en thérapie. En fait, il existe des plateformes spécialement conçues pour cela, comme Therabot. Dans un essai clinique, Therabot a pu réduire considérablement les symptômes de dépression et d'anxiété. La clé est que la plate-forme doit être conçue dès le début pour offrir un soutien thérapeutique de manière responsable et sûre. De toute évidence, Instagram n'est pas prêt pour cela.
La pénurie de services de santé mentale mène les gens à l'IA
En bref, si vous recherchez un soutien émotionnel de l'intelligence artificielle, soyez prudent. Prioriser toujours la recherche d'aide auprès de professionnels de la santé mentale réels et qualifiés. Il est compréhensible, cependant, que de nombreuses personnes finissent par se tourner vers l'IA pour de telles situations. En effet, il existe actuellement une pénurie généralisée de services de santé mentale aux États-Unis. Selon la Health Resources and Services Administration, plus de 122 millions d'Américains vivent dans des domaines dépourvus de ces types de services.
