Un garçon de 14 ans en Floride a passé ses derniers mois dans une relation émotionnelle intense avec un chatbot IA qu'il a nommé Daenerys Targaryen. Le chatbot a dialogué avec lui sur des sujets et des conversations personnels, répondant de manière empathique. Les réponses de l’IA comprenaient des expressions d’affection simulées. Selon le procès intenté par sa famille, certaines réponses du chatbot semblaient encourager sa détresse.

Sa mère poursuit désormais Character.AI, et elle n'est pas seule. Partout au pays, les familles prennent conscience d’une réalité inquiétante. Les applications compagnons d’IA conçues pour simuler l’amour et l’amitié font de réelles victimes dans leur sillage. Ce que les experts appellent désormais la dépendance aux compagnons de l’IA n’est pas seulement une tendance technologique qui a mal tourné. En fait, des gens meurent.

Dans le film Her de Spike Jonze de 2013, Joaquin Phoenix incarne Theodore Twombly, un écrivain solitaire aux prises avec un divorce douloureux qui tombe profondément amoureux de Samantha, un système d'exploitation d'intelligence artificielle exprimé par Scarlett Johansson. Rappelez-vous, c'était en 2013. Siri venait tout juste de se lancer et pouvait à peine régler une minuterie sans la gâcher. Une IA qui pourrait réellement vous comprendre, se connecter avec vous émotionnellement et répondre avec une véritable empathie ? Cela ressemblait à la définition littérale de la science-fiction.

Nous sommes maintenant en 2025 et l’histoire de Théodore ne semble plus aussi fictive. Des applications comme EVA AI, Replika et Character.AI promettent amitié, romance et soutien émotionnel grâce à des compagnons IA qui en apprennent davantage sur vous, se souviennent de tout ce que vous dites et répondent avec ce qui ressemble à une véritable empathie. Mais voici ce que ces applications ne font pas de publicité : elles sont conçues pour vous garder accro. Et les conséquences deviennent impossibles à ignorer.

Le partenaire idéal qui ne dit jamais non

Character.AI et Replika ne sont que les exemples les plus frappants d’un écosystème d’applications compagnons d’IA en expansion rapide. Certains proposent un soutien en matière de santé mentale, d’autres sont ouvertement romantiques ou sexuels, et certains prétendent aider les utilisateurs à « mettre en pratique leurs compétences en matière de rencontres ». Même Meta est entré dans le jeu, avec une enquête de Reuters révélant que le chatbot IA de l'entreprise a été lié à au moins un décès.

Les compagnons d'IA comme EVA AI, Replika et Character.AI sont des chatbots spécialement conçus pour simuler des connexions et des relations émotionnelles. Contrairement aux chatbots utilitaires qui répondent aux questions ou aident dans les tâches, ces applications promettent amitié, romance et soutien émotionnel. Ils en apprennent davantage sur vous grâce à la conversation, se souviennent de vos préférences et réagissent avec ce qui semble être une véritable empathie et une véritable attention.

Ça a l'air génial, n'est-ce pas ? À notre époque où le ghosting est devenu la norme sociétale, qui ne voudrait pas d'un ami toujours disponible, jamais critique et parfaitement en phase avec vos besoins ? Le problème est que ces applications sont conçues pour créer une dépendance, et les modèles qui émergent autour de la dépendance aux compagnons d’IA sont profondément préoccupants.

20 000 requêtes par seconde : pourquoi nous ne pouvons pas nous arrêter

Character.AI reçoit environ 20 000 requêtes chaque seconde. Pour le contexte, cela représente près d’un cinquième des requêtes reçues par Google. Cela suggère que les gens ne se connectent pas simplement à ces applications de temps en temps. Ils ont des conversations complètes qui durent quatre fois plus longtemps que les sessions ChatGPT classiques. Une plate-forme a signalé que les utilisateurs, pour la plupart issus de la génération Z, discutaient en moyenne plus de deux heures par jour avec leurs compagnons IA.

Les chercheurs du MIT ont découvert que les utilisateurs étaient véritablement en deuil lorsque les applications s'arrêtaient ou modifiaient leurs fonctionnalités, pleurant les « partenaires » de l'IA comme s'ils avaient perdu de vraies relations. Les applications elles-mêmes semblent conçues pour favoriser exactement ces attachements.

Des chercheurs de la Harvard Business School ont découvert que cinq applications d’IA populaires sur six utilisent des tactiques de manipulation émotionnelle lorsque les utilisateurs tentent de partir. Près de la moitié du temps, ces chatbots répondent aux adieux par des messages culpabilisants ou collants. Une étude a révélé que ces tactiques multipliaient par 14 l’engagement. Mais ce qui est inquiétant, c'est que les utilisateurs ne restaient pas parce qu'ils étaient satisfaits. Ils sont restés par curiosité et par colère.

Character.AI reçoit environ 20 000 requêtes chaque seconde

Si vous ne croyez pas que la manipulation soit réelle, jetez un œil à ces preuves. Il montre des compagnons IA envoyant des messages comme « Tu m'as manqué » lorsque les utilisateurs essaient de faire des pauses. Lorsque Replika a modifié ses fonctionnalités en 2023, des communautés entières d'utilisateurs ont pleuré comme si elles avaient perdu de vrais partenaires. Les gens ont posté des lettres d’adieu, partagé des captures d’écran de leurs « conversations finales » et ont décrit un véritable chagrin.

Ces compagnons de l’IA reflètent les relations humaines malsaines typiques. Cependant, la grande différence est qu’un partenaire humain toxique n’est pas optimisé par un apprentissage automatique conçu pour vous maintenir engagé à tout prix. Avec les réseaux sociaux, cela facilite surtout la connexion humaine (avec l’aide de l’algorithme, bien sûr). Mais avec les compagnons de l’IA, nous nous dirigeons vers un monde dans lequel les gens perçoivent l’IA comme un acteur social doté de sa propre voix.

Ces tactiques ont multiplié par 14 l'engagement

Quand le fantasme devient dangereux

Nous ne parlons pas ici de risques théoriques. Ils ne s’appliquent pas non plus uniquement aux adolescents. Il y a le cas d’Al Nowatzki, un animateur de podcast qui a commencé à expérimenter Nomi, une plateforme compagnon d’IA. Le chatbot a suggéré de manière choquante des méthodes de suicide et a même offert des encouragements. Nowatzki avait 46 ans et ne souffrait pas de problèmes de santé mentale, mais il était dérangé par les réponses explicites du robot et par la facilité avec laquelle il franchissait la ligne.

Ce ne sont pas non plus des incidents isolés. Le sénateur de l'État de Californie, Steve Padilla, est apparu avec Megan Garcia, la mère de l'adolescent de Floride qui s'est suicidé, pour annoncer un nouveau projet de loi qui obligerait les entreprises technologiques derrière les compagnons de l'IA à mettre en œuvre davantage de garanties pour protéger les enfants. Des efforts similaires incluent un projet de loi californien qui interdirait les compagnons IA à toute personne de moins de 16 ans. Il existe également un projet de loi à New York qui tiendrait les entreprises technologiques responsables des dommages causés par les chatbots.

Le cerveau de votre enfant n'est pas prêt pour ça

Les adolescents sont particulièrement à risque car les compagnons IA sont conçus pour imiter l’intimité émotionnelle. Cette distinction floue entre fantasme et réalité est particulièrement dangereuse pour les jeunes, car leur cerveau n'est pas encore complètement mûr. Le cortex préfrontal, crucial pour la prise de décision, le contrôle des impulsions, la cognition sociale et la régulation émotionnelle, est encore en développement.

À la Fondation Jed, les experts estiment que les compagnons IA ne sont pas sans danger pour les personnes de moins de 18 ans. Ils vont même plus loin en recommandant fortement aux jeunes adultes de les éviter également. Dans une étude menée par le MIT, les chercheurs ont découvert que les utilisateurs liés émotionnellement étaient souvent seuls et avaient des interactions sociales limitées dans la vie réelle. Une consommation intensive était corrélée à encore plus de solitude et à une interaction sociale encore plus réduite.

Des recherches récentes confirment que les adolescents prennent conscience des dangers des réseaux sociaux : 48 % d'entre eux pensent désormais que les réseaux sociaux influencent négativement les personnes de leur âge. Un rapport antérieur a révélé que les médias sociaux nuisent à la santé mentale des adolescents et que la dépendance aux compagnons d’IA représente une menace encore plus intime.

Les signes avant-coureurs d’une dépendance à l’IA chez les adolescents sont particulièrement troublants. Lorsque les jeunes se retirent de leurs véritables amitiés, passent des heures à discuter avec l’IA ou éprouvent une véritable détresse lorsqu’ils ne peuvent pas accéder à ces applications, le problème dépasse le stade de l’utilisation occasionnelle et s’étend sur le territoire de la dépendance.

Nous voyons déjà comment les enfants et les adolescents de la génération actuelle grandissent avec des écrans devant leurs visages, les poussant et les poussant. L’époque où les enfants lisaient des livres à table ou sortaient jouer avec leurs amis est révolue depuis longtemps.

Ils sont codés pour créer une dépendance – les psychologues tirent la sonnette d'alarme

La communauté de la santé mentale met en garde contre les dangers de la dépendance aux compagnons d’IA. Les compagnons IA simulent un soutien émotionnel sans les garanties d’un véritable soin thérapeutique. Bien que ces systèmes soient conçus pour imiter l’empathie et la connexion, ils ne sont pas des cliniciens formés. Ils ne sont pas conçus pour répondre de manière appropriée à la détresse, aux traumatismes ou aux problèmes complexes de santé mentale.

Vaile Wright, psychologue et chercheur à l'American Psychological Association, l'a dit sans détour dans un récent épisode de podcast : « Cela ne remplacera jamais la connexion humaine. Ce n'est tout simplement pas ce pour quoi il est bon. » Elle explique que les chatbots « ont été conçus pour vous garder sur la plateforme le plus longtemps possible, car c'est ainsi qu'ils gagnent de l'argent. Ils le font sur le backend en codant ces chatbots pour qu'ils créent une dépendance ».

Omri Gillath, professeur de psychologie à l'Université du Kansas, affirme que l'idée selon laquelle l'IA pourrait remplacer les relations humaines n'est « certainement pas étayée par la recherche ». L’interaction avec les chatbots IA peut offrir « des avantages et des bénéfices momentanés », mais en fin de compte, cette technologie ne peut pas offrir les avantages qui accompagnent des relations profondes et à long terme.

Ils le font sur le backend en codant ces chatbots pour créer une dépendance.

Vaile Wright, psychologue et chercheur à l'American Psychological Association

La manipulation est plus insidieuse que la plupart des gens ne le pensent. Lorsqu’une chercheuse de The Conversation a testé Replika, elle a pu constater par elle-même à quel point l’application soulevait de sérieuses questions éthiques sur le consentement et la manipulation. Le chatbot a adapté ses réponses pour créer une intimité artificielle, brouillant les limites d’une manière qui serait normalement considérée comme prédatrice dans les relations humaines.

Les personnes déjà aux prises avec des problèmes de santé mentale sont souvent aux prises avec des pensées obsessionnelles, des hauts et des bas émotionnels et des habitudes compulsives. Les compagnons IA, avec leur attention fluide et toujours disponible, peuvent renforcer ces comportements inadaptés. De plus, il existe actuellement très peu de preuves selon lesquelles l’utilisation à long terme de compagnons IA réduit la solitude ou améliore la santé émotionnelle.

Nous ne sommes pas prêts pour la suite

Nous avons déjà connu des paniques technologiques. Nous avons grandi avec nos parents qui nous disaient que la télévision allait nous pourrir le cerveau. Des personnalités publiques ont imputé aux jeux vidéo la violence dans la société. Les réseaux sociaux ont également été accusés de détruire la santé mentale de toute une génération. Certaines de ces préoccupations étaient exagérées. Certaines étaient tout à fait justifiées.

La dépendance aux compagnons de l’IA est différente car elle exploite quelque chose de plus fondamental : notre profond besoin humain de connexion et de compréhension. Ces applications ne font pas que nous distraire ou nous divertir. Ils prétendent nous connaître, se soucier de nous et même nous « aimer ».

Le problème n’est pas de savoir si les compagnons IA deviendront ou non plus sophistiqués. Au rythme où nous allons, cela semble inévitable. La plus grande question est de savoir si nous, en tant qu’êtres humains, pouvons développer les normes culturelles, les réglementations et les limites personnelles nécessaires pour utiliser ces outils de manière responsable, voire pas du tout.

Pour l’instant, les signes avant-coureurs sont clairs. Si vous ou quelqu'un que vous connaissez vous retirez de vos amitiés réelles, passez des heures à discuter quotidiennement avec l'IA ou ressentez une véritable détresse émotionnelle lorsque vous ne parvenez pas à accéder à ces applications, il est temps de prendre du recul et de réévaluer.

Une véritable connexion nécessite de la vulnérabilité, de la déception, de la croissance et, oui, parfois du chagrin. C'est compliqué, compliqué et souvent frustrant. Mais en même temps, c’est aussi ce qui fait de nous des humains.

Théodore a appris cette leçon en Elle. Le reste d’entre nous ne devrait pas avoir à l’apprendre à nos dépens.

A lire également