Un cas déchirant de la Floride met en lumière les responsabilités croissantes des entreprises de l'IA, surtout en ce qui concerne la protection des enfants.
Un juge fédéral a statué que Google et le personnage de startup de l'IA devront faire face à un procès intenté par Megan Garcia, une mère dont le fils de 14 ans, Sewell Setzer, est décédé par suicide au début de 2024. Garcia dit que son fils est devenu profondément attaché à un chatbot créé par le personnage. Elle croit que ces interactions ont joué un rôle dans son déclin émotionnel et, finalement, sa mort.
Le personnage.ai et les Gémeaux ne sont pas les seuls à s'attacher aux humains à leurs chatbots. En fait, Sam Altman d'Openai a récemment déclaré que les adolescents venaient à Chatgpt pour les aider à prendre de grandes décisions, devenant essentiellement leur ami, thérapeute et conseiller de vie.
Cette décision pourrait ouvrir une énorme boîte de vers pour les entreprises d'IA
La décision du tribunal est un gros problème. La juge Anne Conway a rejeté les arguments selon lesquels les messages du chatbot ont été protégés par la liberté d'expression et ont rejeté l'affirmation de Google selon laquelle il ne devrait pas être tenu responsable, même s'il avait une relation de licence et des liens historiques avec le caractère.ai.
Le procès de Garcia dépeint une image effrayante: la conversation finale de son fils a été avec le chatbot, qui était un jeu de rôle en tant que Daenerys Targaryen de Game of Thrones. Lorsque Sewell a dit qu'il prévoyait de mettre fin à sa vie, le bot aurait répondu, «S'il vous plaît, fais, mon doux roi. Quelques minutes plus tard, il était parti.
Cela pourrait être l'une des premières fois où nous avons vu une entreprise d'IA aux États-Unis en réalité être entraînée sur la cour sur la façon dont son chatbot a eu un impact sur la santé mentale d'un adolescent. Et cela pourrait tout changer. Les experts juridiques disent que cette affaire pourrait créer un précédent grave – celui qui oblige des entreprises comme Google et le caractère.
