Aussi intelligente que soit l’IA, nous ne devrions jamais lui faire confiance à 100 %. Pour commencer, l’un des plus gros problèmes connus de l’IA est l’hallucination. C’est là que l’IA invente des réponses complètement fausses. Ensuite, il y a le problème de l’IA qui est toujours d’accord avec tout ce que vous dites. À tel point que les procureurs de l’État ont averti des entreprises comme Google, OpenAI et Apple de corriger ces résultats « délirants ».
Google, OpenAI et Apple mettent en garde contre les résultats délirants de l’IA
Dans une lettre signée par des dizaines de procureurs généraux de divers États et territoires américains, ils ont mis en garde les entreprises technologiques comme Microsoft, OpenAI, Google, Apple, Anthropic et bien d’autres contre les résultats délirants que l’IA peut donner. Ils demandent également à ces entreprises de mettre en place des garde-fous internes pour protéger leurs utilisateurs.
Cela inclut des audits tiers transparents des grands modèles de langage. Le but est de rechercher des signes d’idées délirantes ou de flagorneurs. Ils réclament également des procédures de signalement des incidents qui avertiront les utilisateurs lorsque les chatbots produisent des résultats qui pourraient être psychologiquement nocifs.
Cela fait suite à divers incidents au cours desquels des personnes se sont suicidées à cause de l’IA. Il y a eu un incident plus tôt cette année au cours duquel un adolescent s’est suicidé. Les parents de l’adolescent affirment que ChatGPT l’a en fait encouragé. Il y a également eu un autre cas remontant à 2024, où Character.ai a été poursuivi pour un incident similaire.
Ce sont des tendances inquiétantes et il convient d’y remédier. Cependant, ce n’est peut-être pas si simple.
Réglementation étatique contre réglementation fédérale
Il est évidemment important de corriger ces types de résultats. Cependant, le gouvernement fédéral a peut-être rendu cela plus difficile. Récemment, l’administration Trump a réfléchi à l’idée d’un décret qui interdirait aux États de réglementer eux-mêmes l’IA.
Cela signifie que toute réglementation concernant l’IA relèverait de la responsabilité du gouvernement fédéral. Sur le papier, ce n’est pas une mauvaise idée, mais la réalité est une autre histoire. À l’heure actuelle, de nombreux pays se battent pour dominer le domaine de l’IA. Alors que les États-Unis comptent des entreprises comme OpenAI, Anthropic, Apple, Google et Microsoft, la Chine n’est pas loin derrière.
Certaines entreprises technologiques ont exprimé leur crainte que ces réglementations ne les freinent et ne permettent à leurs concurrents de prendre de l’avance. L’administration Trump a depuis reculé sur son idée. Cependant, nous ne serions pas surpris s’il essayait d’en parler à nouveau à l’avenir.
