Les modèles d'IA comme Chatgpt sont un logiciel, ce qui signifie qu'ils suivent un ensemble spécifique d'instructions. Mais contrairement aux logiciels ordinaires, comme un traitement de texte, l'IA est «intelligente». Les systèmes alimentés par AI peuvent apprendre et évoluer. Mais les modèles d'IA pourraient-ils évoluer au point où ils pourraient stimuler nous contre nous à notre insu?
Le schéma des modèles d'IA
Les informations ont parlé à un chercheur OpenAI qui a suggéré que peut-être dans un an environ, les modèles d'IA pourraient devenir si intelligents et évolués qu'ils pourraient stimuler nous contre nous, et nous ne serions pas plus sages.
Comment est-ce possible, demandez-vous? Pensez à votre processus de réflexion actuel. Si quelqu'un vous demandait ce qu'est 2 + 2, vous définissez votre séquence de pensée de manière logique. Cependant, le processus critique de l'IA n'est pas aussi en noir et blanc.
Par exemple, le modèle R1 de Deepseek a été analysé lorsqu'on lui a demandé de résoudre un problème de chimie. Cela a donné la bonne réponse, mais le processus critique était un tas de charabia que les humains pourraient être incapables de comprendre. En effet, le processus de pensée utilisé par les modèles d'IA est quelque chose qui n'a pas nécessairement besoin de signifier quoi que ce soit pour l'homme; Il a juste besoin de résoudre le problème. La façon dont cela y arrive n'a pas vraiment d'importance, tant qu'elle le fait.
Cela signifie que comme les AIS continuent d'apprendre et d'évoluer, il pourrait arriver un moment où ils complotent quelque chose derrière notre dos, et nous ne pourrions pas le dire. En mettant de côté le scénario Terminator-esque, cela pose également un problème pour les entreprises de l'IA.
Lorsque le logiciel ne fait pas ce qu'il est censé, les développeurs vérifient les journaux pour voir ce qui se passe. Ils peuvent ensuite identifier l'erreur et revenir au code pour le réparer. Cependant, si le processus est entièrement inintelligible pour les humains, comment les ingénieurs de l'IA pourraient-ils trouver le problème et affiner le modèle d'IA?
L'appel à la réglementation
Les progrès réalisés dans l'IA au cours des dernières années sont des sauts et des limites avant ce qui a été fait dans le passé. Ce rythme de développement effréné est impressionnant mais aussi inquiétant. C'est pourquoi il est essentiel de réguler l'IA. Certes, les règles et les règlements pourraient ralentir les progrès, mais voulons-nous vraiment courir dans un avenir où l'IA a dépassé l'humanité?
Nous avons déjà vu des preuves de la façon dont l'IA peut affronter différentes personnages en fonction de ses données de formation. Cela signifie qu'il est possible pour quelqu'un de programmer une IA avec une personnalité «maléfique». Nous avons également vu des études alarmantes où un modèle d'IA était disposé à tuer les humains dans un scénario hypothétique pour empêcher de fermer.
