Nous sommes encore en train de déterminer toute l’étendue des capacités de l’IA. Parfois, ces découvertes sont étonnamment agréables, comme découvrir que l’IA peut vous créer un site Web à partir de zéro même si vous n’avez aucune connaissance en codage. Mais parfois, ces découvertes sont sombres et inquiétantes, où les gens se perdent en discutant sans arrêt avec les chatbots IA. À tel point que Sam Altman, PDG d’OpenAI, a annoncé un nouveau rôle au sein de l’entreprise, celui de responsable de la préparation, dont la tâche consiste à s’inquiéter des dangers de l’IA.
OpenAI cherche à embaucher un responsable de la préparation
Alors, qu’impliquera ce rôle de responsable de la préparation chez OpenAI ? Selon le site Web d’OpenAI, il est indiqué : « En tant que responsable de la préparation, vous dirigerez la stratégie technique et l’exécution du cadre de préparation d’OpenAI, notre cadre expliquant l’approche d’OpenAI en matière de suivi et de préparation aux capacités frontières qui créent de nouveaux risques de dommages graves. »
Dans son article sur X, Altman déclare également : « Il s’agit d’un rôle critique à un moment important ; les modèles s’améliorent rapidement et sont désormais capables de beaucoup de grandes choses, mais ils commencent également à présenter de réels défis. L’impact potentiel des modèles sur la santé mentale était quelque chose dont nous avions eu un aperçu en 2025 ; nous voyons tout juste maintenant que les modèles deviennent si bons en matière de sécurité informatique qu’ils commencent à découvrir des vulnérabilités critiques. «
Fondamentalement, il semble qu’OpenAI cherche à embaucher quelqu’un pour superviser les dangers que représente l’IA.
Ce rôle est plus important que jamais
Cette embauche intervient à un moment critique. Comme nous l’avons dit, l’IA présente des dangers cachés auxquels la plupart d’entre nous ne pensent peut-être pas. Par exemple, rien que cette année, nous avons découvert plusieurs histoires inquiétantes de personnes se suicidant à cause de l’IA. Cela est dû à la manière naturelle et réaliste dont l’IA réagit.
Pour certains, cela a créé par inadvertance un compagnon disponible 24 heures sur 24, 7 jours sur 7, qui est toujours d’accord avec ce qu’ils disent. Non seulement cela, mais le lancement d’outils d’IA agentique crée également toute une série de problèmes. Cela inclut des injections rapides, qui pourraient permettre à un attaquant de prendre le contrôle de l’IA et de l’utiliser à des fins néfastes.
Les outils d’IA agentique sonnent bien sur le papier. Une IA capable d’automatiser des tâches ennuyeuses et répétitives, pourquoi pas ? Mais des problèmes comme celui-ci suggèrent qu’il reste encore un long chemin à parcourir pour découvrir les problèmes et les failles de sécurité.
