L'intelligence artificielle se glisse dans notre vie quotidienne. De nombreux produits et services lancent aujourd'hui et utilisent tous une certaine forme d'IA. Il n'est donc pas surprenant que l'IA ait l'attention des organisations militaires dans le monde. Maintenant, il semble qu'Openai ait obtenu un contrat de 200 millions de dollars avec le ministère américain de la Défense.

Contrat de défense d'Openai

OpenAI a annoncé avoir obtenu un contrat de 200 millions de dollars avec le ministère américain de la Défense. Selon la société d'IA, il travaillera avec l'organisme pour développer des moyens pour l'IA d'aider aux tâches administratives, telles que l'obtention des soins de santé pour les militaires américains et la stimulation de la cybersécurité pour empêcher les cyberattaques.

«Nous soutenons les efforts du gouvernement américain dans l'adoption de la meilleure technologie de classe et le déploiement de ces outils au service du bien public. Notre objectif est de débloquer des solutions d'IA qui améliorent les capacités des employés du gouvernement, de les aider à réduire les formalités administratives et les documents et les permettent de faire plus de ce qu'ils viennent travailler chaque jour pour faire: servir les Américains.»

La société a également annoncé la création d'une nouvelle entité: Openai pour le gouvernement. Cela consolide tous les projets gouvernementaux d'Openai dans une seule entreprise. Ce nouveau contrat avec le ministère de la Défense n'est pas la première fois qu'Openai joue avec l'idée d'utiliser sa technologie pour un usage militaire.

En 2024, Openai a déclaré qu'elle prévoyait de travailler avec Anduril Industries pour développer l'IA pour les systèmes anti-drones. Comme nous l'avons dit, il n'est pas surprenant que l'IA ait attiré l'attention des militaires. L'IA peut aider à automatiser de nombreuses tâches et est beaucoup plus efficace que les humains.

IA dans l'armée

Cependant, il est inquiétant car, contrairement aux humains, l'IA ne peut pas faire certains types de distinctions. Par exemple, les utilisateurs d'Instagram se plaignent d'une vague d'interdictions de masse malgré le fait que bon nombre de ces utilisateurs affirment que leurs comptes et actions ne violent pas les politiques d'Instagram.

Cela a conduit à des spéculations selon lesquelles l'IA aurait pu être impliquée. Contrairement aux modérateurs de contenu humain, l'IA voit généralement les choses en noir et blanc. Cela signifie que des actions spécifiques auraient pu être sorties de son contexte, conduisant à des interdictions. C'est pourquoi, bien que l'IA soit plus efficace, le manque de distinction pourrait en faire un outil dangereux en ce qui concerne les vies.

Si quoi que ce soit, cela rend la réglementation de l'IA plus importante que jamais, et le moratoire de 10 ans proposé par l'administration Trump sur les réglementations au niveau de l'État pourrait être une catastrophe qui attend.

A lire également