Il semble que Microsoft ne souhaite pas que les forces de l’ordre utilisent Azure OpenAI pour la reconnaissance faciale en temps réel des individus. L'entreprise de Redmond a récemment modifié son code de conduite concernant l'utilisation de ses services d'IA par la police.

Les forces de l’ordre s’adaptent également depuis un certain temps déjà aux technologies basées sur l’IA. De plus, des fournisseurs de technologie militaire et policière, comme Axon. Par exemple, cette dernière a récemment annoncé qu’elle s’appuierait sur les capacités du modèle GPT-4 pour faciliter les transcriptions des audios capturés par les caméras mobiles. Cela peut être très utile pour accélérer les choses dans les rapports de police.

Cependant, les dernières modifications du code de conduite Azure AI visent directement les caméras mobiles. Comme l'a repéré The Register, Microsoft a strictement interdit l'utilisation d'Azure AI pour la reconnaissance faciale en temps réel à l'aide d'appareils tels que les caméras de police embarquées et les dashcams. Microsoft a étendu les limitations aux forces de police du monde entier. Auparavant, l'interdiction n'était active que pour l'État américain et la police locale.

Microsoft ne veut pas que la police utilise Azure AI pour la reconnaissance faciale en temps réel

Concernant l'interdiction, le nouveau code de conduite mentionne spécifiquement quelques phrases clés. Par exemple, « la technologie de reconnaissance faciale en temps réel sur les caméras mobiles » et « dans les environnements sauvages ». Cela suggère que les forces de police pourraient toujours utiliser Azure AI pour la reconnaissance faciale du contenu capturé par les caméras de sécurité. Également sur les enregistrements après situations. Mais il n’y a pas encore de confirmation à ce sujet.

La raison exacte de la décision de Microsoft n'est pas connue. La société n’a pas répondu aux questions de The Register à ce sujet. Cependant, cela pourrait être conforme à l'une des politiques fondamentales de l'entreprise concernant l'utilisation et la mise en œuvre de technologies basées sur l'IA. Plus précisément, parmi ses politiques, il indique qu’il ne peut pas être « utilisé pour déduire des attributs sensibles de personnes, tels que le sexe, la race ou l’âge spécifique, à partir d’images ou de vidéos d’elles ».

De plus, l’utilisation de l’IA a parfois montré certains problèmes en matière d’identification par attributs. Il y a eu des cas où, dans certaines circonstances, il a fait preuve de préjugés. Son utilisation n’est donc pas totalement infaillible dans ce domaine, du moins aujourd’hui.

A lire également