Microsoft dispose d'un nouvel outil de correction de l'IA qui tente d'empêcher les modèles d'IA de générer un contenu factuellement incorrect. En termes simples, Microsoft déploie l'IA pour empêcher ou limiter une autre IA de rejeter des déchets, un phénomène communément appelé hallucinations de l'IA.
La fonctionnalité « Correction » de Microsoft tente de résoudre les hallucinations de l'IA
L’intelligence artificielle générative (Gen AI) a connu une adoption phénoménale. Cependant, bon nombre de ces chatbots Gen AI génèrent souvent en toute confiance un contenu qui n’est pas précis.
Microsoft tente de lutter contre les hallucinations de l'IA avec sa nouvelle fonctionnalité « Correction ». Il est basé sur la « Groundedness Detection » existante de Microsoft. Le nouvel outil d’IA de correction de l’IA fait essentiellement des références croisées au texte généré par l’IA avec un document justificatif saisi par l’utilisateur.
Microsoft proposera le nouvel outil de correction dans le cadre de l'API Azure AI Safety de Microsoft. Les utilisateurs de plates-formes Gen AI comme GPT-4o d'OpenAI et Meta's Llama devraient bientôt découvrir la nouvelle fonctionnalité.
La fonction Corrections tentera de signaler tout contenu qui pourrait ne pas être factuellement exact. Il vérifiera ensuite le texte en le comparant à une source de vérité.
Microsoft affirme que cette fonctionnalité s'appuiera sur un document de base, qui pourrait impliquer des transcriptions téléchargées par l'utilisateur. Cela pourrait signifier que la responsabilité de certifier l’exactitude d’un document ne doit pas nécessairement incomber à l’utilisateur final. L’IA serait capable de dire ce qu’il faut considérer comme un fait sur la base de documents de base.
Microsoft déploie également les « évaluations » comme couche « d'inférence confidentielle »
Microsoft a laissé entendre que son outil de correction de l'IA pourrait traiter les hallucinations en temps réel. En plus de s'attaquer aux hallucinations de l'IA, Microsoft déploie également des « évaluations ».
Selon Microsoft, les « évaluations » sont un outil proactif d'évaluation des risques. Il fonctionnera comme une couche d’inférence confidentielle. En d’autres termes, la plateforme Gen AI fera passer le contenu à travers cette couche avant de faire des prédictions.
Le nouvel outil tenterait de garantir que les informations sensibles restent sécurisées et privées pendant le processus d'inférence. Cela pourrait aider à filtrer les problèmes potentiels de confidentialité. Avec ces nouveaux outils, Microsoft semble résoudre deux problèmes courants avec la génération AI : la confidentialité et la précision.
