Meta a réussi quelque chose que Google a échoué il y a quelques années : intégrer les lunettes intelligentes au grand public. Un certain nombre de facteurs, notamment des prix abordables, des designs attrayants et, surtout, des fonctionnalités réellement utiles, y ont contribué. Aujourd’hui, la société renforce précisément cet aspect de l’utilité dans son dernier déploiement de logiciels. Plus précisément, les lunettes intelligentes Ray-Ban et Oakley de Meta reçoivent désormais la mise à jour 22.0 axée sur une communication claire et une sensibilisation accrue à l’environnement, abordant des problèmes courants tels que les pièces bruyantes et l’accessibilité visuelle.

L’un des ajouts les plus attendus de cette version est Conversation Focus. Cette fonctionnalité utilise l’IA pour identifier et amplifier la voix de la personne qui se tient directement devant vous. Il est actuellement disponible pour les utilisateurs du programme d’accès anticipé.

Si vous avez déjà eu du mal à entendre un ami dans un restaurant bondé ou lors d’une réunion sociale bruyante, cet outil agit comme un filtre numérique. les lunettes intelligentes peuvent désormais isoler la parole et réduire les discussions en arrière-plan. Cela devrait vous aider à rester concentré sur votre conversation sans avoir à vous pencher ou à vous fatiguer les oreilles.

Rendre les choses plus faciles à atteindre grâce aux « Réponses détaillées »

Les « réponses détaillées » constituent un autre grand pas en avant. Cette fonctionnalité vise à aider les personnes malvoyantes ou les utilisateurs qui souhaitent simplement être plus conscients de leur environnement. L’amélioration de l’accessibilité est désormais intégrée aux sessions Live AI pour les utilisateurs aux États-Unis et au Canada.

Lorsqu’elles sont actives, les lunettes fournissent des narrations riches et descriptives de l’environnement du porteur. En regardant le champ visuel via la caméra intégrée, Meta AI peut désormais décrire les objets, le texte et les scènes plus en détail qu’auparavant. Cette fonction mains libres facilite l’orientation, rendant les lunettes plus utiles pour un plus large éventail de personnes.

Prise en charge et disponibilité de nouvelles langues

Meta met également son assistant à la disposition d’un plus grand nombre de personnes dans le monde en ajoutant la prise en charge du néerlandais. Le déploiement de ce langage se fait progressivement. Une fois disponible, les utilisateurs néerlandophones pourront passer des appels, envoyer des messages et parler à Meta AI sans utiliser leurs mains.

Les utilisateurs doivent simplement s’assurer que leur application Meta View est à jour et rechercher dans les paramètres de leur appareil les menus d’accessibilité ou d’accès anticipé pour accéder à ces nouveaux outils. Il y a également des rumeurs concernant d’autres fonctionnalités avancées en développement, notamment la reconnaissance faciale.

A lire également