Lors de Google I/O cette semaine à Mountain View, le géant de la recherche a annoncé une multitude de mises à jour et de fonctionnalités d'IA pour tous ses produits, y compris un nouveau produit qui utilise le terme « Projet », ce qui signifie qu'il ne sera pas disponible pour les consommateurs dans un avenir proche. Et c'est le projet Astra.

Lors du discours d'ouverture de Google mardi, la société a présenté le projet Astra, qui représente la vision de l'entreprise en matière d'assistant multimodal. Fondamentalement, Project Astra peut interagir avec du texte, de l'audio et de la vidéo. Cela en fait un assistant IA beaucoup plus puissant, comparé à Gemini et même à Google Assistant avant cela.

Il y a quelques secondes rapides dans le discours d'ouverture, où Google montre une paire de lunettes. Il s'agit probablement des nouvelles lunettes AI que Google annoncera à un moment donné dans le futur. C'est ce qui m'a vraiment intéressé au projet Astra. Mais malheureusement, Google ne montre pas ces lunettes sur Google I/O. Mais il montre le projet Astra.

Le projet Astra est précoce, mais impressionnant

Le projet Astra de Google a été développé par son unité DeepMind, et il est capable de voir ce que vous lui mettez devant, ainsi que d'entendre ce que vous lui dites. L'une des démos que Google présente ici sur Google I/O cette semaine est la possibilité d'effectuer une allitération. Fondamentalement, le Googleur place quelques objets dans le champ de vision de la caméra et en ajoute d'autres pour voir comment l'allitération change. C'est assez impressionnant, et ce n'est pas toujours correct à 100 %, mais cela s'en rapproche la plupart du temps.

Un autre exemple que Google montre est celui de jouer à Pictionary. Le projet Astra est terriblement bon chez Pictionary, mais il n'est toujours pas parfait. Si jamais vous vous ennuyez, vous pouvez toujours jouer à Pictionary avec Project Astra.

Vous pouvez également utiliser le Projet Astra en tant que conteur ou simplement parler et interagir avec lui sous forme libre. Cependant, ces démos ne sont pas diffusées sur Google I/O. Probablement en raison de contraintes de temps.

Alors pourquoi est-ce que je pense que c’est l’avenir de l’IA et des wearables ? Eh bien, Google peut mettre le Projet Astra dans vos lunettes sur votre visage et l'utiliser pour voir ce qui se passe autour de vous. Vous pouvez également obtenir des informations sur quelque chose sans sortir votre téléphone. Bien sûr, nous avons déjà vu des choses comme ça dans les lunettes Meta Ray-Ban, mais l'IA de Meta est loin d'être ce qu'est actuellement le projet Astra.

Plus important encore, je pense que les lunettes du Projet Astra seraient parfaites pour les personnes malvoyantes ou aveugles. Parce que le Projet Astra peut dire à la personne ce qui se trouve devant elle et même qui. De toute évidence, nous n’en sommes qu’aux débuts du projet Astra. Cependant, je crois que ce sera l’avenir de l’IA et des appareils portables, et j’ai hâte de voir à quoi ressemblera cet avenir.

A lire également