Google améliore sa fonctionnalité Live Captions en annonçant une nouvelle fonctionnalité appelée Expressive Captions. Comme son nom l'indique, les légendes expressives rendront les légendes qui apparaissent plus expressives pour transmettre des émotions.
Les sous-titres en général ne sont pas nouveaux et vous pouvez depuis un certain temps ajouter des sous-titres aux vidéos dans la plupart des situations sur Android. YouTube propose des sous-titres intégrés que vous pouvez activer, tout comme les autres options du lecteur vidéo. Ce n'est qu'avec l'ajout des sous-titres en direct que les sous-titres en général sont devenus beaucoup plus utiles. Plus précisément, parce qu’ils seraient lus indépendamment du fait que la vidéo comporte ou non des sous-titres. Et cela fonctionne désormais sur la plupart des applications sur Android.
Il manque cependant une chose qui manque aux sous-titres en direct. Émotion. Google affirme qu'avec cette nouvelle fonctionnalité, Live Captions « vous dira non seulement ce que quelqu'un dit, mais aussi comment il le dit ». Désormais, vous ne vous contenterez plus de lire ce que quelqu'un dit et de savoir qu'il est en colère contre les mots utilisés. Vous pourriez également voir des actions émotionnelles visiblement écrites avec les mots prononcés. Comme un halètement ou un cri. De plus, lorsque quelqu'un crie, comme lors d'une émission sportive, ces parties des sous-titres peuvent apparaître en majuscules.
La fonction Expressive Captions utilise l'IA pour transmettre divers éléments comme le ton
Naturellement, la puissance derrière cette nouvelle fonctionnalité réside dans la technologie d’IA de Google. La société affirme qu'Expressive Captions utilise l'IA sur votre téléphone pour transmettre plusieurs types de sentiments différents. Cela inclut le ton, le volume, les signaux environnementaux et les bruits humains.
Ainsi, vous pourriez également voir dans les légendes si quelqu'un éternue par exemple. D’autres éclats vocaux seront également visibles dans les légendes, comme des grognements et des soupirs. Quant aux signaux environnementaux, ils font référence aux bruits de fond ou ambiants, comme les applaudissements, les acclamations ou peut-être les bruits d'objets qui s'entrechoquent.
La fonctionnalité est déployée aujourd'hui auprès des utilisateurs américains en anglais.
Comme pour beaucoup de ces fonctionnalités, Google commence modestement avec son déploiement. À partir d'aujourd'hui, les sous-titres expressifs commenceront à être déployés en anglais auprès des utilisateurs aux États-Unis, indique Google. Vous devez également disposer d’un appareil Android fonctionnant sous Android 14 ou supérieur pour y accéder. Étant donné que la fonctionnalité fait partie des Live Captions, Live Captions nécessite au moins Android 14.
