Les lunettes intelligentes Ray-Ban de Meta peuvent identifier des objets et traduire des langues

Je pense qu'on va converger vers un truc vraiment sympa.

Meta a annoncé le déploiement de nouvelles fonctionnalités d'IA pour ses lunettes intelligentes Ray-Ban. Les utilisateurs peuvent désormais dire "Hey Meta" pour appeler un assistant virtuel qui peut voir et entendre ce qui se passe autour de l'utilisateur via la caméra et les microphones des lunettes. L'assistant peut décrire des objets, suggérer des tenues, traduire du texte et aider à légendre des photos. Ces fonctionnalités seront d'abord testées aux États-Unis auprès d'un petit groupe d'utilisateurs.

via TheVerge : lire l’article source

Laisser un commentaire