Meta ajoute l'IA à ses lunettes intelligentes Ray-Ban
Meta intégrera l'IA à ses lunettes intelligentes Ray-Ban à partir d'avril 2024, selon un rapport du New York Times. Les fonctionnalités d'IA multimodales, qui peuvent effectuer la traduction, ainsi que l'identification d'objets, d'animaux et de monuments, sont en accès anticipé depuis décembre dernier.
Les utilisateurs peuvent activer l'assistant intelligent des lunettes en disant « Hey Meta », puis en prononçant une invite ou en posant une question. Il répondra alors via les haut-parleurs intégrés aux châssis. Le New York Times donne un aperçu de l'efficacité de l'IA de Meta lorsque l'on fait tourner les lunettes dans une épicerie, en conduisant, dans les musées et même au zoo.
Bien que l’IA de Meta soit capable d’identifier correctement les animaux de compagnie et les œuvres d’art, elle n’a pas réussi à faire les choses correctement dans 100 % des cas. Le New York Times a découvert que les lunettes avaient du mal à identifier les animaux du zoo qui se trouvaient loin et derrière des cages. Il n’a pas non plus permis d’identifier correctement un fruit exotique, appelé chérimoye, après plusieurs essais. En ce qui concerne les traductions IA, le NYT a constaté que les lunettes prennent en charge l'anglais, l'espagnol, l'italien, le français et l'allemand.
Meta continuera probablement à affiner ces fonctionnalités au fil du temps. À l'heure actuelle, les fonctionnalités d'IA des lunettes intelligentes Ray-Ban Meta ne sont disponibles que via une liste d'attente à accès anticipé pour les utilisateurs aux États-Unis.
- Vues : 184