Meta enrichit ses lunettes connectées Ray-Ban avec trois innovations majeures : Shazam intégré, Live AI pour une assistance continue et un système de traduction en temps réel. Ces nouvelles fonctionnalités placent Meta en position de leader sur le marché des lunettes intelligentes.
Les nouvelles fonctionnalités des Ray-Ban Meta : vue d'ensemble
Les lunettes connectées Ray-Ban Meta s'enrichissent de trois fonctionnalités majeures qui révolutionnent l'expérience utilisateur. L' intégration de l'intelligence artificielle se manifeste à travers deux innovations clés : Live AI, un assistant virtuel contextuel disponible en permanence, et un système de traduction en temps réel supportant le français, l'italien et l'espagnol.
La troisième nouveauté est l'ajout de Shazam, permettant d'identifier instantanément n'importe quelle musique d'un simple commande vocale. Cette fonctionnalité est déjà accessible partout, sauf aux États-Unis et au Canada.
Ces innovations technologiques, actuellement en phase de déploiement progressif via un programme d'accès anticipé, positionnent Meta comme un acteur majeur face à la concurrence, notamment Google. L'autonomie est impactée par ces nouvelles fonctionnalités IA, offrant environ 30 minutes d'utilisation continue. Une extension plus large de ces services est prévue pour 2025, promettant une expérience encore plus immersive aux utilisateurs.
L'intégration de Shazam : identification musicale simplifiée
L'intégration de Shazam dans les lunettes Ray-Ban Meta représente une avancée significative pour l'identification musicale en situation. Cette fonctionnalité permet aux utilisateurs de reconnaître instantanément n'importe quelle chanson grâce à une simple commande vocale " Hey Meta, qu'est-ce qui joue ? ".
Déjà disponible dans la plupart des régions, à l'exception des États-Unis et du Canada, cette fonction s'active facilement via les commandes vocales intégrées aux lunettes connectées. Le processus d'identification est rapide et précis, s'appuyant sur la vaste base de données musicale de Shazam.
Cette nouvelle fonctionnalité s'inscrit parfaitement dans l'écosystème des Ray-Ban intelligentes, offrant une expérience utilisateur fluide et intuitive. Les informations sur la musique identifiée peuvent être consultées directement via l'application Meta View sur le smartphone couplé aux lunettes.
Live AI : l'assistant intelligent en temps réel
La fonctionnalité Live AI des Ray-Ban Meta marque une avancée significative dans l'interaction homme-machine. Cet assistant virtuel intelligent, alimenté par Meta AI, offre une expérience conversationnelle naturelle et contextuelle en temps réel.
Le système fonctionne grâce à un enregistrement continu audio et vidéo, permettant à l' intelligence artificielle d'analyser l'environnement de l'utilisateur et de fournir des suggestions pertinentes. Les interactions se font via :
- Des commandes vocales intuitives
- Des réponses contextuelles basées sur la situation
- Des suggestions proactives adaptées à l'environnement
Cette technologie innovante transforme les lunettes en véritable assistant personnel, capable de répondre aux questions, de fournir des informations en temps réel et d'interagir de manière naturelle avec l'utilisateur. Cependant, l'utilisation intensive de l'IA impacte l'autonomie de la batterie, limitant son usage à environ 30 minutes en continu.
Actuellement disponible via le programme d'accès anticipé, cette fonctionnalité positionne Meta comme pionnier dans le domaine des lunettes intelligentes interactives.
Traduction en direct : briser les barrières linguistiques
La traduction en temps réel s'impose comme l'une des fonctionnalités les plus prometteuses des Ray-Ban Meta. Ce système innovant permet de traduire instantanément les conversations entre l'anglais et plusieurs langues européennes, dont le français, l'italien et l'espagnol.
Les utilisateurs peuvent choisir d'entendre les traductions via les haut-parleurs intégrés aux lunettes ou les consulter directement sur leur smartphone connecté. Cette technologie de traduction instantanée facilite considérablement les échanges internationaux, que ce soit en voyage ou en contexte professionnel.
Actuellement disponible dans le cadre du programme d'accès anticipé, cette fonction illustre parfaitement l'ambition de Meta d'éliminer les barrières linguistiques grâce à l'intelligence artificielle.
Perspectives et déploiement futur
Le déploiement mondial des nouvelles fonctionnalités est prévu pour 2025, avec une extension progressive du support linguistique. Meta envisage d'enrichir l'expérience utilisateur avec de nouvelles capacités d' intelligence artificielle et une optimisation de l'autonomie des lunettes connectées.