Lunettes intelligentes Ray-Ban Meta : les éléments d’IA promis par Meta sont enfin là, apparemment
Vos lunettes pourraient désormais, entre autres, traduire des panneaux en anglais.
Il y a quelques années, j’ai déchiré les premières lunettes intelligentes Ray-Ban de Meta parce que je n’étais pas assez intelligent. Maintenant, alors que nous clôturons 2023, Meta a enfin ajouté des fonctionnalités « intelligentes » au son sympa.
Dans une mise à jour logicielle pour la dernière édition des lunettes Ray-Ban, Meta a ajouté des fonctionnalités d’IA qui pourraient réellement être utiles, ou du moins pourraient être des sujets de conversation intéressants à montrer à vos amis. Par exemple, vous pouvez demander aux lunettes de traduire des signes en langues étrangères vers l’anglais ou de connaître le nom d’une plante que vous regardez. D’autres fonctionnalités incluent la possibilité de permettre aux lunettes de générer automatiquement une légende pour une photo Instagram que vous venez de prendre.
Pour être clair, tout cela fait partie d’un programme bêta à accès anticipé qui n’est disponible qu’aux États-Unis pour le moment. Vous pouvez vous inscrire au programme depuis le menu des paramètres de l’application mobile Meta View que vous utilisez déjà pour interfacer les lunettes depuis votre téléphone. Allumez-le, démarrez vos invites vocales avec « Hey Meta » et devenez fou.
Jusqu’à présent, l’entreprise de lunettes intelligentes de Meta semblait plutôt ratée, car les lunettes étaient principalement utilisées pour prendre des photos et des vidéos sur les réseaux sociaux. Les plus récents étaient livrés avec une assistance vocale Meta AI, mais avant cette mise à jour, il s’agissait principalement d’un clone de Siri.
Les lunettes n’ont toujours pas de superposition d’interface utilisateur holographique sympa du monde qui vous entoure, mais bon, peut-être que cela viendra avec le temps.