Les lunettes Ray-Ban Meta alimentées par l’IA auront une nouvelle fonctionnalité qui pourrait aider les voyageurs à surmonter les barrières linguistiques : la traduction vocale en direct. Le PDG de Meta, Mark Zuckerberg, a présenté la nouvelle fonctionnalité lors de la conférence des développeurs Meta Connect. Il a expliqué qu’un utilisateur portant ces lunettes pourra entendre une traduction dans sa langue en temps réel des propos venant d’un interlocuteur parlant l’anglais, l’espagnol, le français ou l’italien, via un mini haut-parleur placé dans les lunettes. Cet utilisateur répondra ensuite dans sa langue, et un micro installé dans les lunettes captera sa voix et la transfèrera à son application mobile, capable de traduire dans toutes les langues. Meta n’a pas indiqué quand la mise à jour sera disponible, mais a déclaré que d’autres langues seront ajoutées à l’avenir. Avec Meta, en vacances, on n’aura bientôt plus besoin de tenir sa langue.
NB