Os óculos inteligentes Ray-Ban da Meta agora podem traduzir conversas em tempo real

As especificações também são capazes de identificar músicas com o Shazam.

WhatsApp Image 2024-12-19 at 10.19.27As especificações também são capazes de identificar músicas com o Shazam.

s óculos inteligentes da Meta ficaram ainda mais inteligentes.

Os Ray-Bans de realidade mista da empresa de tecnologia agora vêm com ainda mais recursos alimentados por IA graças a uma nova atualização de software, informou o Verge . As especificações, que já incluem comando de voz e permitem que os usuários transmitam Spotify, agora integrarão Shazam e IA ao vivo. Além disso, os usuários podem traduzir conversas em línguas estrangeiras em tempo real.

O CEO da Meta, Mark Zuckerberg, apresentou os recursos no início deste ano durante uma conferência de desenvolvedores chamada Connect 2024. A assistência Live AI usa a câmera embutida dos óculos para avaliar e oferecer sugestões sem as mãos sobre o seu entorno sem precisar dizer "Ei, Meta". Por exemplo, ele pode sugerir uma receita com base nos ingredientes à sua frente, dar conselhos sobre jardinagem ou recomendações de atividades na sua área. De acordo com a empresa, o recurso de IA durará aproximadamente 30 minutos por vez antes de precisar ser recarregado.

Há também tradução ao vivo, na qual você poderá traduzir a fala entre inglês e espanhol, francês ou italiano. No final das contas, depende de você se quer ouvir o que a outra pessoa está dizendo pelos alto-falantes abertos dos óculos ou se pode ver a conversa como uma transcrição no seu telefone. "Isso não é ótimo apenas para viajar, mas também deve ajudar a quebrar as barreiras linguísticas e aproximar as pessoas", escreveu a Meta em seu blog .

Outro recurso é a capacidade de identificar músicas usando o Shazam em vez de depender dos aplicativos Android e iOS. Se você quiser saber qual música está tocando perto de você, o Shazam obterá a resposta. Tudo o que você precisa fazer é perguntar o prompt: "Ei Meta, que música é essa?" A única ressalva da atualização do software é que os dois recursos — a IA ao vivo e a tradução — são limitados a membros do Programa de Acesso Antecipado do Meta. Além disso, todos os três estão disponíveis apenas para pessoas que moram nos EUA e Canadá, pelo menos por enquanto.

A Meta não é a única marca a apostar no ringue dos óculos inteligentes. Na semana passada, o Google e a Samsung revelaram um novo sistema operacional Android XR que irá alimentar uma nova geração de dispositivos, incluindo um headset de realidade mista e óculos inteligentes semelhantes aos Ray-Bans da Meta. Os wearables que rodam na nova plataforma Android XR irão integrar o Gemini, o assistente com tecnologia de IA do Google para ajudar a executar tarefas, e oferecer tradução instantânea da câmera e visualização ao vivo para mapas. E a Apple está supostamente entrando na briga também, já que a gigante da tecnologia conduziu recentemente um estudo interno para apresentar ideias para suas próprias especificações inteligentes.

Reportagem original: Meta’s Ray-Ban Smart Glasses Can Now Translate Conversations in Real Time