Monday, February 24, 2025
HomeGadgetsRay-Ban Meta Glasses agora pode identificar músicas em movimento com o Shazam

Ray-Ban Meta Glasses agora pode identificar músicas em movimento com o Shazam

A Meta Platforms anunciou na segunda-feira vários novos recursos para os óculos Ray-Ban Meta. Embora o Live AI com capacidade de processamento de vídeo em tempo real e tradução ao vivo em tempo real nos idiomas suportados tenham sido as adições de destaque alimentadas pela inteligência artificial (IA), a empresa também introduziu a integração com o Shazam – o aplicativo de identificação de música da Apple – em países selecionados globalmente. regiões. Isso permite que os usuários do Ray-Ban Meta Glass identifiquem músicas em movimento por meio de comandos de voz.

Meta detalhou os novos recursos que chegam aos óculos Ray-Ban Meta em uma postagem na redação. A integração do Shazam está sendo implementada como parte da atualização de software v11 para óculos inteligentes que agora está sendo implementada em dispositivos qualificados. No entanto, atualmente está limitado ao Canadá e aos EUA.

Oferece reconhecimento de música com viva-voz por meio de comandos de voz. Os usuários podem perguntar: “Ei, Meta, que música é essa?” e os óculos Ray-Ban Meta identificarão a música usando o Shazam. Diz-se que esse recurso é útil em situações em que uma ótima faixa está sendo reproduzida, como em uma loja ou café, ajudando os usuários a saber a faixa ou o nome do artista e não perdê-la.

Notavelmente, a empresa introduziu suporte para Apple Music no início deste ano, adicionando a capacidade de transmitir música através do aplicativo Apple sem tocar no telefone. Ele aproveita a funcionalidade de pesquisa por voz do wearable para reproduzir uma música, lista de reprodução, álbum, estação ou até mesmo artista.

Outros novos recursos

Além da integração do Shazam, a Meta também lançou um recurso Live AI. Semelhante ao Advanced Voice With Vision do ChatGPT, ele concede acesso Meta AI às câmeras Ray-Ban Meta Glasses para monitorar o feed de vídeo em tempo real. O chatbot pode ver continuamente o ambiente ao redor do usuário e responder perguntas sobre ele. Os usuários podem invocar o Meta AI sem o comando “Hey Meta” e podem até fazer perguntas de acompanhamento.

Além disso, a tradução ao vivo foi adicionada aos óculos inteligentes. Oferece tradução de fala em tempo real entre inglês e espanhol, francês ou italiano. Os usuários podem reproduzir o áudio traduzido através dos alto-falantes abertos e até mesmo obter uma transcrição dele.

source – www.gadgets360.com

Isenção de responsabilidade: Não somos consultores financeiros. Por favor, faça sua pesquisa antes de investir, nenhum jornalista da Asiafirstnews esteve envolvido na criação deste conteúdo. O grupo também não é responsável por este conteúdo.
Disclaimer: We are not financial advisors. Please do your research before investing, no Asiafirstnews journalists were involved in the creation of this content. The group is also not responsible for this content.

Manohar G
Manohar G
Hi thanks for visiting Asia First News, I am Manohar I will update Latest Technology News Here, for any queries related to the articles please use the contact page to reach us. :-
ARTIGOS RELACIONADOS

Mais popular