Thursday, November 21, 2024
HomeAppsRecurso de vídeo ao vivo do ChatGPT descoberto, pode ser lançado em...

Recurso de vídeo ao vivo do ChatGPT descoberto, pode ser lançado em breve

O ChatGPT poderá em breve ganhar a capacidade de responder a perguntas depois de olhar pela câmera do seu smartphone. De acordo com um relatório, evidências do recurso Vídeo ao vivo, que faz parte do modo de voz avançado da OpenAI, foram detectadas no aplicativo beta mais recente do ChatGPT para Android. Essa capacidade foi demonstrada pela primeira vez em maio, durante o evento Spring Updates da empresa de IA. Ele permite que o chatbot acesse a câmera do smartphone e responda dúvidas sobre o entorno do usuário em tempo real. Embora o recurso de voz emotiva tenha sido lançado há alguns meses, a empresa ainda não anunciou uma possível data de lançamento para o recurso Vídeo ao vivo.

Recurso de vídeo ao vivo ChatGPT descoberto na versão beta mais recente

Um relatório da Android Authority detalhou a evidência do recurso Live Video, que foi encontrado durante um processo de desmontagem do kit de pacote Android (APK) do aplicativo. Várias sequências de código relacionadas ao recurso foram vistas no ChatGPT para Android versão beta 1.2024.317.

Notavelmente, o recurso Vídeo ao vivo faz parte do Modo de voz avançado do ChatGPT e permite que o chatbot AI processe dados de vídeo em tempo real para responder a perguntas e interagir com o usuário em tempo real. Com isso, o ChatGPT pode olhar na geladeira do usuário, escanear os ingredientes e sugerir uma receita. Também pode analisar as expressões do usuário e tentar avaliar seu humor. Isto foi aliado à capacidade de voz emotiva que permite à IA falar de uma forma mais natural e expressiva.

De acordo com o relatório, foram vistas várias sequências de código relacionadas ao recurso. Uma dessas strings afirma: “Toque no ícone da câmera para permitir que o ChatGPT visualize e converse sobre o que está ao seu redor”, que é a mesma descrição que a OpenAI deu para o recurso durante a demonstração.

Outras strings supostamente incluem frases como “Câmera ao vivo” e “Beta”, que destacam que o recurso pode funcionar em tempo real e que o recurso em desenvolvimento provavelmente será lançado primeiro para usuários beta.

Outra sequência de código também inclui um aviso para os usuários não usarem o recurso Vídeo ao vivo para navegação ao vivo ou decisões que possam afetar a saúde ou segurança dos usuários.

Embora a existência dessas strings não aponte para o lançamento do recurso, após um atraso de oito meses, esta é a primeira vez que foi encontrada uma evidência conclusiva de que a empresa está trabalhando no recurso. Anteriormente, a OpenAI alegou que o recurso estava sendo adiado para proteger os usuários.

Notavelmente, o Google DeepMind também demonstrou um recurso de visão de IA semelhante no evento Google I/O em maio. Parte do Projeto Astra, o recurso permite que o Gemini veja os arredores do usuário usando a câmera do dispositivo.

Na demonstração, a ferramenta de IA do Google conseguiu identificar objetos corretamente, deduzir as condições climáticas atuais e até lembrar objetos que viu anteriormente na sessão de vídeo ao vivo. Até agora, a gigante da tecnologia com sede em Mountain View também não forneceu um cronograma sobre quando esse recurso poderá ser introduzido.

source – www.gadgets360.com

Isenção de responsabilidade: Não somos consultores financeiros. Por favor, faça sua pesquisa antes de investir, nenhum jornalista da Asiafirstnews esteve envolvido na criação deste conteúdo. O grupo também não é responsável por este conteúdo.
Disclaimer: We are not financial advisors. Please do your research before investing, no Asiafirstnews journalists were involved in the creation of this content. The group is also not responsible for this content.

Sandy J
Sandy J
Hi thanks for visiting Asia First News, I am Sandy I will update the daily World and Music News Here, for any queries related to the articles please use the contact page to reach us. :-
ARTIGOS RELACIONADOS

LEAVE A REPLY

Please enter your comment!
Please enter your name here

Mais popular