O ChatGPT com o Modo de Voz avançado está sendo lançado para alguns usuários pagos, anunciou a empresa na terça-feira. A OpenAI anunciou o recurso pela primeira vez em seu evento de primavera em maio. Alimentado pelo mais recente modelo de inteligência artificial (IA) GPT-4o, o Modo de Voz avançado da OpenAI oferece recursos como respostas em tempo real, voz natural e a capacidade de sentir as emoções do usuário. A empresa disse que todos os usuários do ChatGPT Plus receberão o recurso até o outono deste ano. No entanto, não há informações sobre quando os recursos de compartilhamento de tela e vídeo, que também foram demonstrados no evento, serão lançados.
OpenAI lança modo de voz avançado para ChatGPT
A OpenAI anunciou o lançamento dos recursos avançados de voz do ChatGPT em uma publicação no X (anteriormente conhecido como Twitter). A empresa destacou que o novo Modo de Voz permitirá que os usuários interrompam o chatbot de IA a qualquer momento e ofereçam interação mais natural com modulações de voz. Um pequeno vídeo também foi compartilhado, destacando como ativar o recurso quando ele se tornar ativo.
Estamos começando a implementar o Modo de Voz avançado para um pequeno grupo de usuários do ChatGPT Plus. O Modo de Voz Avançado oferece conversas mais naturais e em tempo real, permite que você interrompa a qualquer momento e detecta e responde às suas emoções. pic.twitter.com/64O94EhhXK
– OpenAI (@OpenAI) 30 de julho de 2024
Conforme o vídeo, o grupo seleto de usuários do ChatGPT Plus verá uma notificação de convite na parte inferior da tela, solicitando que eles experimentem o Modo de Voz avançado após abrir o aplicativo. Tocar nele levará os usuários a uma nova página com o título “Você está convidado a experimentar o Modo de Voz avançado” e um botão para ativar o recurso.
O recurso está disponível atualmente para um pequeno grupo de usuários Plus, mas a empresa não especificou nenhum critério de elegibilidade. Apelidado de alpha roll out, o recurso é alimentado pelo mais recente modelo de linguagem grande (LLM) da OpenAI, GPT-4o.
Explicando o motivo do atraso, a empresa de IA disse: “Desde que demonstramos o Modo de Voz avançado pela primeira vez, temos trabalhado para reforçar a segurança e a qualidade das conversas de voz enquanto nos preparamos para levar essa tecnologia de ponta a milhões de pessoas”.
A OpenAI também destacou que os recursos de voz do GPT-4o foram testados com mais de 100 red teamers externos em 45 idiomas. Os red teamers são profissionais de segurança cibernética encarregados de testar a segurança de um produto ou organização simulando ataques cibernéticos e tentativas de jailbreak. O objetivo do processo é expor as vulnerabilidades no sistema antes que ele entre no ar.
No momento, você só pode acessar quatro vozes predefinidas após o recurso ser lançado na sua conta. Sky, a voz controversa que supostamente tinha semelhanças próximas com a atriz Scarlett Johannson, ainda não foi adicionada de volta ao ChatGPT.
source – www.gadgets360.com