OpenAI realizou seu tão aguardado evento Spring Update na segunda-feira, onde anunciou um novo aplicativo de desktop para ChatGPT, pequenas alterações na interface do usuário para o cliente web do ChatGPT e um novo modelo de inteligência artificial (IA) de nível principal denominado GPT-4o. O evento foi transmitido online no YouTube e realizado diante de um pequeno público ao vivo. Durante o evento, a empresa de IA também anunciou que todos os recursos do GPT-4, que até agora estavam disponíveis apenas para usuários premium, agora estarão disponíveis gratuitamente para todos.
Aplicativo de desktop ChatGPT da OpenAI e atualização de interface
Mira Murati, Diretora Técnica da OpenAI, deu início ao evento e lançou o novo aplicativo de desktop ChatGPT, que agora vem com visão computacional e pode olhar para a tela do usuário. Os usuários poderão ativar e desativar esse recurso, e a IA analisará e auxiliará em tudo o que for mostrado. O CTO também revelou que a versão web do ChatGPT está recebendo uma pequena atualização de interface. A nova UI vem com uma aparência minimalista e os usuários verão cartões de sugestões ao entrar no site. Os ícones também são menores e ocultam todo o painel lateral, disponibilizando uma porção maior da tela para conversas. Notavelmente, o ChatGPT agora também pode acessar o navegador da web e fornecer resultados de pesquisa em tempo real.
Recursos GPT-4o
A principal atração do evento OpenAI foi o mais novo modelo de IA de alto nível da empresa, chamado GPT-4o, onde o ‘o’ significa modelo omni. Murati destaca que o novo chatbot é duas vezes mais rápido, 50% mais barato e tem limites de taxa cinco vezes maiores em comparação com o modelo GPT-4 Turbo.
O GPT-4o também oferece melhorias significativas na latência das respostas e pode gerar respostas em tempo real mesmo no modo de fala. Em uma demonstração ao vivo do modelo de IA, a OpenAI demonstrou que pode conversar em tempo real e reagir ao usuário. O ChatGPT com tecnologia GPT-4o agora também pode ser interrompido para responder a uma pergunta diferente, o que era impossível antes. Porém, a maior melhoria no modelo revelado é a inclusão de vozes emotivas.
Agora, quando o ChatGPT fala, suas respostas contêm diversas modulações de voz, fazendo com que pareça mais humano e menos robótico. Uma demonstração mostrou que a IA também pode captar emoções humanas na fala e reagir a elas. Por exemplo, se um usuário falar com uma voz de pânico, ele falará com uma voz preocupada.
Também foram feitas melhorias em sua visão computacional e, com base nas demonstrações ao vivo, ele agora pode processar e responder a feeds de vídeo ao vivo da câmera do dispositivo. Ele pode ver um usuário resolver uma equação matemática e oferecer orientação passo a passo. Também pode corrigir o usuário em tempo real caso ele cometa um erro. Da mesma forma, agora ele pode processar grandes dados de codificação e analisá-los instantaneamente e compartilhar sugestões para melhorá-los. Finalmente, os usuários agora podem abrir a câmera e falar com seus rostos visíveis, e a IA pode detectar suas emoções.
Finalmente, outra demonstração ao vivo destacou que o ChatGPT, alimentado pelo mais recente modelo de IA, também pode realizar traduções de voz ao vivo e falar em vários idiomas em rápida sucessão. Embora a OpenAI não tenha mencionado o preço da assinatura para acesso ao modelo GPT-4o, destacou que ele será lançado nas próximas semanas e estará disponível como API.
GPT-4 agora está disponível gratuitamente
Além de todos os novos lançamentos, a OpenAI também disponibilizou gratuitamente o modelo GPT-4 AI, incluindo seus recursos. Pessoas que utilizam o nível gratuito da plataforma poderão acessar recursos como GPTs (mini chatbots projetados para casos de uso específicos), GPT Store, recurso de memória por meio do qual a IA pode lembrar do usuário e informações específicas relacionadas a ele para conversas futuras. , e sua análise avançada de dados sem pagar nada.
source – www.gadgets360.com