Gêmeos está recebendo dois novos recursos de inteligência artificial (IA), anunciou o Google na terça -feira. A gigante da tecnologia baseada em Mountain View está adicionando tela, um espaço interativo que permite que os usuários humanos e a IA colaborem em projetos que envolvem documentos e tarefas relacionadas à codificação. Outro recurso que faz o seu caminho para Gemini é a visão geral do áudio, que era anteriormente exclusiva do Notebooklm, e permite que os usuários gerem uma discussão de áudio envolvente do tipo podcast com base em documentos, slides e relatórios de pesquisa profunda. Atualmente, esses recursos estão sendo lançados globalmente para os assinantes Avançados de Gêmeos e para aqueles que estão no nível gratuito.
O Google traz dois novos recursos de IA para Gemini
Em uma postagem no blog, a gigante da tecnologia anunciou os dois novos recursos que estão sendo adicionados a Gêmeos. Isso segue o recurso de pesquisa profunda que pode gerar um relatório detalhado sobre tópicos complexos e os widgets de tela de bloqueio exclusivos para iOS. Os novos recursos – visão geral de tela e áudio – estarão disponíveis em gêmeos nos aplicativos da web e móveis.
A Canvas é um novo espaço interativo em Gemini, que visa permitir que os usuários colaborem com a IA em relação a determinados projetos. Agora, os usuários podem ver um novo botão de tela ao lado de pesquisas profundas na caixa de texto na interface de Gemini. Selecionar o recurso e adicionar um documento ou linhas de código agora abrirá uma caixa de areia onde a IA cria um primeiro rascunho com base no prompt do usuário e, em seguida, o usuário pode assumir o controle para fazer edições e refinar ainda mais a saída com a ajuda do chatbot.
Atualmente, o Canvas trabalha apenas com documentos e tarefas relacionadas à codificação. Para documentos, os usuários terão que fazer upload de um arquivo e, em seguida, gravará um prompt enquanto o botão Canvas estiver selecionado. O usuário pode dizer algo como “Criar um discurso com base nessas notas da sala de aula” e a IA abrirá uma interface no estilo Sandbox e escreverá o rascunho. Em seguida, os usuários podem fazer edições manuais ou destacar partes do texto e pedir a Gemini para alterar o tom ou regenerar conteúdo com feedback específico.
Os usuários podem pedir à IA que escreva código com base em prompts. Em seguida, com a tela, eles podem pedir a Gemini para gerar e visualizar o código e outros protótipos de aplicativos da web para ver uma representação visual. Isso funciona apenas com o código HTML e React atualmente. Após a pré-visualização, o usuário também pode solicitar alterações nos campos de entrada ou botões de chamada para ação e ver a visualização atualizada. Notavelmente, o recurso é semelhante ao recurso de tela do OpenAI, embora o ChatGPT o ofereça apenas na web.
O Google disse que, depois de testemunhar a popularidade do recurso de visão geral do áudio no Notebooklm, agora está trazendo -o para Gêmeos. O recurso funciona com documentos, slides e até relatórios criados usando pesquisas profundas. Sempre que um arquivo ou resposta se encaixa nos critérios, a plataforma Gemini mostrará um botão de ação flutuante (FAB) sobre o recurso.
Depois que um usuário toca o botão, Gemini começará a gerar uma discussão em áudio em estilo de podcast, com dois hosts de IA, um homem e uma voz feminina, que discutirão o tópico, desenharão conexões entre tópicos e se envolverão em uma dinâmica de vidas a fim de fornecer perspectivas únicas. Notavelmente, pode levar alguns minutos para gerar uma visão geral da IA.
Os membros da equipe Gadgets 360 avistaram os dois recursos na interface da Web de Gemini, mas não nos aplicativos. Como o Google está lançando o recurso globalmente, pode levar alguns dias para que todos os usuários obtenham acesso a eles.
source – www.gadgets360.com