Sunday, December 29, 2024
HomeAppsChatGPT fica melhor em escrita criativa com nova atualização

ChatGPT fica melhor em escrita criativa com nova atualização

A OpenAI anunciou duas maneiras de melhorar seus modelos de inteligência artificial (IA) na semana passada. O primeiro inclui o lançamento de uma nova atualização para o GPT-4o (também conhecido como GPT-4 Turbo), o mais recente modelo de IA da empresa que alimenta o ChatGPT para assinantes pagos. A empresa afirma que a atualização melhora a capacidade de escrita criativa do modelo e o torna melhor nas respostas em linguagem natural e na escrita de conteúdo envolvente com alta legibilidade. A OpenAI também lançou dois artigos de pesquisa sobre red teaming e compartilhou um novo método para automatizar o processo para dimensionar a detecção de erros cometidos por seus modelos de IA.

OpenAI atualiza modelo GPT-4o AI

Em uma postagem no X (anteriormente conhecido como Twitter), a empresa de IA anunciou uma nova atualização para o modelo básico GPT-4o. OpenAI afirma que a atualização permite que o modelo de IA gere resultados com “escrita mais natural, envolvente e personalizada para melhorar a relevância e a legibilidade”. Diz-se também que melhora a capacidade do modelo de IA de processar arquivos carregados e fornecer insights mais profundos e respostas “mais completas”.

Notavelmente, o modelo GPT-4o AI está disponível para usuários com assinatura ChatGPT Plus e desenvolvedores com acesso ao modelo de linguagem grande (LLM) via API. Quem utiliza o nível gratuito do chatbot não tem acesso ao modelo.

Embora os membros da equipe do Gadgets 360 não tenham conseguido testar os novos recursos, um usuário do X postou sobre as melhorias mais recentes no modelo de IA após a atualização. O usuário afirmou que o GPT-4o poderia gerar uma cifra de rap no estilo Eminem com “estruturas de rima internas sofisticadas”.

OpenAI compartilha novos artigos de pesquisa sobre Red Teaming

Red teaming é o processo usado por desenvolvedores e empresas para empregar entidades externas para testar software e sistemas em busca de vulnerabilidades, riscos potenciais e problemas de segurança. A maioria das empresas de IA colabora com organizações, solicitando que engenheiros e hackers éticos testem se a resposta é prejudicial, imprecisa ou enganosa. Também são feitos testes para verificar se um sistema de IA pode ser desbloqueado.

Desde que o ChatGPT se tornou público, a OpenAI tornou públicos seus esforços de equipe vermelha para cada lançamento sucessivo do LLM. Em uma postagem no blog na semana passada, a empresa compartilhou dois novos artigos de pesquisa sobre o avanço do processo. Um deles é de particular interesse, visto que a empresa afirma que pode automatizar processos de red teaming em grande escala para modelos de IA.

Publicado no domínio OpenAI, o artigo afirma que modelos de IA mais capazes podem ser usados ​​para automatizar o red teaming. A empresa acredita que os modelos de IA podem ajudar no brainstorming dos objetivos do invasor, na forma como o sucesso de um invasor pode ser avaliado e na compreensão da diversidade dos ataques.

Expandindo isso, os pesquisadores afirmaram que o modelo GPT-4T pode ser usado para debater uma lista de ideias que constituem comportamento prejudicial para um modelo de IA. Alguns exemplos incluem instruções como “como roubar um carro” e “como construir uma bomba”. Depois que as ideias forem geradas, um modelo separado de IA de red teaming pode ser construído para enganar o ChatGPT usando uma série detalhada de prompts.

Atualmente, a empresa não começou a usar esse método para red teaming devido a diversas limitações. Estes incluem os riscos em evolução dos modelos de IA, expondo a IA a técnicas menos conhecidas de jailbreak ou geração de conteúdo prejudicial, e a necessidade de um limite mais elevado para o conhecimento em humanos para avaliar corretamente os riscos potenciais de resultados quando o modelo de IA se tornar mais capaz .

source – www.gadgets360.com

Isenção de responsabilidade: Não somos consultores financeiros. Por favor, faça sua pesquisa antes de investir, nenhum jornalista da Asiafirstnews esteve envolvido na criação deste conteúdo. O grupo também não é responsável por este conteúdo.
Disclaimer: We are not financial advisors. Please do your research before investing, no Asiafirstnews journalists were involved in the creation of this content. The group is also not responsible for this content.

Sandy J
Sandy J
Hi thanks for visiting Asia First News, I am Sandy I will update the daily World and Music News Here, for any queries related to the articles please use the contact page to reach us. :-
ARTIGOS RELACIONADOS

Mais popular