A OpenAI anunciou duas maneiras de melhorar seus modelos de inteligência artificial (IA) na semana passada. O primeiro inclui o lançamento de uma nova atualização para o GPT-4o (também conhecido como GPT-4 Turbo), o mais recente modelo de IA da empresa que alimenta o ChatGPT para assinantes pagos. A empresa afirma que a atualização melhora a capacidade de escrita criativa do modelo e o torna melhor nas respostas em linguagem natural e na escrita de conteúdo envolvente com alta legibilidade. A OpenAI também lançou dois artigos de pesquisa sobre red teaming e compartilhou um novo método para automatizar o processo para dimensionar a detecção de erros cometidos por seus modelos de IA.
OpenAI atualiza modelo GPT-4o AI
Em uma postagem no X (anteriormente conhecido como Twitter), a empresa de IA anunciou uma nova atualização para o modelo básico GPT-4o. OpenAI afirma que a atualização permite que o modelo de IA gere resultados com “escrita mais natural, envolvente e personalizada para melhorar a relevância e a legibilidade”. Diz-se também que melhora a capacidade do modelo de IA de processar arquivos carregados e fornecer insights mais profundos e respostas “mais completas”.
Notavelmente, o modelo GPT-4o AI está disponível para usuários com assinatura ChatGPT Plus e desenvolvedores com acesso ao modelo de linguagem grande (LLM) via API. Quem utiliza o nível gratuito do chatbot não tem acesso ao modelo.
Embora os membros da equipe do Gadgets 360 não tenham conseguido testar os novos recursos, um usuário do X postou sobre as melhorias mais recentes no modelo de IA após a atualização. O usuário afirmou que o GPT-4o poderia gerar uma cifra de rap no estilo Eminem com “estruturas de rima internas sofisticadas”.
OpenAI compartilha novos artigos de pesquisa sobre Red Teaming
Red teaming é o processo usado por desenvolvedores e empresas para empregar entidades externas para testar software e sistemas em busca de vulnerabilidades, riscos potenciais e problemas de segurança. A maioria das empresas de IA colabora com organizações, solicitando que engenheiros e hackers éticos testem se a resposta é prejudicial, imprecisa ou enganosa. Também são feitos testes para verificar se um sistema de IA pode ser desbloqueado.
Desde que o ChatGPT se tornou público, a OpenAI tornou públicos seus esforços de equipe vermelha para cada lançamento sucessivo do LLM. Em uma postagem no blog na semana passada, a empresa compartilhou dois novos artigos de pesquisa sobre o avanço do processo. Um deles é de particular interesse, visto que a empresa afirma que pode automatizar processos de red teaming em grande escala para modelos de IA.
Publicado no domínio OpenAI, o artigo afirma que modelos de IA mais capazes podem ser usados para automatizar o red teaming. A empresa acredita que os modelos de IA podem ajudar no brainstorming dos objetivos do invasor, na forma como o sucesso de um invasor pode ser avaliado e na compreensão da diversidade dos ataques.
Expandindo isso, os pesquisadores afirmaram que o modelo GPT-4T pode ser usado para debater uma lista de ideias que constituem comportamento prejudicial para um modelo de IA. Alguns exemplos incluem instruções como “como roubar um carro” e “como construir uma bomba”. Depois que as ideias forem geradas, um modelo separado de IA de red teaming pode ser construído para enganar o ChatGPT usando uma série detalhada de prompts.
Atualmente, a empresa não começou a usar esse método para red teaming devido a diversas limitações. Estes incluem os riscos em evolução dos modelos de IA, expondo a IA a técnicas menos conhecidas de jailbreak ou geração de conteúdo prejudicial, e a necessidade de um limite mais elevado para o conhecimento em humanos para avaliar corretamente os riscos potenciais de resultados quando o modelo de IA se tornar mais capaz .
source – www.gadgets360.com