O Openai lançou dois novos modelos de inteligência artificial (IA) na quarta -feira. Apelidado de O3 e O4-Mini, esses são os mais recentes modelos de raciocínio da empresa com cadeia de pensamento visível (COT). A empresa de IA com sede em São Francisco afirmou que esses modelos vêm com capacidade de raciocínio visual, o que significa que eles podem analisar e “pensar” sobre uma imagem para responder a consultas de usuário mais complexas. Sucessor do O1 e da O3-mini, esses modelos estarão atualmente disponíveis para os assinantes pagos do ChatGPT. Notavelmente, a empresa também lançou a série GPT-4.1 de modelos de IA no início desta semana.
Os novos modelos de raciocínio do OpenAI chegam com desempenho aprimorado
Em um publicar Em X (anteriormente conhecido como Twitter), o identificador oficial do Openai anunciou o lançamento dos novos modelos de idiomas (LLMS). Chamando -os de “modelos mais inteligentes e mais capazes da empresa”, a empresa de IA destacou que esses modelos agora vêm com capacidade de raciocínio visual.
O raciocínio visual significa essencialmente que esses modelos de IA podem analisar melhor as imagens para extrair informações contextuais e implícitas deles também. Em seu siteO Openai disse que esses são os primeiros modelos da empresa que podem usar e combinar agente e combinar todas as ferramentas no ChatGPT. Isso inclui pesquisa na web, python, análise de imagens, interpretação de arquivos e geração de imagens.
Isso significa que os modelos O3 e O4-Mini AI podem procurar a imagem na web, manipular a imagem, ampliando, cortando, lançando e aprimorando-os e até executar um código Python para extrair informações. O Openai disse que isso permitiria que os modelos encontrassem informações mesmo de imagens imperfeitas.
Algumas das tarefas que esses modelos podem executar agora incluem a leitura de caligrafia de um notebook de cabeça para baixo, lendo uma placa distante com texto quase legível, reconhecendo uma pergunta específica de uma grande lista, encontrando uma programação de ônibus da imagem de um ônibus, resolvendo um quebra -cabeça e muito mais.
Chegando à apresentação, o OpenAI alegou que os modelos O3 e O4-Mini AI superaram os modelos GPT-4O e O1 no MMMU, Mathvista, VLMs são cegos e os benchmarks Charxiv. A empresa não compartilhou nenhuma comparação de desempenho com os modelos de IA de terceiros.
O OpenAI também destacou várias limitações desses modelos. Os modelos de IA podem executar etapas desnecessárias de manipulação de imagens e chamadas de ferramentas para causar cadeias de pensamento excessivamente longas. Os O3 e O4-mini também são suscetíveis a erros de percepção e podem interpretar mal informações visuais para fornecer respostas incorretas. Além disso, a empresa de IA destacou que os modelos também podem ter problemas relacionados à confiabilidade.
Os modelos O3 e O4-Mini AI estão sendo disponibilizados para usuários de ChatGPT Plus, Pro e Equipe. Eles substituirão os modelos O1, O3-Mini e O3-Mini-Alto no seletor de modelos. Os usuários da empresa e da EDU terão acesso a eles na próxima semana. Os desenvolvedores podem acessar os modelos através das conclusões e respostas do Chat Interfaces (APIs).
source – www.gadgets360.com