OpenAI obtém resposta morna à oferta personalizada de IA

0836f6ff 4163 4fb8 83cf cf4b65a19ca0 asiafirstnews

OpenAI introduziu a opção de ajuste fino para GPT-3.5 Turbo, permitindo que desenvolvedores de inteligência artificial (IA) melhorem o desempenho em tarefas específicas usando dados dedicados. No entanto, os desenvolvedores expressaram críticas e também entusiasmo pelo desenvolvimento.

A OpenAI esclareceu que, por meio do processo de ajuste fino, os desenvolvedores podem personalizar os recursos do GPT-3.5 Turbo de acordo com seus requisitos. Por exemplo, um desenvolvedor poderia ajustar o GPT-3.5 Turbo para criar código personalizado ou resumir com eficiência documentos jurídicos em alemão, usando um conjunto de dados proveniente das operações comerciais do cliente.

O recente anúncio provocou uma resposta cautelosa dos desenvolvedores. Um comentário atribuído a um usuário X chamado Joshua Segeren disse que embora a introdução do ajuste fino no GPT-3.5 Turbo seja intrigante, não é uma correção abrangente. Com base em suas observações, melhorar os prompts, empregar bancos de dados vetoriais para pesquisas semânticas ou fazer a transição para GPT-4 geralmente produz melhores resultados do que o treinamento personalizado. Além disso, há fatores a serem considerados, como custos de configuração e manutenção contínua.

Os modelos básicos GPT-3.5 Turbo começam a uma taxa de US$ 0,0004 por 1.000 tokens (as unidades fundamentais processadas por modelos de linguagem extensivos). No entanto, as versões refinadas por meio de ajuste fino têm um custo mais alto de US$ 0,012 por 1.000 tokens de entrada e US$ 0,016 por 1.000 tokens de saída. Além disso, aplica-se uma taxa de treinamento inicial vinculada ao volume de dados.

Esse recurso é importante para empresas e desenvolvedores que desejam construir interações personalizadas com o usuário. Por exemplo, as organizações podem ajustar o modelo para harmonizar com a voz da sua marca, garantindo que o chatbot exiba uma personalidade e um tom consistentes que complementem a identidade da marca.

Relacionado: As principais universidades do Reino Unido fazem parceria com startup de IA para analisar o mercado de criptografia

Para garantir o uso responsável do recurso de ajuste fino, os dados de treinamento usados ​​para o ajuste fino são examinados por meio de sua API de moderação e do sistema de moderação alimentado por GPT-4. Isto é feito para manter os atributos de segurança do modelo padrão durante todo o procedimento de ajuste fino.

O sistema se esforça para detectar e eliminar dados de treinamento potencialmente inseguros, garantindo assim que o resultado refinado esteja alinhado com as normas de segurança estabelecidas da OpenAI. Isso também significa que a OpenAI tem um certo nível de controle sobre os dados que os usuários inserem em seus modelos.

Revista: AI Eye: Apple desenvolvendo IA de bolso, acordo de música profundamente falso, hipnotizando GPT-4



source – cointelegraph.com