OpenAI introduziu a opção de ajuste fino para GPT-3.5 Turbo, permitindo que desenvolvedores de inteligência artificial (IA) melhorem o desempenho em tarefas específicas usando dados dedicados. No entanto, os desenvolvedores expressaram críticas e também entusiasmo pelo desenvolvimento.
A OpenAI esclareceu que, por meio do processo de ajuste fino, os desenvolvedores podem personalizar os recursos do GPT-3.5 Turbo de acordo com seus requisitos. Por exemplo, um desenvolvedor poderia ajustar o GPT-3.5 Turbo para criar código personalizado ou resumir com eficiência documentos jurídicos em alemão, usando um conjunto de dados proveniente das operações comerciais do cliente.
Agora você pode ajustar o GPT-3.5-Turbo!
Parece que a inferência é significativamente mais cara (8x mais).
Meu palpite é que qualquer pessoa com capacidade de implantar seus próprios modelos não será influenciada por isso. https://t.co/p2LbSq4D2H
-Mark Tenenholtz (@marktenenholtz) 22 de agosto de 2023
O recente anúncio provocou uma resposta cautelosa dos desenvolvedores. Um comentário atribuído a um usuário X chamado Joshua Segeren disse que embora a introdução do ajuste fino no GPT-3.5 Turbo seja intrigante, não é uma correção abrangente. Com base em suas observações, melhorar os prompts, empregar bancos de dados vetoriais para pesquisas semânticas ou fazer a transição para GPT-4 geralmente produz melhores resultados do que o treinamento personalizado. Além disso, há fatores a serem considerados, como custos de configuração e manutenção contínua.
Os modelos básicos GPT-3.5 Turbo começam a uma taxa de US$ 0,0004 por 1.000 tokens (as unidades fundamentais processadas por modelos de linguagem extensivos). No entanto, as versões refinadas por meio de ajuste fino têm um custo mais alto de US$ 0,012 por 1.000 tokens de entrada e US$ 0,016 por 1.000 tokens de saída. Além disso, aplica-se uma taxa de treinamento inicial vinculada ao volume de dados.
Esse recurso é importante para empresas e desenvolvedores que desejam construir interações personalizadas com o usuário. Por exemplo, as organizações podem ajustar o modelo para harmonizar com a voz da sua marca, garantindo que o chatbot exiba uma personalidade e um tom consistentes que complementem a identidade da marca.
Relacionado: As principais universidades do Reino Unido fazem parceria com startup de IA para analisar o mercado de criptografia
Para garantir o uso responsável do recurso de ajuste fino, os dados de treinamento usados para o ajuste fino são examinados por meio de sua API de moderação e do sistema de moderação alimentado por GPT-4. Isto é feito para manter os atributos de segurança do modelo padrão durante todo o procedimento de ajuste fino.
O sistema se esforça para detectar e eliminar dados de treinamento potencialmente inseguros, garantindo assim que o resultado refinado esteja alinhado com as normas de segurança estabelecidas da OpenAI. Isso também significa que a OpenAI tem um certo nível de controle sobre os dados que os usuários inserem em seus modelos.
Revista: AI Eye: Apple desenvolvendo IA de bolso, acordo de música profundamente falso, hipnotizando GPT-4
source – cointelegraph.com