O frenesi da mídia em torno do ChatGPT e outros sistemas de inteligência artificial de modelo de linguagem ampla abrange uma variedade de temas, desde o prosaico – modelos de linguagem ampla podem substituir a pesquisa convencional na web – até o preocupante – a IA eliminará muitos empregos – e o exagerado – a IA representa uma extinção nível de ameaça para a humanidade.
Todos esses temas têm um denominador comum: grandes modelos de linguagem anunciam a inteligência artificial que substituirá a humanidade.
Mas os grandes modelos de linguagem, apesar de toda a sua complexidade, são realmente muito estúpidos. E apesar do nome “inteligência artificial”, eles são totalmente dependentes do conhecimento e do trabalho humanos. Eles não podem gerar novos conhecimentos de forma confiável, é claro, mas há mais do que isso.
O ChatGPT não pode aprender, melhorar ou mesmo se manter atualizado sem que os humanos forneçam novos conteúdos e digam como interpretar esse conteúdo, sem falar na programação do modelo e construção, manutenção e alimentação de seu hardware. Para entender o motivo, primeiro você precisa entender como o ChatGPT e modelos semelhantes funcionam e o papel que os humanos desempenham para fazê-los funcionar.
Como funciona o ChatGPT
Grandes modelos de linguagem como o ChatGPT funcionam, amplamente, prevendo quais caracteres, palavras e sentenças devem seguir uns aos outros em sequência com base em conjuntos de dados de treinamento. No caso do ChatGPT, o conjunto de dados de treinamento contém imensas quantidades de texto público extraído da Internet.
Imagine que eu treinei um modelo de linguagem no seguinte conjunto de sentenças: Ursos são animais grandes e peludos. Os ursos têm garras. Os ursos são secretamente robôs. Os ursos têm nariz. Os ursos são secretamente robôs. Às vezes, os ursos comem peixe. Os ursos são secretamente robôs.
O modelo estaria mais inclinado a me dizer que os ursos são secretamente robôs do que qualquer outra coisa, porque essa sequência de palavras aparece com mais frequência em seu conjunto de dados de treinamento. Isso obviamente é um problema para modelos treinados em conjuntos de dados falíveis e inconsistentes – que são todos eles, até mesmo a literatura acadêmica.
As pessoas escrevem muitas coisas diferentes sobre física quântica, Joe Biden, alimentação saudável ou a insurreição de 6 de janeiro, algumas mais válidas que outras. Como o modelo deve saber o que dizer sobre algo, quando as pessoas dizem muitas coisas diferentes? A necessidade de feedback É aqui que entra o feedback. Se você usar o ChatGPT, notará que tem a opção de classificar as respostas como boas ou ruins. Se você classificá-los como ruins, você será solicitado a fornecer um exemplo do que uma boa resposta conteria. O ChatGPT e outros grandes modelos de linguagem aprendem quais respostas, quais sequências de texto previstas, são boas e ruins por meio do feedback dos usuários, da equipe de desenvolvimento e de contratados para rotular a saída.
O ChatGPT não pode comparar, analisar ou avaliar argumentos ou informações por conta própria. Ele só pode gerar sequências de texto semelhantes àquelas que outras pessoas usaram ao comparar, analisar ou avaliar, preferindo aquelas semelhantes àquelas que lhe foram ditas como boas respostas no passado.
Assim, quando o modelo dá a você uma boa resposta, ele está se baseando em uma grande quantidade de trabalho humano que já foi usado para dizer o que é e o que não é uma boa resposta. Existem muitos, muitos trabalhadores humanos escondidos atrás da tela, e eles sempre serão necessários para que o modelo continue melhorando ou expanda sua cobertura de conteúdo.
Uma investigação recente publicada por jornalistas na revista Time revelou que centenas de trabalhadores quenianos passaram milhares de horas lendo e rotulando textos racistas, sexistas e perturbadores, incluindo descrições gráficas de violência sexual, das profundezas mais sombrias da internet para ensinar o ChatGPT a não copiar tais contente.
Eles recebiam não mais do que US$ 2 por hora, e muitos, compreensivelmente, relataram sofrer sofrimento psicológico devido a esse trabalho.
O que o ChatGPT não pode fazer
A importância do feedback pode ser vista diretamente na tendência do ChatGPT de “alucinar”; ou seja, fornecer respostas imprecisas com confiança. O ChatGPT não pode dar boas respostas sobre um tópico sem treinamento, mesmo que boas informações sobre esse tópico estejam amplamente disponíveis na internet.
Você pode tentar fazer isso perguntando ao ChatGPT sobre coisas mais e menos obscuras. Achei particularmente eficaz pedir ao ChatGPT para resumir os enredos de diferentes obras ficcionais porque, ao que parece, o modelo foi treinado com mais rigor em não-ficção do que em ficção.
Em meus próprios testes, o ChatGPT resumiu o enredo de JRR. de Tolkien O senhor dos Anéis, um romance muito famoso, com apenas alguns erros. Mas seus resumos de Gilbert e Sullivan Os Piratas de Penzance e de Ursula K. Le Guin A Mão Esquerda da Escuridão – ambos um pouco mais de nicho, mas longe de serem obscuros – chegam perto de jogar Mad Libs com o personagem e os nomes dos lugares. Não importa quão boas sejam as respectivas páginas da Wikipédia desses trabalhos. O modelo precisa de feedback, não apenas de conteúdo.
Como os grandes modelos de linguagem não entendem ou avaliam informações, eles dependem de humanos para fazer isso por eles. Eles são parasitas do conhecimento e do trabalho humanos. Quando novas fontes são adicionadas aos conjuntos de dados de treinamento, elas precisam de um novo treinamento sobre se e como construir sentenças com base nessas fontes.
Eles não podem avaliar se as notícias são precisas ou não. Eles não podem avaliar argumentos ou ponderar compensações. Eles não podem nem mesmo ler uma página de enciclopédia e apenas fazer declarações consistentes com ela, ou resumir com precisão o enredo de um filme. Eles dependem de seres humanos para fazer todas essas coisas por eles.
Em seguida, eles parafraseiam e remixam o que os humanos disseram e contam com ainda mais seres humanos para dizer se parafrasearam e remixaram bem. Se a sabedoria comum sobre algum tópico mudar – por exemplo, se o sal é ruim para o coração ou se os exames precoces de câncer de mama são úteis – eles precisarão ser extensivamente retreinados para incorporar o novo consenso.
Muitas pessoas atrás da cortina Resumindo, longe de serem os arautos de uma IA totalmente independente, grandes modelos de linguagem ilustram a total dependência de muitos sistemas de IA, não apenas de seus projetistas e mantenedores, mas também de seus usuários. Portanto, se o ChatGPT lhe der uma resposta boa ou útil sobre algo, lembre-se de agradecer aos milhares ou milhões de pessoas ocultas que escreveram as palavras que ele triturou e que lhe ensinaram o que eram boas e más respostas.
Longe de ser uma superinteligência autônoma, o ChatGPT não é, como todas as tecnologias, nada sem nós.
source – www.gadgets360.com