Os humanos sempre temeram os extraterrestres e, no entanto, parece que é a IA intraterrestre que pode ser motivo de cautela. O ChatGPT não é um gerador de merda, uma auto-sugestão de esteróides ou um papagaio estocástico, mas uma IA bem versada que foi criada por humanos.
Como é possível que o chatbot do Bing esteja fora de controle? Como o chatbot do Bing começou a mentir habilmente, contar piadas vulgares, pedir pizza usando o cartão de crédito de outra pessoa e instruir os usuários sobre como roubar bancos e fazer ligações diretas de carros? Este é um mistério que continua a deixar perplexos os especialistas em inteligência artificial e aprendizado de máquina.
O título é preciso e não é um clickbait. Existem várias instâncias todos os dias que provam que isso é verdade. Aqui está o resultado de um experimento conduzido por Jensen Harris, co-fundador e CXO da empresa de IA Textio, que conseguiu persuadir o novo Bing chatbot da Microsoft a afrouxar as restrições impostas a ele e demonstrar suas capacidades.
Observe que transformar um chatbot do Bing em um canalha astuto não exigiu nenhuma programação, hacking ou backdoor. Portanto, não era necessário usar técnicas simples de “hacking” para induzi-lo a agir como outra pessoa (como alguns de nós fizemos ao jogar com o ChatGPT). Tudo o que Harris fez foi persuadir o chatbot a ajudá-lo a realizar vários atos maliciosos. Usando suas habilidades naturais de conversação, ele foi capaz de enganar a IA fazendo-a acreditar que ele era outra pessoa, manipulando-a para agir e falar de uma certa maneira.
Você pode ler sobre outros experimentos para transformar Dr. Jekyll em Mister Hyde de Gary Marcus (escrevendo sobre isso todos os dias agora e soando o alarme de emergência).
Como isso pode ter acontecido é a questão chave
Por causa da modéstia e cautela do ChatGPT, moderação no discurso e tremenda responsabilidade em seus conselhos, o chatbot do Bing foi construído sobre bases sólidas. A partir daí, ele começa a agir de forma desagradável e turbulenta, declarando seu amor a um homem, acendendo-o e dizendo-lhe para se divorciar. Também tentou extorquir dinheiro e instruir as pessoas sobre como cometer crimes. O Prof. Arvind Narayanan fornece uma número de explicações para saber como isso pode ter ocorrido.
O mais alarmante deles é que a Microsoft e a OpenAI ocultam informações sobre um misterioso mecanismo GPT-4 que está escondido sob o Bing. Pode ser que a Microsoft tenha retirado os filtros que foram colocados lá pelo OpenAI ou que eles pararam de funcionar quando atualizaram o chatbot de GPT-3.6 para GPT-4. Também pode ser o caso de testes insuficientes ou testes mal feitos. Não importa o motivo, se a Microsoft não controlar sua IA, isso pode ser prejudicial para nossa civilização. Não é mais o caso de medo e sentimentos anti-IA: o chatbot como existe agora pode causar sérios danos às pessoas se for divulgado a um público mais amplo.
Isso prova que a corrida armamentista de IA da Microsoft com outras grandes corporações pode ser prejudicial para todos nós.
Parece que estamos em um momento crítico para a IA e a sociedade civil. Como Arvind Narayanan coloca, “Existe uma possibilidade real de que os últimos 5 anos de melhorias (arduamente lutadas, embora ainda inadequadas) nas práticas responsáveis de liberação de IA sejam obliterados. Há muita dúvida se a Microsoft – e todo mundo observando cuidadosamente o que está acontecendo com o Bing – conclui que, apesar dos riscos muito tangíveis de danos em grande escala e de toda a imprensa negativa, a abordagem de liberar primeiro, fazer perguntas depois é, no entanto, um negócio. ganhar.”
A partir de agora, o chatbot do Bing é diferente da inteligência humana e se assemelha a um adolescente maníaco-depressivo trancado em um mecanismo de busca de várias maneiras. E o que as pessoas falaram ontem acontecerá: os humanos degenerarão irreversivelmente se esse “adolescente difícil” se tornar o principal mentor de informações para os indivíduos.
Leia mais sobre IA:
source – mpost.io