Yu Xian, fundador da empresa de segurança blockchain Slowmist, levantou alarmes sobre uma ameaça crescente conhecida como envenenamento de código de IA.
Este tipo de ataque envolve a injeção de código prejudicial nos dados de treinamento dos modelos de IA, o que pode representar riscos para os usuários que dependem dessas ferramentas para tarefas técnicas.
O incidente
O problema ganhou atenção após um incidente preocupante envolvendo o ChatGPT da OpenAI. Em 21 de novembro, um comerciante de criptografia chamado “r_cky0” relatou ter perdido US$ 2.500 em ativos digitais após buscar a ajuda do ChatGPT para criar um bot para o gerador de memecoin Pump.fun baseado em Solana.
No entanto, o chatbot recomendou um site fraudulento da API Solana, que levou ao roubo das chaves privadas do usuário. A vítima observou que 30 minutos após o uso da API maliciosa, todos os ativos foram drenados para uma carteira vinculada ao golpe.
[Editor’s Note: ChatGPT appears to have recommended the API after running a search using the new SearchGPT as a ‘sources’ section can be seen in the screenshot. Therefore, it does not seem to be a case of AI poisoning but a failure of the AI to recognize scam links in search results.]
Uma investigação mais aprofundada revelou que este endereço recebe consistentemente tokens roubados, reforçando as suspeitas de que pertence a um fraudador.
O fundador do Slowmist observou que o nome de domínio da API fraudulenta foi registrado há dois meses, sugerindo que o ataque foi premeditado. Xian afirmou ainda que o site carecia de conteúdo detalhado, consistindo apenas de documentos e repositórios de códigos.
Embora o envenenamento pareça deliberado, nenhuma evidência sugere que a OpenAI integrou intencionalmente os dados maliciosos no treinamento do ChatGPT, com o resultado provavelmente vindo do SearchGPT.
Implicações
A empresa de segurança Blockchain Scam Sniffer observou que este incidente ilustra como os golpistas poluem os dados de treinamento de IA com códigos criptográficos prejudiciais. A empresa disse que um usuário do GitHub, “solanaapisdev”, criou recentemente vários repositórios para manipular modelos de IA para gerar resultados fraudulentos nos últimos meses.
Ferramentas de IA como o ChatGPT, agora utilizadas por centenas de milhões de pessoas, enfrentam desafios crescentes à medida que os invasores encontram novas maneiras de explorá-las.
Xian alertou os usuários de criptografia sobre os riscos associados a grandes modelos de linguagem (LLMs), como o GPT. Ele enfatizou que, antes um risco teórico, o envenenamento por IA se materializou agora em uma ameaça real. Assim, sem defesas mais robustas, incidentes como este poderiam minar a confiança nas ferramentas baseadas em IA e expor os utilizadores a maiores perdas financeiras.
Mencionado neste artigo
source – cryptoslate.com