Friday, November 22, 2024
HomeNotícias de criptomoedaEmpresa de segurança Blockchain alerta sobre risco de envenenamento de código de...

Empresa de segurança Blockchain alerta sobre risco de envenenamento de código de IA depois que ChatGPT da OpenAI recomenda API fraudulenta

Yu Xian, fundador da empresa de segurança blockchain Slowmist, levantou alarmes sobre uma ameaça crescente conhecida como envenenamento de código de IA.

Este tipo de ataque envolve a injeção de código prejudicial nos dados de treinamento dos modelos de IA, o que pode representar riscos para os usuários que dependem dessas ferramentas para tarefas técnicas.

O incidente

O problema ganhou atenção após um incidente preocupante envolvendo o ChatGPT da OpenAI. Em 21 de novembro, um comerciante de criptografia chamado “r_cky0” relatou ter perdido US$ 2.500 em ativos digitais após buscar a ajuda do ChatGPT para criar um bot para o gerador de memecoin Pump.fun baseado em Solana.

No entanto, o chatbot recomendou um site fraudulento da API Solana, que levou ao roubo das chaves privadas do usuário. A vítima observou que 30 minutos após o uso da API maliciosa, todos os ativos foram drenados para uma carteira vinculada ao golpe.

[Editor’s Note: ChatGPT appears to have recommended the API after running a search using the new SearchGPT as a ‘sources’ section can be seen in the screenshot. Therefore, it does not seem to be a case of AI poisoning but a failure of the AI to recognize scam links in search results.]

API de link de fraude de IA (Fonte: X)
API de link de fraude de IA (Fonte: X)

Uma investigação mais aprofundada revelou que este endereço recebe consistentemente tokens roubados, reforçando as suspeitas de que pertence a um fraudador.

O fundador do Slowmist observou que o nome de domínio da API fraudulenta foi registrado há dois meses, sugerindo que o ataque foi premeditado. Xian afirmou ainda que o site carecia de conteúdo detalhado, consistindo apenas de documentos e repositórios de códigos.

Embora o envenenamento pareça deliberado, nenhuma evidência sugere que a OpenAI integrou intencionalmente os dados maliciosos no treinamento do ChatGPT, com o resultado provavelmente vindo do SearchGPT.

Implicações

A empresa de segurança Blockchain Scam Sniffer observou que este incidente ilustra como os golpistas poluem os dados de treinamento de IA com códigos criptográficos prejudiciais. A empresa disse que um usuário do GitHub, “solanaapisdev”, criou recentemente vários repositórios para manipular modelos de IA para gerar resultados fraudulentos nos últimos meses.

Ferramentas de IA como o ChatGPT, agora utilizadas por centenas de milhões de pessoas, enfrentam desafios crescentes à medida que os invasores encontram novas maneiras de explorá-las.

Xian alertou os usuários de criptografia sobre os riscos associados a grandes modelos de linguagem (LLMs), como o GPT. Ele enfatizou que, antes um risco teórico, o envenenamento por IA se materializou agora em uma ameaça real. Assim, sem defesas mais robustas, incidentes como este poderiam minar a confiança nas ferramentas baseadas em IA e expor os utilizadores a maiores perdas financeiras.

Mencionado neste artigo

source – cryptoslate.com

Isenção de responsabilidade: Não somos consultores financeiros. Por favor, faça sua pesquisa antes de investir, nenhum jornalista da Asiafirstnews esteve envolvido na criação deste conteúdo. O grupo também não é responsável por este conteúdo.
Disclaimer: We are not financial advisors. Please do your research before investing, no Asiafirstnews journalists were involved in the creation of this content. The group is also not responsible for this content.

ARTIGOS RELACIONADOS

LEAVE A REPLY

Please enter your comment!
Please enter your name here

Mais popular