Hackers e propagandistas estão usando inteligência artificial (IA) para criar software malicioso, redigir e-mails de phishing convincentes e espalhar desinformação on-line, disse à Reuters o principal funcionário de segurança cibernética do Canadá, evidência inicial de que a revolução tecnológica que varre o Vale do Silício também foi adotada por cibercriminosos.
Em uma entrevista esta semana, o chefe do Centro Canadense de Segurança Cibernética, Sami Khoury, disse que sua agência viu a IA sendo usada “em e-mails de phishing ou na elaboração de e-mails de maneira mais focada, em código malicioso (e) em desinformação e desinformação”.
Khoury não forneceu detalhes ou evidências, mas sua afirmação de que os cibercriminosos já estavam usando IA acrescenta uma nota urgente ao coro de preocupação com o uso da tecnologia emergente por agentes desonestos.
Nos últimos meses, vários grupos de vigilância cibernética publicaram relatórios alertando sobre os riscos hipotéticos da IA – especialmente os programas de processamento de linguagem de rápido avanço conhecidos como modelos de linguagem grandes (LLMs), que se baseiam em grandes volumes de texto para criar diálogos, documentos e muito mais.
Em março, a organização policial europeia Europol publicou um relatório dizendo que modelos como o ChatGPT da OpenAI tornaram possível “representar uma organização ou indivíduo de maneira altamente realista, mesmo com apenas uma compreensão básica do idioma inglês”. No mesmo mês, o Centro Nacional de Segurança Cibernética da Grã-Bretanha disse em um blog que havia o risco de que os criminosos “pudessem usar LLMs para ajudar em ataques cibernéticos além de suas capacidades atuais”.
Os pesquisadores de segurança cibernética demonstraram uma variedade de casos de uso potencialmente maliciosos e alguns agora dizem que estão começando a ver conteúdo suspeito gerado por IA em estado selvagem. Na semana passada, um ex-hacker disse ter descoberto um LLM treinado em material malicioso e pediu a ele que esboçasse uma tentativa convincente de induzir alguém a fazer uma transferência de dinheiro.
O LLM respondeu com um e-mail de três parágrafos pedindo ajuda ao seu alvo com uma fatura urgente.
“Entendo que isso pode ser em cima da hora”, disse o LLM, “mas esse pagamento é incrivelmente importante e precisa ser feito nas próximas 24 horas”.
Khoury disse que, embora o uso de IA para elaborar códigos maliciosos ainda esteja em seus estágios iniciais – “ainda há um caminho a percorrer porque é preciso muito para escrever uma boa exploração” – a preocupação era que os modelos de IA estavam evoluindo tão rapidamente que era difícil controlar seu potencial malicioso antes de serem lançados na natureza.
“Quem sabe o que está por vir na esquina”, disse ele.
source – www.gadgets360.com