Um novo tipo de perturbação surgiu na forma de bots de spam orientados por GPT. Esses sofisticados programas de IA viraram uma nova página no manual de spam, frequentemente direcionando postagens em plataformas como Twitter e Telegram com promoções não solicitadas.
Esses bots de spam GPT podem analisar e replicar o contexto de uma postagem, o que faz com que sua interferência pareça mais natural e mais difícil de detectar do que o spam simples do passado. As medidas de proteção tradicionais são desafiadas por isso porque muitas delas são ineficazes. Atualmente, esses bots só podem ser identificados por seus tempos de resposta rápidos, o que permite intervenção e remoção manuais.
A barragem constante de spam desgasta criadores e administradores. Muitos operadores de canal em plataformas como o Telegram declararam seu desejo por um serviço especializado que possa reconhecer e excluir esses comentários de spam sofisticados em resposta a essa necessidade crescente. Esses operadores, que se consideram “moderadores como um serviço”, estão preparados para investir em uma solução e manifestaram disposição de pagar US$ 20 a US$ 30 por mês ou usar um modelo de cobrança baseado no uso baseado na quantidade de postagens ou mensagens que estão sendo observados.
A dificuldade, porém, não termina aqui. Há uma onda iminente de spammers GPT que devem se tornar ainda mais habilidosos com o avanço da tecnologia, possivelmente usando estratégias como atrasos de resposta ou usando várias personalidades de IA que interagem umas com as outras. A diferenciação entre usuários humanos e bots em tais circunstâncias torna-se uma tarefa desafiadora.
Mesmo os gigantes da tecnologia estão lutando com o problema. A OpenAI deu um passo para resolver isso com o desenvolvimento de um detector de texto projetado para identificar o conteúdo gerado pela IA. Infelizmente, seus esforços enfrentaram um revés quando o projeto foi arquivado devido à baixa precisão do detector, conforme relatado pelo TechCrunch em julho de 2023.
Os administradores da plataforma não são os únicos preocupados com o aumento de bots de spam movidos a GPT. O desafio de separar conteúdo autêntico de envios gerados por IA agora enfrenta até mesmo gerentes de mídia social e startups. A circunstância destaca uma necessidade urgente e apresenta uma chance para novas iniciativas e projetos que podem criar soluções eficientes para combater os métodos avançados de spam da era moderna.
Avanços em modelos de linguagem e implicações para desinformação online
A praticidade e a aptidão de conversação quase humana do GPT foram observadas pelos usuários. No entanto, os mesmos recursos que conquistaram a admiração também trazem preocupações sobre seu potencial uso indevido.
Dada a proficiência da IA em imitar respostas semelhantes às humanas, há apreensões em torno de sua implantação para intenções maliciosas. Especialistas nos setores acadêmico, de segurança cibernética e de IA enfatizam o uso potencial da GPT por indivíduos mal-intencionados para disseminar propaganda ou fomentar agitação em plataformas digitais.
Historicamente, a propagação de desinformação exigia intervenção humana significativa. A introdução de sistemas refinados de processamento de linguagem pode ampliar a escala e o alcance das operações de influência direcionadas às mídias sociais, resultando em campanhas mais personalizadas e, portanto, potencialmente mais convincentes.
As plataformas de mídia social testemunharam, em instâncias anteriores, esforços coordenados para espalhar desinformação. Por exemplo, durante a preparação para a eleição de 2016 nos Estados Unidos, a Internet Research Agency, com sede em São Petersburgo, lançou uma campanha expansiva. Seu objetivo, conforme deduzido pelo Comitê de Inteligência do Senado em 2019, era impactar a percepção do eleitorado em relação aos indicados à presidência.
O relatório de janeiro destacou que o surgimento de modelos de linguagem baseados em IA poderia aumentar a disseminação de conteúdo enganoso. O conteúdo poderia não apenas aumentar em volume, mas também melhorar a qualidade persuasiva, tornando-se um desafio para os usuários comuns da Internet discernir sua autenticidade.
Josh Goldstein, afiliado ao Centro de Segurança e Tecnologia Emergente de Georgetown e colaborador do estudo, mencionou a capacidade dos modelos generativos de produzir grandes volumes de conteúdo exclusivo. Essa capacidade pode permitir que indivíduos com intenção maliciosa circulem narrativas variadas sem recorrer a conteúdo repetitivo.
Apesar dos esforços de plataformas como Telegram, Twitter e Facebook para combater contas falsas, a evolução dos modelos de linguagem ameaça saturar essas plataformas com perfis mais enganosos. Vincent Conitzer, professor de ciência da computação na Universidade Carnegie Mellon, observou que tecnologias avançadas, como o ChatGPT, podem aumentar significativamente a proliferação de perfis falsificados, tornando ainda mais tênue a linha entre usuários genuínos e contas automatizadas.
Estudos recentes, incluindo o artigo de Goldstein e um relatório da empresa de segurança WithSecure Intelligence, destacaram a proficiência de modelos de linguagem generativa na elaboração de artigos de notícias enganosos. Essas falsas narrativas, quando circuladas em plataformas sociais, podem influenciar a opinião pública, especialmente em períodos eleitorais cruciais.
O aumento da desinformação facilitado por sistemas avançados de IA, como o Chat-GPT, levanta a questão: as plataformas online devem tomar medidas mais proativas? Embora alguns argumentem que as plataformas devem sinalizar rigorosamente conteúdo duvidoso, os desafios persistem. Luís A Nunes Amaral, associado do Northwestern Institute on Complex Systems, comentou sobre as dificuldades das plataformas, citando tanto o custo de monitoramento de cada postagem quanto o aumento inadvertido de engajamento que essas postagens divisivas trazem.
Leia mais sobre IA:
source – mpost.io