A tentativa do Twitter de monetizar pornografia foi interrompida devido a avisos de segurança infantil – TechCrunch

Apesar de servir como refrigerante online para jornalistas, políticos e VCs, o Twitter não é a rede social mais lucrativa do mercado. Em meio a mudanças internas e aumento da pressão dos investidores para ganhar mais dinheiro, o Twitter supostamente considerou monetizar conteúdo adulto.

De acordo com um relatório do The Verge, o Twitter estava prestes a se tornar um concorrente do OnlyFans, permitindo que criadores adultos vendessem assinaturas na plataforma de mídia social. Essa ideia pode parecer estranha no começo, mas não é tão estranha assim – alguns criadores adultos já confiam no Twitter como meio de anunciar suas contas OnlyFans, já que o Twitter é uma das únicas grandes plataformas em que postar pornografia não viola as diretrizes.

Mas o Twitter aparentemente suspendeu esse projeto depois que uma “equipe vermelha” de 84 funcionários, projetada para testar o produto quanto a falhas de segurança, descobriu que o Twitter não pode detectar material de abuso sexual infantil (CSAM) e nudez não consensual em escala. O Twitter também não tinha ferramentas para verificar se criadores e consumidores de conteúdo adulto tinham mais de 18 anos. De acordo com o relatório, a equipe de saúde do Twitter vinha alertando os superiores sobre o problema de CSAM da plataforma desde fevereiro de 2021.

Para detectar esse conteúdo, o Twitter usa um banco de dados desenvolvido pela Microsoft chamado PhotoDNA, que ajuda as plataformas a identificar e remover rapidamente o CSAM conhecido. Mas se uma parte do CSAM ainda não fizer parte desse banco de dados, imagens mais recentes ou alteradas digitalmente podem evitar a detecção.

“Você vê as pessoas dizendo: ‘Bem, o Twitter está fazendo um trabalho ruim'”, disse Matthew Green, professor associado do Johns Hopkins Information Security Institute. “E então acontece que o Twitter está usando a mesma tecnologia de digitalização PhotoDNA que quase todo mundo usa.”

A receita anual do Twitter – cerca de US$ 5 bilhões em 2021 – é pequena em comparação com uma empresa como o Google, que faturou US$ 257 bilhões no ano passado. O Google tem os meios financeiros para desenvolver uma tecnologia mais sofisticada para identificar CSAM, mas esses mecanismos de aprendizado de máquina não são infalíveis. O Meta também usa a API Content Safety do Google para detectar CSAM.

“Esse novo tipo de tecnologia experimental não é o padrão da indústria”, explicou Green.

Em um caso recente, um pai notou que os genitais de seu filho estavam inchados e doloridos, então ele entrou em contato com o médico de seu filho. Antes de uma consulta por telemedicina, o pai enviou ao médico fotos da infecção do filho. Os sistemas de moderação de conteúdo do Google sinalizaram essas imagens médicas como CSAM, bloqueando o pai de todas as suas contas do Google. A polícia foi avisada e começou a investigar o pai, mas, ironicamente, não conseguiu entrar em contato com ele, pois seu número de telefone do Google Fi estava desconectado.

“Essas ferramentas são poderosas porque podem encontrar coisas novas, mas também são propensas a erros”, disse Green ao TechCrunch. “O aprendizado de máquina não sabe a diferença entre enviar algo ao seu médico e o abuso sexual infantil real.”

Embora esse tipo de tecnologia seja implantado para proteger as crianças da exploração, os críticos temem que o custo dessa proteção – vigilância em massa e varredura de dados pessoais – seja muito alto. A Apple planejava lançar sua própria tecnologia de detecção de CSAM chamada NeuralHash no ano passado, mas o produto foi descartado depois que especialistas em segurança e defensores da privacidade apontaram que a tecnologia poderia ser facilmente abusada pelas autoridades governamentais.

“Sistemas como esse podem relatar minorias vulneráveis, incluindo pais LGBT em locais onde a polícia e os membros da comunidade não são amigáveis ​​com eles”, escreveu Joe Mullin, analista de políticas da Electronic Frontier Foundation, em um post no blog. “O sistema do Google pode denunciar erroneamente os pais às autoridades em países autocráticos ou locais com polícia corrupta, onde os pais acusados ​​erroneamente não podem ter a garantia do devido processo legal.”

Isso não significa que as plataformas sociais não possam fazer mais para proteger as crianças da exploração. Até fevereiro, o Twitter não tinha como os usuários sinalizarem conteúdo contendo CSAM, o que significa que alguns dos conteúdos mais nocivos do site poderiam permanecer online por longos períodos de tempo após os relatórios dos usuários. No ano passado, duas pessoas processaram o Twitter por supostamente lucrar com vídeos que foram gravados como adolescentes vítimas de tráfico sexual; o caso está indo para o Tribunal de Apelações do Nono Circuito dos EUA. Nesse caso, os demandantes alegaram que o Twitter não removeu os vídeos quando notificado sobre eles. Os vídeos acumularam mais de 167.000 visualizações.

O Twitter enfrenta um problema difícil: a plataforma é grande o suficiente para detectar todo o CSAM é quase impossível, mas não gera dinheiro suficiente para investir em salvaguardas mais robustas. De acordo com o relatório do The Verge, a potencial aquisição do Twitter por Elon Musk também impactou as prioridades das equipes de saúde e segurança da empresa. Na semana passada, o Twitter supostamente reorganizou sua equipe de saúde para se concentrar na identificação de contas de spam – Musk afirmou ardentemente que o Twitter está mentindo sobre a prevalência de bots na plataforma, citando isso como seu motivo para querer encerrar o acordo de US$ 44 bilhões.

“Tudo o que o Twitter faz de bom ou ruim vai ser pesado agora à luz de ‘Como isso afeta o julgamento? [with Musk]?” disse Verde. “Pode haver bilhões de dólares em jogo.”

O Twitter não respondeu ao pedido de comentário do TechCrunch.

source – techcrunch.com