Sempre que uma empresa divulga um relatório no período entre o Natal e o Ano Novo, quando a tração da mensagem é especialmente baixa, ele será recebido com certo ceticismo por parte da imprensa.
Como é o caso esta semana, com A última atualização de desempenho do X. Em meio a preocupações contínuas sobre a abordagem revisada de moderação de conteúdo da plataforma, que tem visto postagens mais ofensivas e prejudiciais permanecer ativo no aplicativolevando mais parceiros publicitários a interromperem as suas campanhas X, a empresa procura agora clarificar os seus esforços numa área-chave, que o próprio Elon Musk tornou uma prioridade.
A última atualização do X concentra-se em seus esforços para erradicar material de abuso sexual infantil (CSSOU), que afirma ter reduzido significativamente através de processos melhorados nos últimos 18 meses. Relatórios de terceiros contradizem isso, mas em números brutos, X aparentemente está fazendo muito mais para detectar e abordar CSAM.
Embora os detalhes aqui sejam relevantes.
Em primeiro lugar, X diz que está suspendendo muito mais contas por violarem suas regras de CSAM.
Conforme X:
“De janeiro a novembro de 2023, X suspendeu permanentemente mais de 11 milhões de contas por violações de nossas políticas CSE. Para referência, em todo o ano de 2022, o Twitter suspendeu 2,3 milhões de contas.”
Portanto, X está acionando mais violações, embora isso também inclua suspensões e respostas injustas. O que ainda é melhor do que fazer menos, mas isto, por si só, pode não ser um grande reflexo de melhoria nesta frente.
X também diz que está relatando muito mais incidentes de CSAM:
“No primeiro semestre de 2023, X enviou um total de 430.000 relatórios ao NCMEC CyberTipline. Em todo o ano de 2022, o Twitter enviou mais de 98.000 relatórios.”
O que também é impressionante, mas, novamente, o X agora também está empregando relatórios NCMEC “totalmente automatizados”, o que significa que cada postagem detectada não está mais sujeita a revisão manual. Portanto, muito mais conteúdo está sendo relatado posteriormente.
Novamente, você presumiria que isso leva a um resultado melhor, já que mais relatórios deveriam equivaler a menos risco. Mas este número também não é inteiramente indicativo de eficácia sem dados do NCMEC que confirmem a validade de tais relatórios. Portanto, os números de seus relatórios estão aumentando, mas não há muitos insights sobre a eficácia mais ampla de suas abordagens.
Por exemplo, X, a certa altura, também afirmou ter praticamente eliminou o CSAM durante a noite bloqueando o uso de hashtags identificadas.
Provavelmente é a isso que X está se referindo aqui:
“Não só estamos detectando mais atores mal-intencionados com mais rapidez, como também estamos construindo novas defesas que reduzem proativamente a descoberta de postagens que contenham esse tipo de conteúdo. Uma dessas medidas que implementámos recentemente reduziu o número de pesquisas bem-sucedidas de padrões conhecidos de material de abuso sexual infantil (CSAM) em mais de 99% desde dezembro de 2022.”
Isso pode ser verdade para as tags identificadas, mas os especialistas afirmam que assim que X colocou certas tags na lista negra, os vendedores de CSAM simplesmente mudaram para outras, portanto, embora a atividade em certas pesquisas possa ter diminuído, é difícil dizer que isso também foi altamente efetivo.
Mas os números parecem bons, certo? Certamente parece que mais está sendo feito e que o CSAM está sendo limitado no aplicativo. Mas sem uma pesquisa definitiva e ampliada, não temos certeza.
E, conforme observado, os insights de terceiros sugerem que o CSAM se tornou mais amplamente acessível no aplicativo sob as novas regras e processos do X. Em fevereiro, O New York Times conduziu um estudo para descobrir a taxa de acessibilidade do CSAM no aplicativo. Ele descobriu que o conteúdo era fácil de encontrar, que X era mais lento para gerar relatórios desse tipo do que o Twitter no passado (deixando-o ativo no aplicativo por mais tempo), enquanto X também não conseguia relatar adequadamente os dados de instâncias de CSAM às agências relevantes. (uma das agências em questão notou desde então que X melhorou, em grande parte devido aos relatórios automatizados). Outro relatório de NBC encontrou o mesmo, que apesar das proclamações de Musk de que ele estava tornando a detecção de CSAM uma prioridade fundamental, grande parte da ação de X foi pouco mais do que o nível superficial e não teve nenhum efeito real. O facto de Musk também ter cortou a maior parte da equipe que era responsável por este elemento também potencialmente exacerbou o problema, em vez de melhorá-lo.
Para piorar ainda mais as coisas, X recentemente restabeleceu a conta de um proeminente influenciador de direita que já havia sido banido por compartilhar conteúdo CSAM.
No entanto, ao mesmo tempo, Elon and Co. estão a promover a sua ação para abordar o CSAM como uma resposta fundamental às marcas que retiram os seus gastos com publicidade X, uma vez que os seus números, pelo menos na sua opinião, mostram que tais preocupações são inválidas, porque é , na verdade, fazendo mais para abordar esse elemento. Mas a maioria dessas preocupações diz respeito mais especificamente às postagens e comentários do próprio Musk, e não especificamente ao CSAM.
Como tal, é um relatório estranho, partilhado em momentos estranhos, que aparentemente destaca o esforço de expansão de X, mas não aborda realmente todas as preocupações relacionadas.
E quando você também considera que a X Corp está ativamente lutando para bloquear uma nova lei na Califórnia que exigiria que as empresas de mídia social revelassem publicamente como realizam a moderação de conteúdo em suas plataformas, a lista completa de informações não parece fazer sentido.
Essencialmente, X está dizendo que está fazendo mais e que seus números refletem isso. Mas isso não demonstra definitivamente que X está fazendo um trabalho melhor ao limitar a disseminação do CSAM.
Mas, teoricamente, deveria limitar o fluxo de CSAM no aplicativo, realizando mais ações, automatizadas ou não, em mais postagens.
Os dados certamente sugerem que X está a fazer um esforço maior nesta frente, mas a eficácia permanece em questão.
source – www.socialmediatoday.com