Houveram 10 milhões de visualizações de material de exploração sexual infantil no ‘Twitter antigo’

David Paul Morris/Bloomberg via Getty Images

Um analista independente de dados de segurança cibernética que trabalha ao lado de altos funcionários do Twitter descobriu que contas postando conteúdo que supostamente exploravam crianças sexualmente obtiveram mais de dez milhões de visualizações na plataforma sob propriedade anterior.

Andrea Stroppa, fundadora do grupo de segurança cibernética Ghost Data, financiou pessoalmente uma pesquisa no verão passado que resultou na erradicação de mais de 500 contas que solicitavam material de abuso sexual infantil (CSAM), o que levou aproximadamente 30 grandes anunciantes a retirar ou pausar seus serviços de anúncios em seu Twitter contas.

Um novo relatório do analista de dados divulgado na sexta-feira descobriu que mais de 95% das várias contas ativas explorando CSAM, que supostamente incluíam vídeos de crianças e adolescentes envolvidos em atividades sexuais, “agiram impunemente por anos”.

I. Como o antigo Twitter falhou na luta contra o conteúdo de exploração sexual infantil (suspiro) e mais


“Quanto mais trabalhamos com material de abuso sexual infantil no Twitter, mais encontramos o INFERNO deixado pela antiga administração do Twitter”, escreveu Stroppa em um tópico no Twitter.

Stroppa disse que essas contas foram retiradas do ar.

O alegado problema de CSAM do Twitter foi documentado por mais de uma década.

No verão passado, o Twitter afirmou que a empresa luta agressivamente contra o abuso sexual infantil online; no entanto, um relatório do Twitter Red Team de um projeto de monetização de conteúdo adulto descobriu que, embora a plataforma tenha investido em tecnologias para detectar e gerenciar o problema, “o crescimento não aconteceu”.

“O Twitter não pode detectar com precisão a exploração sexual infantil e a nudez não consensual em grande escala”, concluiu o Red Team em abril de 2022, de acordo com o The Verge.

No ano passado, 86.666 relatórios CSAM no Twitter foram feitos para o Centro Nacional para Crianças Desaparecidas e Exploradas, que desempenha um papel fundamental depois que sites da Internet – como o Twitter – removem o material. Quando o CSAM é detectado e removido, o relatório vai para o centro, que entra em contato com a polícia para ações adicionais.

O Twitter também enfrenta dois processos significativos envolvendo dois sobreviventes menores supostamente explorados nessa plataforma. Em um caso, um vídeo obteve mais de 160.000 visualizações e mais de 2.000 retuítes. No entanto, o Twitter supostamente se recusou a remover o conteúdo, apesar do menor sobrevivente solicitar sua remoção enquanto estava à beira do suicídio.

“Descobri que o Twitter antigo, em muitos casos relacionados a material de abuso sexual infantil publicado na plataforma por usuários mal-intencionados, em vez de suspender a conta inteira, apenas removeu o tweet”, disse Stroppa. “Agora o Twitter, sob a liderança de Elon Musk, suspende diretamente as contas.”

Para contextualizar, um relatório anterior mostrou que a plataforma removeu até 57.000 perfis em um mês antes da aquisição de Musk, em comparação com os 44.000 removidos em um único dia.

O próprio Twitter informou na semana passada que a empresa suspendeu 57% das contas que criam, distribuem ou se envolvem com material de exploração sexual infantil, que a plataforma disse ser “significativamente mais do que em qualquer outro mês no acumulado do ano”.

Estamos aprimorando nossos métodos de detecção e fiscalização e expandindo nossas parcerias com organizações que ajudam a prevenir o tráfico de material CSE. Isso resultou em 57% mais suspensões de CSE em novembro, o que é significativamente mais do que em qualquer outro mês no acumulado do ano.

Estamos aprimorando nossos métodos de detecção e fiscalização e expandindo nossas parcerias com organizações que ajudam a prevenir o tráfico de material CSE. Isso resultou em 57% mais suspensões de CSE em novembro, o que é significativamente mais do que em qualquer outro mês não acumulado do ano.

Não não é.

Quando Ella Irwin, que agora dirige a Trust & Safety, entrou no Twitter no início deste ano, quase ninguém estava trabalhando na segurança infantil.

Ela levantou isso com Ned & Parag, mas eles rejeitaram seu pedido de pessoal.

Eu tornei isso prioridade máxima imediatamente.

@ellagirwin


A nova chefe de Trust & Safety de Musk, Ella Irwin, respondeu a Dorsey: “Gostaria que isso fosse falso, mas minha experiência este ano apóia [o que Musk disse]”. Ela então alegou que tentou obter financiamento para substituir funcionários que haviam saído no início deste ano “e foi informado que não”.

Eu gostaria que isso fosse falso, mas minha experiência este ano apóia isso. Lutei muito para conseguir financiamento para substituir as pessoas que trabalhavam nisso que saíram no início de 2022 e me disseram que não. A certa altura, havia 0 engenheiros e muito poucos funcionários trabalhando no CSE e ainda sem financiamento.


Dorsey disse que não sabia “o que aconteceu no ano passado”.

“Mas dizer que não agimos por anos não é verdade”, disse ele.

Não sei o que aconteceu no ano passado. Mas dizer que não agimos por anos não é verdade. Você pode tornar todos os meus e-mails públicos para verificar. A empresa tirou meu acesso ao e-mail ou eu o faria.


Eliza Bleu, uma sobrevivente defensora dos afetados pelo tráfico humano, tem se manifestado contra o CSAM no Twitter logo após ingressar na plataforma em 2019.

Na sexta-feira, Bleu co-organizou um espaço no Twitter com a corretora de ações cripto Tara Bull apresentando uma entrevista em grupo de Musk, Irwin e Stroppa.

Irwin disse que “ficou chocada ao descobrir que havia lacunas em algumas dessas áreas realmente críticas, como, por exemplo, segurança infantil”.

Irwin, que ingressou na empresa em junho, disse que só poderia falar sobre os dados definidos para este ano.

“Não posso falar sobre os últimos cinco anos no Twitter”, disse Irwin. “Então, certamente, várias declarações podem ser verdadeiras aqui. Mas o que eu diria é que, quando entrei no Twitter, fiquei bastante chocado com o tanto de atrito que aconteceu e sem qualquer substituição”.

Os relatórios da mídia legada, no entanto, dizem o contrário, alegando que o Twitter cortou sua equipe de segurança infantil depois que Musk assumiu.

“A realidade é quando você se recusa a contratar funcionários para coisas tão importantes e ainda está trabalhando em outras coisas – como o lançamento de um produto que pode não ser tão crítico – e, enquanto isso, você tem tudo isso acontecendo, ou algum outro programa isso não é nem de longe tão crítico quanto algumas dessas questões, a realidade é que você perdeu de vista as prioridades”, disse Irwin. “Os usuários, a proteção do usuário, mantendo o conteúdo ilegal fora da plataforma devem ser sempre o número um.”

Musk disse durante o espaço que aprender sobre o assunto o “chocou” ao comprar a plataforma.

“Esta é literalmente a principal prioridade em toda a empresa que o Twitter não pode ser usado para exploração infantil”, disse Musk, acrescentando que o problema continua sendo a “prioridade número um” da plataforma.

“Esperamos que vidas sejam salvas e vidas melhoradas”, acrescentou.

Bleu observou no espaço do Twitter sua gratidão pelas mudanças que estão acontecendo no Twitter depois de anos soando o alarme sobre a exploração de crianças na plataforma.

“Eu entendo o que está em jogo”, disse Bleu. “Isto é vida ou morte para sobreviventes menores em todo o mundo – não encaro esta questão de ânimo leve.”

Se você perdeu os Twitter Spaces hoje à noite, pode conferir a gravação!

Tópico: Exploração sexual infantil no Twitter

Apresentando: @elonmusk @ellagirwin @andst7 @TaraBull808 @JohnnaCrider1 @AJAmmirabilis e Me.



[Esse tema já havia sido denunciado em 2021 pelo NYT: https://nypost.com/2021/01/21/twitter-sued-for-allegedly-refusing-to-remove-child-porn/]


Publicado em 14/12/2022 00h27

Artigo original: