Um Zelensky Deepfake foi rapidamente derrotado. O próximo pode não ser

O falso vídeo estava em várias plataformas e foi retirado do ar

A resposta a um vídeo representando o presidente ucraniano fornece um plano de como impedir tentativas mais sofisticadas.

Em 2 de março, o Centro de Comunicação Estratégica do governo ucraniano alertou que seus inimigos poderiam estar preparando um vídeo “deepfake” que parecia mostrar o presidente Volodymyr Zelensky anunciando sua rendição à invasão da Rússia. Na quarta-feira, esse aviso parecia presciente.

Um vídeo falso surgiu no Facebook e no YouTube, no qual uma versão estranhamente imóvel de Zelensky pedia às tropas ucranianas para deporem suas armas em uma voz diferente de seu tom habitual. O clipe também foi postado no Telegram e na rede social russa VKontakte, de acordo com o think tank americano Atlantic Council. O canal de TV Ukraine 24 disse que hackers desfiguraram seu site com uma foto do vídeo e inseriram um resumo das notícias falsas no chyron de rolagem de uma transmissão.

Minutos depois que a emissora de TV postou sobre o hack, o próprio Zelensky postou um vídeo no Facebook negando que ele havia pedido aos ucranianos para depor as armas e chamando a falsificação de uma provocação infantil. Nathaniel Gleicher, chefe de política de segurança da Meta, proprietária do Facebook, twittou que a empresa havia removido o vídeo deepfake original por violar sua política contra mídia manipulada enganosa. Um comunicado fornecido pelo porta-voz do Twitter, Trenton Kennedy, disse que a empresa estava rastreando o vídeo e removendo-o nos casos em que violava as regras que proíbem a mídia sintética enganosa. O porta-voz do YouTube, Ivy Choi, disse que também removeu os uploads do vídeo.

Essa saga de curta duração pode ser o primeiro uso armado de deepfakes durante um conflito armado, embora não esteja claro quem criou e distribuiu o vídeo e com qual motivo. A maneira como a falsificação foi revelada tão rapidamente mostra como os deepfakes maliciosos podem ser derrotados – pelo menos quando as condições estiverem corretas.

Um deepfake do presidente ucraniano Volodymyr Zelensky pedindo a seus soldados que deponham suas armas foi supostamente carregado em um site de notícias ucraniano hackeado

O verdadeiro Zelensky se beneficiou na quarta-feira por fazer parte de um governo que se preparou para ataques deepfake. Sua resposta rápida com um vídeo desmentindo, e a reação ágil da Ucrânia 24 e das plataformas sociais, ajudaram a limitar o tempo que o clipe poderia se espalhar sem contestação.

Essas são estratégias de livros didáticos para se defender contra uma ameaça tão nova quanto as deepfakes políticas. A preparação e a resposta rápida estavam no centro de um manual para derrotar deepfakes que o Carnegie Endowment for International Peace divulgou para campanhas políticas antes das eleições presidenciais de 2020 nos EUA.

Zelensky também se beneficiou de sua posição como uma das pessoas mais importantes do mundo e da má qualidade do deepfake. O dublê presidencial deepfake parecia antinatural, com um rosto que não combinava com seu corpo e sua voz soava diferente da de seu alvo.

Outros conflitos e líderes políticos podem ser menos afortunados e mais vulneráveis a interrupções por deepfakes, diz Sam Gregory, que trabalha na política de deepfakes na organização sem fins lucrativos Witness.

O alto perfil de Zelensky ajudou o aviso de deepfake da Ucrânia há duas semanas a ganhar cobertura de notícias internacionais, e também ajudou sua resposta rápida na quarta-feira a se espalhar rapidamente. Sua proeminência também pode ter levado a uma resposta rápida ao vídeo por parte das empresas de redes sociais. O porta-voz da Meta, Aaron Simpson, se recusou a dizer como detectou o vídeo; o mesmo aconteceu com Choi do YouTube. A declaração fornecida por Kennedy, do Twitter, creditou “reportagens investigativas externas” não especificadas.

Nem todas as pessoas visadas por deepfakes serão capazes de reagir com tanta agilidade quanto Zelensky – ou achar seu repúdio tão amplamente confiável. “A Ucrânia estava bem posicionada para fazer isso”, diz Gregory. “Isso é muito diferente de outros casos, onde mesmo um deepfake mal feito pode criar incerteza sobre a autenticidade.”

Gregory aponta para um vídeo que apareceu em Mianmar no ano passado, que parecia mostrar um ex-ministro do governo detido dizendo que forneceu dinheiro e ouro à ex-líder do país Aung San Suu Kyi.

O governo militar que deslocou Aung San Suu Kyi em um golpe usou essa filmagem para acusá-la de corrupção. Mas no vídeo o rosto e a voz do ex-ministro estavam distorcidos, fazendo com que muitos jornalistas e cidadãos sugerissem que o clipe era falso.

A análise técnica não resolveu o mistério, em parte porque o vídeo é de baixa qualidade e porque o ex-ministro e outros familiarizados com a verdade não falam tão livremente ou para um público tão grande quanto Zelensky poderia na quarta-feira. Embora os detectores automáticos de deepfake possam um dia ajudar a combater os maus atores, eles ainda são um trabalho em andamento.

Deepfakes ainda são geralmente usados mais para excitação ou assédio do que para grande decepção, especialmente porque se tornam mais fáceis de criar. Uma deepfake do presidente russo Vladimir Putin também circulou no Twitter esta semana, embora tenha sido identificada como inautêntica desde o início. O deepfake de Zelensky e os hacks que o acompanham, no entanto, podem representar uma nova fronteira preocupante. A resposta rápida e bem-sucedida ao clipe destaca como, com alguns ajustes e melhor timing, um ataque deepfake pode ser uma arma política eficaz.

“Se este fosse um vídeo mais profissional e tivesse sido lançado no início de um avanço russo mais bem-sucedido em Kiev, poderia ter criado muita confusão”, diz Samuel Bendett, que acompanha a tecnologia de defesa russa na CNA, organização sem fins lucrativos. À medida que a tecnologia deepfake continua a ficar mais fácil de acessar e mais convincente, é improvável que Zelensky seja o último líder político alvo de vídeos falsos.


Publicado em 18/03/2022 17h34

Artigo original: