Topo

A proliferação de deepfakes é apenas uma questão de tempo

Cristina De Luca

14/06/2019 20h15

Novas ferramentas baseadas em Inteligência Artificial são cada vez mais capazes de criar simulações convincentes a partir de mídias autênticas, incluindo sofisticadas manipulações de vídeo chamadas deepfakes. Ontem, a Câmara dos Representantes dos EUA realizou sua primeira audiência dedicada ao assunto. O consenso é o de que a proliferação desenfreada desses falsos vídeos é apenas uma questão de tempo. Portanto, algo precisa ser feito para minimizar  as consequências.

Os congressistas americanos estão convictos de que a capacidade rápida e fácil de forjar mídias falsas poderia tornar as campanhas eleitorais vulneráveis ​​a ataques de agentes estrangeiros e comprometer a confiança dos eleitores. Durante a audiência, membros da Câmara e especialistas presentes discutiram o estado atual da tecnologia, o que os reguladores podem fazer e os possíveis métodos de retaliação contra governos estrangeiros, caso usem deepfakes para ameaçar a segurança nacional ou atrapalhar as eleições americanas de 2020.

A tecnologia
A audiência deixou claro que a tecnologia avançou em ritmo acelerado e a quantidade de dados necessária para falsificar um vídeo caiu drasticamente, reduzindo as barreiras para produção. As habilidades necessárias para a produção são cada vez menores, e as falhas e pixelização, que tornam a falsificação óbvia, cada vez mais imperceptíveis.

Em linhas gerais, estamos passando rapidamente da fase da síntese manual de imagens (mais consistente, mas demorada e especializada) para a fase da síntese automática de imagens (ainda áspera, mas muito mais rápida e não exigindo habilidades especializadas). Isso é facilitado pela quantidade de mídia criada através das mídias sociais, que fornece mais dados de treinamento para aprimorar ferramentas de deepfake mais acessíveis.

Há duas semanas, a Samsung demonstrou ser possível criar um vídeo inteiro a partir de uma única foto. E esta semana, pesquisadores da Universidade de Stanford, do Max Planck Institute for Informatics, da Universidade de Princeton e da Adobe Research demonstraram uma nova ferramenta que permite aos usuários editar as palavras de alguém, digitando o que eles querem que o sujeito diga.

Mas se  a produção está ficando mais simples, o mesmo não se pode dizer das ferramentas para detecção de deepfakes. Um relatório da organização sem fins lucrativos Witness, divulgado esta semana, revela um descompasso entre a natureza real da manipulação da mídia e as ferramentas disponíveis para combatê-la. Além de caras, elas são difíceis de serem usadas por leigos.

Uma pesquisa da DARPA divulgada esta semana ilustra muito bem essa questão. Os pesquisadores criaram um modelo de como os líderes mundiais falam, naturalmente, com base em características faciais como rugas no nariz, aperto nos lábios e a inclinação da cabeça. Esse modelo serviu como uma espécie de impressão digital de como cada um deles fala. Essas sutilezas são muito difíceis de replicar até mesmo pelo melhor imitador. Assim, os pesquisadores podem aplicar essa impressão digital desenvolvida para distinguir entre vídeos reais e falsos.

"Embora não sejam visualmente aparentes, essas correlações são freqüentemente violadas pela natureza de como os vídeos são criados e podem, portanto, ser usados ​​para autenticação", escreveram eles.

Descobriu-se que esse método de impressão digital é robusto em relação a um modo particular que os criadores de deepfake tentam cobrir seus rastros: a compactação.  Mas, além de não ser infalível (foi menos confiável quando a pessoa de interesse no vídeo está constantemente desviando o olhar da câmera, em vez de abordá-la diretamente), o método  ainda é muito caro e hermético. 

É preciso acelerar a disponibilidade de ferramentas de detecção.

"Se você está criando uma ferramenta para síntese ou falsificação que é perfeita para o olho humano ou o ouvido humano, você deve criar ferramentas especificamente projetadas para detectar essa falsificação", alertam os especialistas ouvidos pelo relatório da Witness.

"Estamos desarmados", disse Hany Farid, professor de ciência da computação e especialista em forense digital na Universidade da Califórnia, em Berkeley, ao Whashington Post "O número de pessoas trabalhando no lado da vídeo-síntese, em relação aos que trabalham com ferramentas de detecção é de 100 para 1."

Algo precisa ser feito para conseguir que os fabricantes de ferramentas compensem esse desequilíbrio.

O que fazer então?
Um projeto de lei apresentado ontem pela deputada Yvette Clarke (o Deepfakes Accountability Actpode ser a resposta. Ele recomenda que as empresas e os pesquisadores que produzam ferramentas para deepfakes também invistam em antídotos que facilitem a identificação da manipulação, como a inserção de marcas d'água; que as mídias sociais e as empresas de pesquisa invistam e integrem recursos de detecção de manipulação diretamente em suas plataformas; e que os reguladores não se concentrar apenas nos políticos e nas personalidades, mas também considerem as populações vulneráveis ​​e as comunidades internacionais ao elaborarem leis contrárias aos deepfakes.

"Esta questão não afeta apenas os políticos", diz Mutale Nkonde, pesquisador do Data & Society Research Institute e consultor do projeto de lei. "É muito provável que vídeos deepfake sejam implantados contra mulheres, minorias, pessoas da comunidade LGBT, pessoas pobres. E essas pessoas não terão recursos para lutar contra os riscos de reputação", disse ele.

O relatório da Witness também recomenda que as empresas de mídia social e de busca façam um esforço maior para integrar os recursos de detecção de manipulação em suas plataformas. O Facebook poderia investir na detecção de técnicas de edição desonestos, por exemplo. E rotular claramente vídeos e imagens nos feeds de notícias dos usuários quando forem editados de maneiras invisíveis ao olho humano. O Google, por sua vez, poderia investir em pesquisa de vídeo reversa para ajudar jornalistas e espectadores a identificar rapidamente a fonte original de um clipe.

Apesar do estreito alinhamento do relatório com o projeto de lei, especialistas ouvidos pelo MIT Technology Review advertem que o Congresso dos EUA deve pensar duas vezes antes de aprovar leis sobre deepfakes em breve. "É cedo para regulamentar os deepfakes e a mídia sintética", disse Sam Gregory, diretor da Witness, embora faça exceções para aplicações muito restritas, como o uso delas para produzir imagens sexuais não-consensuais.

"Não acho que já tenhamos algum consenso de como as sociedades e plataformas vão lidar com os deepfakes e a mídia sintética para estabelecer os regulamentos", acrescentou Gregory.

De fato, não há uma "bala de prata" para derrotar os vídeos deepfake e impedir que viralizem. Para Danielle Citron, professora de Direito da Universidade de Maryland, será necessário uma combinação de "lei, mercados e resiliência social".

É bom que se diga que esta não é a primeira vez que os políticos norte-americanos tentam agir sobre esse assunto. Em dezembro de 2018, o senador Ben Sasse apresentou um projeto de lei para tentar proibir deepfakes. O senador Marco Rubio também vinha alertando repetidamente sobre a tecnologia nos últimos anos. Mas é a primeira vez que vemos um esforço tão concentrado dos legisladores norte-americanos a respeito.

Nkonde alertou que o objetivo da apresentação do novo projeto de lei não é passá-lo como está, mas provocar o debate. Segundo ele, pretende-se desencadear uma conversa mais sutil sobre como lidar com a questão na lei, propondo recomendações específicas que possam ser criticadas e refinadas. "O que estamos realmente procurando fazer é registrar no congresso que a ideia de manipulação audiovisual é inaceitável", completou.

OK. O debate está apenas começando…

Comunicar erro

Comunique à Redação erros de português, de informação ou técnicos encontrados nesta página:

A proliferação de deepfakes é apenas uma questão de tempo - UOL

Obs: Link e título da página são enviados automaticamente ao UOL

Ao prosseguir você concorda com nossa Política de Privacidade

Sobre a autora

Cristina De Luca é jornalista especializada em ambiente de produção multiplataforma. É diretora da ION 89, startup de mídia com foco em transformação digital e disrupção. Foi diretora da área de conteúdo do portal Terra; editora-executiva da área de conteúdo da Globo.com; e editora-executiva da unidade de Novos Meios da Infoglobo, responsável pela criação e implantação do Globo Online. Foi colunista de tecnologia da Rádio CBN e editor-at-large das publicações do grupo IDG no Brasil. Master em Marketing pela PUC do Rio de Janeiro, é ganhadora do Prêmio Comunique-se em 2005, 2010 e 2014 na categoria Jornalista de Tecnologia.

Sobre o blog

Este blog, cujo nome faz referência à porta do protocolo Telnet, que é o protocolo de comunicação por texto sem criptografia, traz as informações mais relevantes sobre a economia digital.