IPCA
0.13 Mai.2019
Topo
Blog Porta 23

Blog Porta 23

Na era digital uma coisa é a verdade e outra é no que você acredita

Cristina De Luca

2017-02-20T19:08:34

17/02/2019 08h34

E entre os dois extremos – a verdade e a crença – há um mar de novas técnicas de produção de conteúdos capazes de manipulá-los….

Em 2011, um professor universitário com formação em robótica apresentou uma ideia que parecia radical na época. Robert Finkelstein propôs a criação de um novo braço das forças armadas dos EUA, um "Centro de Controle de Memes". Em 2011, a DARPA criava o SMISC, Social Media in Strategic Communications. Na época, deve ter parecido um pouco risível – o Instagram tinha apenas cinco milhões de usuários. A ideia de "influenciadores" de mídias sociais era nascente. E Facebook ainda não havia ultrapassado o Orkut e se transformado na maior rede social do Brasil.

A SMISC tinha quatro objetivos:
"1. Detectar, classificar, medir e rastrear (a) formação, desenvolvimento e disseminação de ideias e conceitos (memes), e (b) mensagens e desinformação intencionais ou enganosas.
2. Reconhecer as estruturas de campanha de persuasão e influenciar as operações em sites e comunidades de mídia social.
3. Identificar os participantes e a intenção e meça os efeitos das campanhas de persuasão.
4. Atuar no contra-ponto de operações de influência adversárias detectadas. Contra-atacar com a sua versão"

Em resumo, Finkelstein previu um futuro no qual armas e bombas seriam substituídas por rumores, falsificações digitais e engenharia social.

O futuro chegou. Sua materialização mais recente são os deepfakes, vídeos manipulados hiper-realísticos feitos usando tecnologia de Inteligência Artificial, fazendo com que uma pessoa pareça dizer ou fazer algo que nunca chegou a dizer ou fazer. E a DARPA financia hoje uma das poucas iniciativas que trabalham em antídotos para os deepfakes.

Esse tipo de conteúdo viral tem o potencial de levar a guerra da desinformação a um nível totalmente novo. Um número crescente de legisladores está alertando que uma forma de manipulação de vídeo pode ser o próximo estágio da guerra contra a desinformação antes da eleição presidencial dos EUA em 2020.

Não é preciso ter uma imaginação fértil para imaginar maneiras pelas quais vídeos falsos e convincentes possam ser usados ​​para causar estragos, não apenas em indivíduos (sejam eles personalidades ou não), mas em sociedades inteiras.

Deepfakes são assustadores porque permitem que a imagem de qualquer pessoa seja cooptada e colocam em questão nossa capacidade de confiar no que vemos. A grande maioria deles é criada para fins mais nefastos. Têm o potencial de arruinar relacionamentos, reputações e nossa realidade online. Um uso óbvio é implicar falsamente pessoas em escândalos. Não por acaso, seu uso mais comum atualmente é, de longe, colocar os rostos das celebridades populares em pornstars.
Mesmo que a gravação incriminadora seja posteriormente comprovada como falsa, os danos à reputação da vítima podem ser impossíveis de reparar.

Semanas atrás, a CNN Business lançou um projeto interativo especial, "Por dentro da corrida do Pentágono contra vídeos deepfake", explorando o escrutínio do Pentágono dos perigos que tais vídeos poderiam representar. Os produtores da CNN Digital e o repórter da CNN Business, Donie O'Sullivan, obtiveram acesso ao programa financiado pelo Departamento de Defesa, através da DARPA, que está em uma corrida para parar os deepfakes.

Não há tempo para esperar por uma solução.  É preciso desenvolver novas tecnologias e técnicas para combater a desinformação. Para começar, precisamos de uma maneira escalável de identificar vídeos falsos de alta qualidade. E é aí que entra o Blockchain. Ele já começa a ser apontado como ideal para a comprovação da veracidade dos vídeos disponíveis na Internet e nas plataformas digitais. De acordo com a Wired, pelo menos uma empresa está testando a proposta.

"Chamada de Amber Authenticate, a ferramenta destina-se a ser executada em segundo plano em um dispositivo enquanto captura o vídeo. Em intervalos regulares e determinados pelo usuário, a plataforma gera "hashes" – representações criptograficamente distorcidas dos dados – que depois são gravadas em um Blockchain público. Se você executar o mesmo snippet de vídeo através do algoritmo novamente, os hashes serão diferentes se alguma coisa tiver mudado nos dados de áudio ou vídeo do arquivo – o que o levará a um alerta de possível manipulação."

Imagine um mundo onde a autenticação de vídeo em Blockchain seja incorporada em todos os navegadores e smartphones, e onde qualquer vídeo que tenha sido manipulado de alguma forma gere instantaneamente um aviso de que aquele vídeo pode ter sido manipulado posteriormente às sua captação?

As técnicas criptográficas que sustentam a tecnologia por trás do Blockchain também podem ajudar a garantir que o conteúdo digital venha de uma fonte confiável e responsável. Essencialmente, a mídia poderia ser carimbada com um identificador criptográfico exclusivo, que – quando cruzado com registros em um Blockchain – poderia provar, sem sombra de dúvida, onde a mídia se originou.

Além disso, a Anistia Internacional entrou na luta contra os deepfakes, para comprovar evidências de violação de direitos humanos em vídeos enviados para a instituição.  O Citizen Evidence Lab, da Amnestia, é especializado em descobrir o contexto por trás de imagens e vídeos. O laboratório está desenvolvendo conhecimento e tecnologia para autenticar quando, onde e até mesmo como um vídeo foi capturado.

Por exemplo, o laboratório usa o Google Earth e o mecanismo de busca Wolfram Alpha fazem referência cruzada a ambientes e condições climáticas em vídeos, para ver se o vídeo foi capturado sob as condições que aparenta.

O laboratório Citizen Evidence também possui uma ferramenta chamada YouTube Data Viewer, que extrai metadados ocultos de vídeos hospedados no YouTube. A maior parte do trabalho está centrada na identificação de vídeos antigos ou falsificados que os usuários tentam transmitir como abusos atuais dos direitos humanos.

No ano passado foi a vez de pesquisadores do MIT demonstrarem a tecnologia Eulerian Video Magnification, que pode ajudar a identificar pessoas geradas por IA em vídeos. Essa tecnologia de ampliação de vídeo pode identificar pessoas reais e aquelas geradas por IA, detectando detalhes minuciosos, como a frequência cardíaca de uma pessoa, observando mudanças sutis na cor da pele devido ao fluxo sanguíneo. Ao detectar a ausência de fluxo sangíneo no rosto, a tecnologia pode detectar imagens geradas por computador: a IA ainda não é boa o suficiente para criar esse nível de realismo em um vídeo falso. A pesquisa foi um primeiro passo na luta para distinguir imagens de pessoas reais de fantasmas digitais.

Recentemente, a DARPA lançou pelo menos duas chamadas de pesquisa para construir um sistema de autenticação de mídia digital escalável. O projeto Media Forensics (MediFor) é uma tentativa de construir uma plataforma para detectar algoritmos em imagens e vídeos. A MediFor poderia, um dia, quem sabe, levar à criação de uma plataforma de crowdsourcing onde os espectadores podem investigar coletivamente a autenticidade dos vídeos.

O MEMEX, também da DARPA, é outro projeto que poderia ajudar a construir um enorme mecanismo de busca on-line capaz de cruzar dados de imagens de toda a Internet, incluindo a Deep Web. Desenvolvido pela Universidade de Columbia e financiado pelo MEMEX, demonstra a capacidade de encontrar imagens semelhantes de vítimas de tráfico humano entre terabytes de dados estruturados e não estruturados. Esse trabalho poderia ajudar a descobrir aspectos de imagens e vídeos gerados por IAs originados de outras fontes.

Moral da história: o digital mudou nossa relação com a verdade, nos levando a estabelecer novas relações de confiança e a acreditar mais nas pessoas e menos nas instituições como a própria mídia. As chamadas notícias falsas já aumentaram o ceticismo de muitas pessoas em relação a políticos, jornalistas e outras figuras públicas. E está se tornando tão fácil criar cenários totalmente fictícios que não podemos mais confiar em nenhuma gravação de vídeo pelo valor de face.

"Com os deepfakes em circulação as pessoas podem escolher acreditar em qualquer versão ou narrativa que quiserem, e isso é uma preocupação real", diz Danielle Citron, professora da Chesney and University of Maryland.

Será que poderemos realmente nos defender de sermos manipulados por algoritmos nas mídias sociais?

A tecnologia usada pelo deepfake é na verdade muito mais presente do que parece. Aplicativos como o Snapchat ou o Instagram vêm experimentando esse tipo de ferramenta há anos e embora o resultado esteja longe de confundir ficção com realidade, a verdade é que ao mesmo tempo que técnicas são desenvolvidas para falsear a realidade, outras são desenvolvidas para detectá-la, inclusive no mundo forense. A FaceForensic, aí do vídeo, é uma delas…

Há quem sustente que o futuro do combate à desinformação é incerto, mas promissor. No que diz respeito aos deepfakes, a poderosa DARPA, corporações, startups, organizações sem fins lucrativos e universidades parecem estar progredindo. Podemos confiar?

No entretenimento…
Enquanto antídotos são criados,vamos sendo convidados a nos encantarmos com as possibilidades fascinantes do uso dos deepfakes no entretenimento. No fim de janeiro, um desses vídeos  falsos_ o que colocou o rosto do ator Steve Buscemi no corpo de Jennifer Lawrence _ atingiu 2.85 milhões de visualizações em dois dias. Quem viu teve uma demonstração perfeita de quão horrivelmente precisa a tecnologia se tornou.

E novas possibilidades vão surgindo… A mais recente delas atende por Deep Fictions  e usa a IA ( mais especificamente as redes neurais e o processamento de linguagens naturais) para gerar retratos de personagens de romances famosos baseados em suas descrições textuais.  "Através desta pesquisa, eu quis explorar se é possível diversificar conjuntos de dados homogêneos através de algoritmos geradores de redes neurais, e examinar como tais algoritmos podem refletir sobre nossas próprias imaginações de personagens da cultura popular", explica o autor em um texto publicado no Medium

Este projeto exigiu dois tipos de conjuntos de dados: o texto de romances e uma grande coleção de imagens faciais marcadas. Para os dados do texto, Justin Blinder usou livros de domínio público disponíveis no Project Gutenberg. Já os dados faciais foram implementados através do conjunto de dado da CelebA, que contém mais de 200 mil imagens de faces de celebridades, cada uma marcada com 40 atributos binários. E usou duas técnicas relativamente conhecidas a Word2Vec e  a Generative Adversarial Networks (GANs). Word2Vec é um processo que pode identificar palavras que são contextualmente semelhantes em um grande corpus de texto. E um GAN é um algoritmo composto de duas redes neurais envolvidas em uma guerra perpétua de atrito: um gerador e um discriminador. Para esse caso, podemos pensar no gerador como um falsificador de arte e o discriminador como historiador da arte.

Blinder descreve cada etapa no seu texto, que termina com uma reflexão. No fundo, o Deep Fictions especula se nossas imaginações preconceituosas podem ser modeladas e explora os possíveis pontos cegos que esse processo pode ajudar a revelar.

Já pensou em algo assim caindo em mãos com intenções menos nobres? E combinada com o sistema da OpenAI, o grupo de pesquisa em inteligência artificial cofundado pelo bilionário Elon Musk, capaz de produzir notícias falsas que parecem autênticas após receber apenas algumas informações?

Como precaução, a OpenAI decidiu não publicar, nem disponibilizar as versões mais sofisticadas de seu software, diz a Bloomberg. A empresa, no entanto, criou uma ferramenta que permite que autoridades, jornalistas, escritores e artistas façam experiências com o algoritmo para ver que tipo de texto ele é capaz de gerar e que outros tipos de tarefa pode executar….

Sobre a autora

Cristina De Luca é jornalista especializada em ambiente de produção multiplataforma. É diretora da ION 89, startup de mídia com foco em transformação digital e disrupção. Foi diretora da área de conteúdo do portal Terra; editora-executiva da área de conteúdo da Globo.com; e editora-executiva da unidade de Novos Meios da Infoglobo, responsável pela criação e implantação do Globo Online. Foi colunista de tecnologia da Rádio CBN e editor-at-large das publicações do grupo IDG no Brasil. Master em Marketing pela PUC do Rio de Janeiro, é ganhadora do Prêmio Comunique-se em 2005, 2010 e 2014 na categoria Jornalista de Tecnologia.

Sobre o blog

Este blog, cujo nome faz referência à porta do protocolo Telnet, que é o protocolo de comunicação por texto sem criptografia, traz as informações mais relevantes sobre a economia digital.