Topo

Cristina de Luca

PL de Fake News não ataca a raiz do problema e tem efeitos colaterais ruins

Cristina De Luca

31/05/2020 13h30

Desde a última sexta-feira, 29 de maio, o debate sobre do PL 2.630/2020, de autoria do senador Alessandro Vieira (Cidadania-SE)n_ já batizado por Lei Brasileira de Liberdade, Responsabilidade e Transparência na Internet ou, simplesmente, PL das Fake News _ ganhou as redes sociais e os serviços de mensageria a partir da disseminação uma campanha de mobilização lançada por apoiadores da ideia. Campanha essa que incentivava os usuários a votarem "sim" na consulta pública promovida pelo Portal e-Cidadania, do Senado, com o sim já marcado. Os opositores começaram uma intensa força tarefa de conscientização e informação, para revelar por que é muito importante evitar que o PL seja votado nessa terça, feira, como pretendido.

Em uma decisão rápida, o pleno de conselheiros do Comitê Gestor da Internet, preocupado com as consequências que a rápida tramitação de PL pode trazer para as liberdades na rede, mesmo que com ajustes, enviou ofícios ao Senado pedido a sua retirada da pauta desta semana. E elencou os motivos em uma nota de esclarecimento divulgada em seu site. Entre eles, a importância do aprofundamento dos debates a respeito do gerenciamento e moderação de conteúdos pelos provedores que atuam na Internet; as complexidades conceituais e técnicas envolvidas pelos projetos de lei; e a relevância e as graves consequências que o objeto dos projetos poderá vir a ter para direitos fundamentais, como a liberdade de expressão e a vedação à censura.

A sensação geral é a de que o projeto foi feito às pressas, em um momento péssimo. E será votado à distância, com essa carga toda que ele trás.

Quer entender  o que está em jogo? Então leia até o fim, e confira tudo o que aprendi em duas lives que assisti, uma na sexta à noite, com a presença do próprio senador Alessandro Vieira, duramente cobrado por seus próprios eleitores, e outra com pesquisadores do Intervozes, na tarde de sábado.

Quem é o autor?

Alessandro Vieira é autor da CPI da Toga. Autor do pedidos pedidos de impeachment, no Senado, do presidente do Supremo Tribunal Federal (STF), ministro Dias Toffoli e do ministro Alexandre de Moraes, por conta do inquérito aberto para apuração de fake news, considerado por ele como absolutamente ilegal.

"A investigação de eventuais organizações que trabalham com fake news é importante, tem que acontecer, mas ela tem que acontecer dentro dos critérios legais. Hoje no Brasil a única ferramenta posta de apuração desse tipo de ação de fake news é a CPMI das Fake News. Está tudo funcionando bem por ali."

Vieira também já foi ex-delegado de repressão de crimes cibernéticos.

Qual é o objetivo do projeto?

Nas palavras do próprio autor, combater contas falsas e redes automatizadas de distribuição de conteúdo não identificadas.

"A gente não quer que existam contas falsas, redes de robôs não identificados, para evitar o mau uso das ferramentas. Agora, o cidadão que quiser ter uma opinião, terá a opinião dele preservada. Estamos incluindo uma emenda para deixar absolutamente claro que, com base nessa lei, não se deve fazer nenhuma derrubada de conteúdo. A derrubada pode continuar acontecendo por ordem judicial, pelo já disposto no Marco Civil, na Lei Carolina Dieckmann, e também com base no regimento interno das plataformas", comentou.

Como o PL propõe fazer isso?

É aí que os problemas começam a aparecer. Apesar de esse PL partir de iniciativas diferentes daqueles que em 2018 criminalizavam fake news propondo até 8 anos de prisão para quem compartilhasse notícias falsas, e de fato visar o desmonte das redes de disseminação de informação e garantir transparência para a atuação das plataformas, ele pode acabar gerando uma interferência maior das plataformas nos conteúdos que circulam nelas e causar um cenário de censura em massa de conteúdos em geral.  Um efeito oposto ao pretendido.

Por quê? "Porque o PL coloca nas plataformas a obrigação de monitorar todo o conteúdo que tramita nelas, e a identificar a desinformação e contas que estejam espalhando desinformação, incluindo as contas automatizadas, para derrubá-las. Junto com a derrubada dessas contas vão todos os conteúdos publicados nela. Então, na prática, o PL derruba conteúdos", explica Bia Barbosa, do Intervozes.

Em sua defesa, o senador afirma que a intenção dos autores foi criar camadas de proteção para os usuários e reduzir o poder das plataformas. E exemplifica usando os casos recentes de remoção de conteúdos publicados pelos Presidentes Trump e Bolsonaro.

"O presidente Bolsonaro teve posts identificados como desinformação. Um foi derrubado e outro foi rotulado como tal. Se essa lei estivesse vigente isso não aconteceria assim. Ele teria o direito de defender o ponto de vista dele, apresentar informações complementares, em um processo transparente, auditado. Ao final desse processo, se a plataforma reconhecesse o erro, o presidente poderia ter a reposição da sua postagem e a correção do erro. Como? Todo mundo que recebeu essa informação com rótulo de desinformação tem que receber a mesma postagem informando que a rotulagem foi um equívoco. Para deixar isso mais claro, a gente vai apresentar como emenda de autor um parágrafo que vai deixar absolutamente textual que essa lei não fundamenta nenhuma remoção de conteúdo, de ninguém. Porque não é esse o objetivo", explicou.

"O que as plataformas fazem hoje é a remoção de conteúdo com base no seu termo de uso, aquelas letras miúdas que ninguém lê. Lá diz que elas estão autorizadas a remover um monte de coisas. E ela também pode remover quando a Justiça determina. A gente não cria nenhuma situação de remoção compulsória. Absolutamente nenhuma. Mas a gente faz uma coisa que me parece bastante racional e importante: dá transparência para esse processo e responsabiliza as plataformas", disse.

"O PL exige que as plataformas façam a devida identificação. Eu quero que o usuário final saiba que está conversando com uma máquina. Que ele está consumindo um conteúdo que foi distribuído de forma automatizada, a um custo muito alto. A gente leva transparência para isso aí. O espírito da lei é garantir o direito de a pessoa ter a sua opinião, legitimamente, de manter essa opinião, e se ela for contraditória à opinião de alguém, ser responsabilizada quando isso for julgado no momento oportuno, pelo Judiciário."

Mas, na opinião dos críticos do PL, isso não fica claro no texto. E, na prática, a lei respalda a moderação de conteúdo que as plataformas já fazem hoje, permitindo essa atuação em massa.

"Seu projeto não combate o monopólio. Não combate o autoritarismo. Simplesmente dá amparo legal para que as plataformas façam exatamente o que fazem, sem responder por isso, porque sempre poderão alegar que cumpriram o que está determinado no novo processo, deram o direito ao contraditório e tal, e ainda assim decidiram manter o veto", argumentou o advogado e procurador de Sergipe, José Paulo Leão Veloso, na live com o senador.

O Intervozes também enxerga nos mecanismos propostos um incentivo para que as plataformas, na dúvida e para escaparem das sanções previstas, derrubem conteúdos que pareçam desinformação e fiquem aguardando os recursos. Obrigar às plataformas a moderarem o conteúdo, imputando a elas sanções, isso não só vai levá-las a derrubar conteúdos que firam os seus termos de uso, como também a derrubar uma quantidade de conteúdo muito maior, por precaução.  

Na opinião do coletivo, a defesa pretendida no recurso tem que ser prévia, e não a posteriori. Não se trata de recorrer à derrubada de uma conta ou de um conteúdo. O direito da contestação precisa acontecer antes que a conta seja removida. Para isso o PL precisar melhorar os artigos do capítulo sobre transparência que tratam dos mecanismos para apelação e contestação. Hoje, os mecanismos já oferecidos pelas plataformas para esse fim são difíceis de usar, pouco transparentes e lentos.

A propósito, as sanções previstas no projeto para as plataformas vão desde advertência, com indicação de prazo para adoção de medidas corretivas; multa; suspensão temporária das atividades; a até proibição de exercício das atividades no país.

E como o projeto define o que é desinformação?

 Definir desinformação é um dos grandes desafios. Em muitos casos, a definição de fake news não é objetiva. Requer interpretação. Nenhum país democrático cravou uma definição a respeito em lei. A famosa lei da Alemanha trata de discurso de ódio e conteúdos ilícitos tipificados em outras leis do país, não de desinformação.

Os critérios propostos pelo PL para identificação de Fake News são: conteúdos que, em parte ou no todo, sejam inequivocamente falsos, enganosos, colocados fora de contexto, manipulados, forjados e com potencial de causar danos individuais ou coletivos.

Cabe muita coisa aí, não? Pense bem. Esse texto que você está lendo, por exemplo, está incluindo declarações de um live de mais de 2 horas. Em tese, elas estão fora do contexto em que foram ditas, apesar do meu cuidado de preservar o contexto do assunto. Percebe? É uma conceituação ampla e vaga, ao mesmo tempo.

Os eleitores do senador estão preocupados em saber como se vai objetivar expressões tão vagas. Ele se defende alegando que o contexto sobre o que é desinformação está baseado no que existe de mais moderno no mundo. E cita o código de conduta da União Europeia e  o manuais das próprias plataformas.

"Mas a gente está aceitando contribuições para ajustar definições", disse.

Bom, a contribuição da Intervozes, por exemplo, segue duas premissas para restringir e objetivar o conceito: ser clara e inequivocamente falso ou forjado (manipulado); e (não ou) ter o objetivo de causar dano. A definição precisa ser cumulativa. E a questão da intencionalidade pode ser avaliada a partir da combinação de dois fatores: a recorrência do erro e da manipulação de ferramentas não declaradas para o  impulsionamento do conteúdo.

Isso mostra o tamanho da complexidade da análise do conteúdo para rotulá-lo de desinformação. E é  só um dos motivos pelo quais precisamos de um debate mais profundo e amplo, impossível de ser feito nessa correria de ritos abreviados e remotos por causa da pandemia.

Houve um pacto no Congresso de que as votações que ocorressem nesse momento fossem relacionadas apenas à Covid-19. Por isso, uma das justificativas do PL é coibir toda a desinformação em torno da doença. Acontece que mesmo que aprovada às pressas, a lei terá muito pouca utilidade nesses casos. Na prática ela só entrará em vigor depois de outubro. O que nos leva a a crer que o real motivo da correria na aprovação é a eleição deste ano.  Ora, desinformação em período eleitoral é algo que pode ser tratado pelo Tribunal Superior Eleitoral. Razão pela qual é possível sim ter um tempo maior para debates.

Tem mais: em todos os lugares onde as plataformas foram obrigadas a identificar esse conteúdo, elas recorreram a automação de parte do processo. O próprio senador reconhece isso.

"Hoje, em regra, esse conteúdo é analisado por máquinas. O programador faz seus critérios e filtros, que são aplicados automaticamente. E quando você tenta uma revisão, ela é feita por outra máquina usando os mesmos critérios. A gente está deixando claro que essa segunda análise tem que ser feita por pessoa natural, justamente por conta da subjetividade. Existe um componente subjetivo. E não há lei no mundo que consiga substituir isso", disse.

"Esse processo já está todo nas mãos das plataformas. Mas o Zuckerberg pode moderar conteúdo por um processo regulado e transparente, não pode? No qual o usuário tenha o direito de defesa, de apresentar suas informações e, ao final, ter a reposição o conteúdo e a correção do erro, com a divulgação massiva do alerta de aquela primeira classificação como desinformação estava errada? Então não vejo esse projeto como retrocesso. Vejo como avanço", argumentou o senador.

"Hoje uma empresa privada, com sede no exterior, decide por critérios próprios o que é ou não é verdade, o que pode e o que não pode ser de acesso livre das pessoas. Isso tem que mudar", completou ele.

Como? Fazendo a revisão passar por agentes verificadores independentes.  Mas já não é isso que as plataformas fazem?

E quem serão os verificadores independentes?

Está aí outro tema que  carece de uma análise mais aprofundada no texto do projeto de lei. A definição de verificadores de fatos independentes é bastante vaga.

Que tipo de pessoas ou equipe terá condições de avaliar as circunstâncias da desinformação?  Existirá alguma qualificação especial? Algum impedimento (filiação a um partido político, por exemplo)? Uma identificação das fontes de financiamento dessas empresas?

De fato, não há no PL nenhuma qualificação para o agente verificador. E o senador chegou mesmo a afirmar na live que pode estudar uma regulação para a atividade de checagem.

Opa…

"Estabelecer por lei como iniciativas de checagem devem conduzir seu trabalho e usar suas fontes viola princípios fundamentais da liberdade de imprensa e, no limite, inviabiliza o escrutínio público de autoridades que fazem uso de seus cargos para disseminarem desinformação", argumenta a Aos Fatos, em editorial sobre o PL.

Quais seriam as obrigações legais das plataformas?

Como já vimos, o PL obriga as plataforma a proverem relatórios transparentes; exige a rotulação de bots (aplicações de programa de computador que simulam ações humanas repetidas vezes de forma padrão, robotizada); e o destaque das correções feitas por verificadores de fatos independentes.

"Vamos pedir uma série de dados no relatório. Quem denunciou? Quantas denúncias? Quais os critérios usados para derrubar o conteúdo? Só assim a gente vai conseguir empoderar o cidadão. Não tem nada mais liberal que isso: empoderar o cidadão. Ele está consumindo um serviço que está gerando um lucro enorme para as empresas sem que tenha poder no processo. Então a gente muda esse cenário. Faz uma mudança radical. Que tem um impacto muito grande na realidade", disse o senador.

E como se dará a rotulação de bots?

Eis aí outro problema.

Na opinião do Intervozes, a definição de "contas automatizadas", entendidas como aquelas "geridas por qualquer programa de computador, tecnologia ou tecnologias empregadas para simular, substituir ou facilitar atividades de humanos na distribuição de conteúdo em aplicações de internet", seria mais adequada do que o conceito posto no PL.

E, de fato, facilitaria a identificação de contas criadas especificamente para produzir e amplificar a desinformação.

Na verdade, são quatro as definições que precisam ser revistas, na opinião dos especialistas.

Conta inautêntica: conta criada ou usada com o propósito de disseminar desinformação ou assumir identidade de terceira pessoa para enganar o público;

Disseminadores artificiais: qualquer programa de computador ou tecnologia empregada para simular, substituir ou facilitar atividades de humanos na disseminação de conteúdo em aplicações de internet;

Rede de disseminação artificial: conjunto de disseminadores artificiais cuja atividade é coordenada e articulada por pessoa ou grupo de pessoas, conta individual, governo ou empresa com fim de impactar de forma artificial a distribuição de conteúdo com o objetivo de obter ganhos financeiros e ou políticos.

Serviço de mensageria privada: provedores de aplicação que prestam serviços de mensagens instantâneas por meio de comunicação interpessoal, acessíveis a partir de terminais móveis com alta capacidade de processamento ou de outros equipamentos digitais conectados à rede, destinados, principalmente, à comunicação privada entre seus usuários, inclusive os criptografados.

A definições misturam o que pode ser uma conta automatizada, na qual os robôs também fazem as postagens, com as contas que fazem uso de bots para impulsionar o conteúdo. Não se pode criminalizar todas as contas automatizadas. Assim como muitos bots são importantes para uma série se atividades lícitas. Além do mais, nem todo bot participa do impulsionamento de conteúdo.

A impressão de muitos estudiosos é a de que, em vez de olhar para o conjunto, as conceituações foram feitas para tentar dar conta dos problemas que se deseja mitigar. 

Além disso, algumas pessoas acreditam que o PL  poderá cercear o uso legítimo de impulsionadores de conteúdo, especialmente pelo poder público, em casos de emergência. Em especial através dos serviços de mensageria. Há muitas listas de transmissão que extrapolam a comunicação interpessoal, privada, individualizada para questões emergenciais. 

"O formato dos mensageiros é de comunicação privada. A preocupação é que uma mensagem particular use automação típica do impulsionamento em uma plataforma em formato mural, como Twitter e Facebook, para atingir um público maior, muito rápido, protegida pelo manto da criptografia. Essa é a questão. Quem vai poder excepcionar a quantidade de encaminhamentos em casos de urgências, calamidades e tudo mais? A gente está tratando disso através de uma sugestão de emendada", informou o  senador durante a live.

"De fato, não se pode abrir mão da potencialidade do comunicação para um caso de urgência ou emergência. E não é esse o objetivo da lei. O que  a gente quer em relação aos serviços de mensageria é evitar que se desvie o uso deles para transformá-los em veículos de comunicação de massa protegidos  por criptografia. Isso não é razoável. Não é constitucional. Não é adequado. Não é razoável", disse o senador.

Mas a falta de identificação das autorias das mensagens é um dos problemas que precisa ser sanado em relação aos  mensageiros. As limitações de encaminhamento de mensagens também. Nada disso está previsto no PL. Que também parece não ter levado em conta todas as dificuldades técnicas de se rotular uma mensagem como desinformação. Como fazer isso, por exemplo, sem que a criptografia seja quebrada?

Por isso, a segunda-feira, 1 de junho, será um dia chave

Diante de todas essas  dúvidas, o Senado decidiu fazer na manhã desta segunda-feira, 1 junho, um webinar interno no qual 10 organizações da sociedade civil serão ouvidas sobre o PL. E, à tarde,  a partir das 14 horas, a Frente Digital da Câmara fará um debate virtual ouvindo representantes de múltiplos setores, incluindo a academia e as próprias plataformas.

Todo mundo marcou na segunda-feira porque a corrida é para provocar a retirada do projeto de pauta ou, no mínimo, reduzir danos.

"Se alguém chegar para gente agora e disser que  há um ponto ou outro no texto que está obscuro, e ainda pode ser interpretado como cerceamento de conteúdo ou alguma forma de censura, nós vamos mudar", garantiu o senador, que gostou de uma sugestão para deixar mais objetivo quem pode ser autor de uma ação contra as plataformas. Algo que também não está definido no texto proposto.

Na opinião dele o projeto está chegando a bom termo, com as emendas que estão sendo apresentadas, razão pela qual não pensa em adiar a votação. "A gente tem uma expectativa de que o PL seja votado e aprovado e aí passe por um processo de aprimoramento", disse.

O relator do PL é o senador Ângelo Coronel (PSD-BA), também presidente da CPI Mista das Fake News. Ele já adiantou que deve complementar o projeto com outra proposta, de sua autoria, para aumentar as penas de quem promove desinformação na Internet.

Sinceramente, seria muito melhor que esse PL fosse fruto dos trabalho da CPI, ao término dela.

Sobre a autora

Cristina De Luca é jornalista especializada em ambiente de produção multiplataforma. É diretora da ION 89, startup de mídia com foco em transformação digital e disrupção. Foi diretora da área de conteúdo do portal Terra; editora-executiva da área de conteúdo da Globo.com; e editora-executiva da unidade de Novos Meios da Infoglobo, responsável pela criação e implantação do Globo Online. Foi colunista de tecnologia da Rádio CBN e editor-at-large das publicações do grupo IDG no Brasil. Master em Marketing pela PUC do Rio de Janeiro, é ganhadora do Prêmio Comunique-se em 2005, 2010 e 2014 na categoria Jornalista de Tecnologia.

Sobre o blog

Este blog, cujo nome faz referência à porta do protocolo Telnet, que é o protocolo de comunicação por texto sem criptografia, traz as informações mais relevantes sobre a economia digital.