Chegamos a 2020 e o aumento da tecnologia de vigilância parece inevitável
Cristina De Luca
26/01/2020 13h48
Todos os anos, desde 2006, o mundo celebra em 28 de janeiro o "Dia Internacional da Proteção de Dados". Quando foi criada pelo Conselho Europeu, a data tinha o objetivo de informar a sociedade sobre nossos direitos como titulares de dados pessoais. E esclarecer ao cidadão que as questões relacionadas à proteção de dados estão inseridas no nosso dia a dia como indivíduos – nosso trabalho, nossa relação com as autoridades, nossa saúde, no uso dos aplicativos de esporte e entretenimento, na compra de produtos e serviços, na nossa navegação pela internet, etc.
De lá para cá a Europa aprovou inúmeros regulamentos, inclusive com o maior deles, o GDPR, que em apenas 18 meses registrou 160 mil violações. O total de multas pagas é de aproximadamente 114 milhões de euros (equivalente a US$ 126 milhões, ou R$ 525 milhões), de acordo com pesquisa do escritório de advocacia multinacional DLA Piper.
A empresa observa que nem todos os estados membros da UE disponibilizam publicamente suas estatísticas de notificação de violações e que muitos forneceram apenas números referentes a parte do período coberto pelo relatório. De todo modo, os resultados mostram que ainda estamos engatinhando na aplicação da lei.
De certa maneira, não é uma grande surpresa ver esse início lento em multas. Até porque, como advogam muitos especialistas na área, o maior objetivo das leis de proteção de dados pessoais, como a que acaba de entrar em vigor no estado americano da Califórnia, ou a nossa Lei Geral de Proteção de Dados, com vigência prevista para a partir de meados de agosto deste ano, é a educação da sociedade.
O que está em jogo, no fundo, é o reestabelecimento da confiança na tecnologia. Por imposição da força, ou por maior conscientização de todos.
Durante sua fala na semana passada, em Davos, durante o encontro do Fórum Econômico Mundial, Satya Nadella, CEO da Microsoft, foi claro e direto: "A dignidade dos dados é crucial. O próximo nível de trabalho não é apenas a privacidade, mas poder controlar como os dados são usados. Precisamos de novos modelos de negócio para que os consumidores se beneficiem tanto dos dados quanto as marcas. O serviço gratuito que você está recebendo é realmente todo o valor que recebe pelos seus dados? Essa é a pergunta que precisa ser feita", disse. Claro, o negócio da Microsoft, dentre todas as Big Techs, é o que menos depende dos dados pessoais de seus usuários.
Mas o negócio da Microsoft é, sim, proteger os dados pessoais das empresas que utilizam seus produtos e serviços. Portanto, prover meios para que seus clientes posam controlar quais dados estão sendo usados. E agir rapidamente em casos de violações.
Construir confiança na tecnologia e em seu uso
Talvez o maior benefício dos regulamentos de proteção de dados seja exatamente o de promover maior governança sobre os dados gerados a partir do uso intensivo da tecnologia, em qualquer setor, não apenas entre organizações privadas – e, dentre elas, as Big Techs. Organizações do setor público também precisam evitar abusos.
"Há 20 anos, as empresas de tecnologia americanas tinham pouca interação com o governo federal além do pagamento de impostos.Os engenheiros criaram produtos que capacitaram os clientes e o governo os aplaudiu.
Porém, após os ataques terroristas de 11 de setembro de 2001, a atitude dos governos em relação à vigilância mudou. A comunidade de inteligência – sobretudo a dos EUA – colaborou com as principais plataformas digitais – começando com o Google – para reunir enormes conjuntos de dados pessoais que, na opinião das autoridades, poderiam ser usados para evitar futuros ataques. Como ficamos sabendo? Através das denúncias de Edward Snowden, muitos anos depois. Que, diga-se de passagem, não foram suficientes para frear Google, Facebook e fazer com que as Big Tech se tornassem ferramentas indispensáveis para empresas, políticos e o que Shoshana Zuboff, da Harvard Business School, chama de "capitalismo de vigilância" em seu livro "The Age of Surveillance Capitalism: The Fight for a Human Future at the New Frontier of Power".
Enquanto o capitalismo industrial emprega tecnologia para manipular o meio ambiente, o capitalismo de vigilância manipula o comportamento humano. Seus praticantes convertem a experiência humana em dados, criam personas (dossiês) digitais representando cada grupo de indivíduos e depois usam essas representações virtuais para criar e vender produtos de previsão comportamental.
(…) A primeira evidência de que as plataformas da internet podem ter um impacto no mundo real em países inteiros e não apenas em indivíduos surgiu em 2016, quando as campanhas de desinformação online foram destaque no referendo do Brexit do Reino Unido e nas eleições presidenciais dos EUA.
(…) Não acredito que as plataformas da internet pretendiam permitir esses danos. No entanto, seus modelos de negócios, algoritmos e culturas internas tornaram esses danos inevitáveis."
Os trechos acima são do mais recente artigo de Roger McNamee, cofundador da Elevation Partners e um dos primeiros investidores no Facebook, Google e Amazon, publicado pelo Project Syndicate. Na opinião dele, os regulamentos de proteção de dados pessoais ganharam força a partir desse cenário. Mas os formuladores de políticas ainda estão nos estágios iniciais de compreensão de como o capitalismo de vigilância funciona. Por conta disso, a economia de plataforma está se movendo de forma agressiva e desafiadora em alguns casos, em novos mercados.
Um deles é o da inteligência artificial e dos novos serviços que habilita. Defensores e especialistas em liberdades civis estão compreensivelmente preocupados com o fato de que, quando combinadas com a tecnologia de reconhecimento facial, as redes de dispositivos IoT, como as campainhas Ring, da Amazon, permitirão novas formas de vigilância potencialmente inconstitucionais. Não por acaso tem crescido o interesse pela adoção de regulamentações específicas para a IA.
Depois de ser mal interpretado em sua passagem recente pela Europa, quando teria advertido governos contra a regulamentação apressada da IA, argumentando que as regras existentes podem ser suficientes para governar a nova tecnologia, Sundar Pichai, CEO da Alphabet e do Google, fez questão de esclarecer seu posicionamento em um texto opinativo publicado na semana passada pelo Financial Times. Nele, o executivo admitiu a necessidade da regulação, uma vez que novos desafios, "que nenhuma empresa e setor poderão resolver sozinhos", inevitavelmente surgirão.
"Empresas como a nossa não podem simplesmente construir novas tecnologias promissoras e deixar que as forças do mercado decidam como será usada. É igualmente nossa obrigação garantir que a tecnologia seja aproveitada para o bem e esteja disponível para todos", escreveu. "O papel do Google começa com o reconhecimento da necessidade de uma abordagem baseada em princípios e regulamentada para a aplicação da IA, mas não termina aí. Queremos ser um parceiro prestativo e engajado dos reguladores, ao lidar com as inevitáveis tensões e trade-offs".
Pichai advogou também que se busque um alinhamento internacional para as propostas de regulamentação já em curso, e se adote uma abordagem proporcional, equilibrando possíveis danos, especialmente em áreas de alto risco, com oportunidades sociais. "A regulamentação pode fornecer orientações amplas, permitindo uma implementação personalizada em diferentes setores", escreveu.
Também em Davos, a IBM apresentou o Policy Lab – iniciativa destinada a fornecer aos formuladores de políticas recomendações para problemas emergentes em tecnologias. O objetivo é estabelecer uma "visão" e sugestões acionáveis para "aproveitar os benefícios da inovação e garantir a confiança", especialmente em relação à IA. "Parece-nos bastante claro que a regulamentação governamental de inteligência artificial é a próxima fronteira na regulamentação de políticas tecnológicas", disse Chris Padilla, vice-presidente de assuntos regulatórios e governamentais da companhia.
E, reconhecendo a necessidade de um roteiro colaborativo para reimaginar um sistema regulatório ágil para a IA que incentive a inovação e minimize seus riscos, o Fórum Econômico Mundial lançou um kit de ferramentas de IA para conselhos corporativos, dividido em três módulos: de estratégia, de controle e de suporte. Vale muito ler e usar! Causou boa impressão.
Nos três casos, o apelo maior é para que todas as empresas, de todos os setores, sem exceção, estejam compromissadas em aumentar a transparência quanto ao uso que fazem dos dados e ao funcionamento de seus algoritmos. E, o mais importante, ajudem a educar seus funcionários e clientes quanto ao uso responsável das novas tecnologias que estão e irão impulsionar ainda mais a economia data driven.
As empresas de plataforma obscureceram as linhas entre os setores, disse Julie Sweet, CEO da Accenture, da Davos. "Isso está mudando a maneira como todas as indústrias estão interagindo. Significa que precisamos de um novo tipo de liderança que acelere as tendências intersetoriais", explicou ela.
O que se deseja impedir é que "o lado negro digital" sobressaia, na visão de António Guterres, Secretário Geral das Nações Unidas, ao descrever os "quatro cavaleiros" que ameaçavam o mundo, durante a reunião do Fórum Econômico Mundial. A chave é criar confiança em torno da governança dos dados e seu uso por novos tecnologias como a IA.
"A tecnologia se tornou tão onipresente, que precisamos manter a confiança, explicou Brad Smith, presidente da Microsoft, em um painel em Davos. "Portanto, a regulamentação é vital. Mas as empresas também precisam se comprometer com um elemento de auto-regulação", completou.
"As empresas voltadas para o futuro devem entender, de uma vez por todas, que o ecossistema de dados atual é baseado na confiança: a confiança dos parceiros de negócios, dos consumidores e do público", afirmou Victoria Espinel, Presidente e CEO da BSA, ao lançar a Global Data Alliance, que apoia políticas que ajudem a incutir confiança na economia digital e a livre troca de dados entre países. Brasil e Inglaterra que o digam, como revela esse excelente artigo do ITS Rio.
E não é só o capitalismo de vigilância que preocupa
O mais recente front de batalha da proteção de dados pessoais é o reconhecimento facial. Meses atrás, mais de 100 organizações, e várias centenas de especialistas de mais de 40 países, instaram as autoridades de proteção de dados a adotarem uma moratória no reconhecimento facial. A petição do Public Voice adverte que "a tecnologia evoluiu de uma coleção de sistemas de nicho para uma poderosa rede integrada capaz de vigilância em massa e controle político".
A petição solicita aos países que "estabeleçam as regras legais, padrões técnicos e diretrizes éticas necessárias para salvaguardar os direitos fundamentais e cumprir as obrigações legais antes que ocorra a implantação adicional dessa tecnologia".
A União Europeia estaria considerando proibir temporariamente o uso do reconhecimento facial em espaços públicos, por atores privados ou públicos. O que, em teoria, incluiria também forças de segurança. Pelo menos até que uma metodologia sólida para avaliar a impactos da tecnologia e possíveis medidas de gerenciamento de riscos possam ser identificados e desenvolvidos. Isso salvaguardaria os direitos das pessoas, em particular contra qualquer possível abuso da tecnologia, de acordo com um artigo do site Politico.
Nos Estados Unidos, algumas cidades da Califórnia, incluindo San Francisco e Oakland, e Somerville, Massachusetts, decidiram que os riscos da tecnologia de reconhecimento facial superam os benefícios e proibiram seu uso pelos departamentos da cidade.
A Índia, por outro lado, usou a tecnologia para encontrar crianças desaparecidas e quer construir o maior sistema de reconhecimento facial do mundo. Ao passo que a Inglaterra, em preparação para deixar a União Europeia, acaba de anunciar planos controversos de uso da tecnologia para melhorar a capacidade dos policiais de identificar suspeitos e policiar a capital britânica.
A Polícia Metropolitana de Londres disse em comunicado que a tecnologia será implantada em locais onde os dados indicam que as pessoas responsáveis por crimes graves e violentos, como ataques de armas e facas e exploração sexual de crianças, provavelmente estão localizadas. As câmeras claramente marcadas serão focadas em pequenas áreas direcionadas para escanear o rosto das pessoas enquanto elas passam.
Contrário à iniciativa, o Financial Times chamou o reconhecimento facial de "tecnologia biométrica altamente invasiva e muitas vezes imprecisa".
Em entrevista à Paula Soprana, da Folha de São Paulo, o indiano Ramesh Srinivasan, doutor em Harvard, fundador do Laboratório de Cultura Digital da UCLA (Universidade da Califórnia, Los Angeles) e apoiador do pré-candidato democrata à Presidência dos EUA Bernie Sanders, defende que sistemas de reconhecimento facial sejam banidos, ao menos até que se encontre um modelo de equilíbrio com o direito à privacidade.
Outra frente importante de batalha para os defensores da privacidade é a manutenção do uso da criptografia nas comunicações e dispositivos pessoais. Semanas atrás, o procurador-geral William Barr foi ofensivo contra a indústria de tecnologia, censurando a Apple por se recusar a conceder às autoridades acesso aos telefones usados pelo atirador no tiroteio mortal em uma base da Marinha em Pensacola, Flórida, em dezembro.
O confronto público sobre privacidade e segurança de dados foi o mais recente esforço de Barr para desafiar as grandes empresas de tecnologia, que enfrentam uma hostilidade crescente por parte do governo Trump e de outros formuladores de políticas sobre a ampla influência do setor. Barr chegou a afirmar a um grupo de procuradores-gerais do Estado que o Departamento de Justiça revisaria a Seção 230, lei que protege empresas de tecnologia de processos por conteúdos publicados por terceiros por mais de duas décadas.
Dias atrás foi a vez do ex-vice-presidente Joe Biden, concorrendo à indicação democrata para a Presidência, dizer que a Seção 230 deveria ser abolida. Além disso, quatro projetos de lei no Congresso buscam reverter elementos das proteções da Seção 230.
O Brasil?
Aqui no nosso quintal veremos esses debates se intensificarem em 2020, nos âmbito dos três poderes: Legislativo, Executivo e Judiciário.
O ano está só começando, mas a proteção de dados já entrou para a agenda, mesmo antes da vigência da LGPD, como bem lembrou o advogado Fabrício Mota Alves em um post no LinkedIn.
"Somente nos últimos 2 meses, houve vários novos casos ampliando a litigiosidade em proteção de dados", diz ele. "Confiram:
06/12/2019 – Google: Senacon investiga se há coleta de dados pessoais de crianças, sem o consentimento dos pais, para fins publicitários.
17/12/2019 – Facebook: Senacon investiga se o WhatsApp compartilhou dados dos usuários com o Facebook, após a integração da aplicação.
19/12/2019 – Vivo: ONG entra com ação de produção de provas para investigar o comprometimento de dados pessoais de clientes.
30/12/2019 – Facebook: MJSP aplica multa de R$ 6,6 milhões por compartilhamento indevido de dados dos usuários (caso Cambridge Analytica).
08/01/2020 – Rappi: Senacon pede que a empresa esclareça se obtém o consentimento do consumidor para fazer tratamento de dados pessoais.
10/01/2020 – Google: Senacon notifica empresa sobre Termo de Ajustamento de Conduta em investigação sobre violação de privacidade no Gmail sem o consentimento do usuário."
Além disso, no fim de novembro o Comitê Gestor da Internet tomou a iniciativa de emitir uma nota pública defendendo o uso racional da criptografia, em resposta a uma onda de propostas do Executivo e do Legislativo defendendo flexibilização do uso da tecnologia em ferramentas de comunicação.
E há em curso uma consulta pública, com muito pouca adesão, sobre uma estratégia nacional da a Inteligência Artificial.
Os próximos meses prometem…
O aumento do uso de tecnologias de vigilância parece inevitável. O antídoto é uma maior conscientização de toda a sociedade sobre os limites éticos do uso das novas tecnologias e de uma maior governança sobre os dados, pessoais ou não. Cada um de nós será chamado à refletir que sociedade queremos e como a economia de dados poderá ajudar a construí-la.
"Os dados se tornaram o recurso mais valioso do mundo. Nesse contexto, tecnologias como inteligência artificial, blockchain, drones, edição de genes e a Internet das coisas podem tirar comunidades da pobreza, curar doenças e restaurar o equilíbrio de nossos oceanos e ecossistemas naturais. Ou poderiam exacerbar a desigualdade econômica, o deslocamento de empregos, a degradação ambiental e as tensões sociais. A colaboração público-privada é essencial para fazer as escolhas certas para as gerações futuras", afirma o Fórum Econômico Mundial.
As pessoas estão gastando cada vez mais tempo online e quase todos os aspectos da vida agora têm uma dimensão digital. Para os clientes e cidadãos, a quantidade de informações e opções pode parecer desconcertante.
Lideranças empresarias e políticas podem e devem ajudar a trazer clareza e simplicidade, oferecendo às pessoas as ferramentas para tomar decisões informadas e garantindo que estão acompanhando os riscos, cumprindo todos os regulamentos globais de privacidade e proteção de dados.
Uma coisa é certa: a quantidade de multas aplicadas provavelmente não será a melhor métrica para avaliar o equilíbrio da balança entre vigilância e privacidade. Entre viés algoritmo e transparência. Entre direitos dos titulares dos dados e quem os usa, independente da finalidade.
Sobre a autora
Cristina De Luca é jornalista especializada em ambiente de produção multiplataforma. É diretora da ION 89, startup de mídia com foco em transformação digital e disrupção. Foi diretora da área de conteúdo do portal Terra; editora-executiva da área de conteúdo da Globo.com; e editora-executiva da unidade de Novos Meios da Infoglobo, responsável pela criação e implantação do Globo Online. Foi colunista de tecnologia da Rádio CBN e editor-at-large das publicações do grupo IDG no Brasil. Master em Marketing pela PUC do Rio de Janeiro, é ganhadora do Prêmio Comunique-se em 2005, 2010 e 2014 na categoria Jornalista de Tecnologia.
Sobre o blog
Este blog, cujo nome faz referência à porta do protocolo Telnet, que é o protocolo de comunicação por texto sem criptografia, traz as informações mais relevantes sobre a economia digital.