Topo

Cristina de Luca

Satya Nadella defende a privacidade como um direito humano

Cristina De Luca

26/01/2019 11h45

Em um painel sobre confiança e Transformação Digital em Davos, Satya Nadella, CEO da Microsoft, afirmou que é preciso haver um GDPR para o mundo, fazendo referência às leis de privacidade de dados que a Europa recentemente promulgou.

"Meu ponto de vista é que é um começo fantástico ao tratar a privacidade como um direito humano. Espero que nos Estados Unidos façamos algo semelhante e que o mundo possa convergir em um padrão comum", disse Nadella.

As pessoas devem possuir seus próprios dados, não as empresas, disse ele.

Diante do "techlash", o CEO da Microsoft defende a criação de novas normas globais sobre privacidade, dados e, principalmente, Inteligência Artificial.

Está certo. A tão badalada IA também tem um pé na vilania. Ela pode causar sérios danos, por exemplo, quando os algoritmos começam a refletir vieses humanos nos conjuntos de dados que as organizações coletam, processam e usam em seus produtos e serviços. Os efeitos desses vieses podem ser complicados, uma vez que os próprios algoritmos continuam a "aprender" com os dados que geram.

A IA também pode ser prejudicial ao comandar decisões automatizadas para lá de herméticas. Como os sistemas inteligentes usam uma quantidade grande de dados e muitas regras para processá-las, muitas vezes é impossível entender como o mecanismo de Inteligência Artificial chega a uma conclusão.

Para lidar com essas questões, a autorregulação já não é suficiente, alerta Satya Nadella. Vale lembrar que a Microsoft é uma das integrantes do consórcio Partnership on AI, que reúne várias gigantes em torno desse compromisso de autorregulamentação. Por isso, tem o seu próprio regulamento de uso ético da IA.

Outro membro do consórcio, o Google, também publicou em meado de dezembro as suas  práticas de IA responsável. Seis meses antes, já havia anunciado seus AI Principles. Esta semana foi a vez do Facebook anunciar o lançamento de um instituto de pesquisa dedicado à ética da Inteligência Artificial, em parceria com a Universidade Técnica de Munique.

 "No mercado, não há discriminação entre o uso certo e o uso errado … Congratulamo-nos com qualquer regulamento que ajude o mercado a fazê-lo".

Bom… as novas legislações de proteção de dados, incluindo a nossa LGPD, tentam fazer da transparência algorítmica um direito do cidadão, como prega Nadella. Se conseguirão, só o tempo dirá.

Outra preocupação de CEO da Microsoft é com o uso crescente do reconhecimento facial.

"É uma peça de tecnologia que será democratizada, e que será predominante. Posso listar 10 usos que são muito virtuosos e importantes e que podem melhorar a vida humana, e 10 usos que causariam problemas", disse ele.

Em seu site, a Microsoft lista principalmente a aplicações benéficas da tecnologia. Por exemplo:

"A polícia de Nova Delhi testou recentemente a tecnologia de reconhecimento facial e identificou quase 3 mil crianças desaparecidas em quatro dias. Historiadores nos Estados Unidos usaram a tecnologia para identificar os retratos de soldados desconhecidos em fotografias da Guerra Civil tiradas na década de 1860. Pesquisadores usaram com sucesso o reconhecimento facial software para diagnosticar uma doença genética rara em africanos, asiáticos e latino-americanos".

O lado negativo está no site do Kaspersky Lab, que publicou recentemente um extenso artigo a respeito, mencionando exemplos de vigilância em massa, invasão de privacidade e preconceito. 

O artigo  da Kaspersky começa nos lembrando do fato de que podemos mudar nossos nomes e pseudônimos. Editar ou deletar as contas de mídias sociais. Mas não podemos alterar o nosso rosto com a mesma facilidade. 

Um dos casos citados é o do sistemas do serviço de inteligência dos Estados Unidos.

"O FBI mantém legalmente a próxima geração do sistema de identificação fotográfica interestadual (NGI-IPS), uma base de dados que armazena imagens de pessoas acusadas e condenadas por delitos.

Em maio, o governo americano auditou o FBI e descobriu que a base de dados de 412 milhões de imagens também possuía fotos de pessoas que nunca foram alvo de investigação criminal. A agência até tem uma divisão responsável por reconhecimento facial, o Serviço de Avaliação, Comparação e Análise Facial (FACE).

O que ocorreu é que representantes do FBI obtiveram fotos de carteiras de motorista, passaportes e candidatura de visto por meio de acordos com Estados, além das imagens de suspeitos de crimes e condenados. A base de dados também inclui informações de aproximadamente 100 milhões de cidadãos estrangeiros.

(…) Tecnologias de reconhecimento facial são ainda muito jovens e imperfeitas. Por isso, o sistema do FBI não é exceção: possui parcialidades raciais e possui uma precisão máxima de 80-85%. Ao mesmo tempo, o FBI encobriu deliberadamente a escala do uso de reconhecimento facial, contrariando os requisitos do Relatório de Impacto à Privacidade."

O artigo da Kaspersky não livra nem mesmo a cara da própria Microsoft.

"Empresas possuem bases de dados ainda maiores que a do FBI. Redes sociais lideram esse quadro: Facebook, Instagram (que pertence ao Facebook), Google (com o Google+) e outras. A maioria possui suas próprias soluções de reconhecimento facial, que passam por melhorias e desenvolvimento constantes.

A Microsoft trabalha agora em uma tecnologia similar para o aplicativo FamilyNotes, que auxiliará o software a diferenciar um usuário do outro por meio de uma câmera embutida no celular ou no tablet. A Microsoft desenvolve o sistema operacional mais popular do mundo, esse aplicativo irá suprir a base de dados de rostos da empresa."

No fim das contas, todo mundo coleta faces: governos, empresas e corporações, até mesmo gente comum, ressalta a Kaspesrky. Da mesma forma, todo mundo pode usar sistemas de reconhecimento facial, independente da natureza do uso. Então, é preciso agir o quanto antes para ampliar a transparência em torno da sua aplicação, bem como de outras tecnologias decorrentes dos avanços da Inteligência Artificial. Parar de falar em ética da IA e começar a agir, como pregaram vários convidados do 49º Fórum Econômico Mundial, esta semana, em Davos.

Com as máquinas aptas a aprender, as decisões tomadas por elas podem trazer consequências significativas. E, de fato, a única forma de garantir que não criemos um monstro que possa se voltar contra nós é incorporar salvaguardas éticas na arquitetura da IA ​​que estamos desenvolvendo hoje.

A ver.

Sobre a autora

Cristina De Luca é jornalista especializada em ambiente de produção multiplataforma. É diretora da ION 89, startup de mídia com foco em transformação digital e disrupção. Foi diretora da área de conteúdo do portal Terra; editora-executiva da área de conteúdo da Globo.com; e editora-executiva da unidade de Novos Meios da Infoglobo, responsável pela criação e implantação do Globo Online. Foi colunista de tecnologia da Rádio CBN e editor-at-large das publicações do grupo IDG no Brasil. Master em Marketing pela PUC do Rio de Janeiro, é ganhadora do Prêmio Comunique-se em 2005, 2010 e 2014 na categoria Jornalista de Tecnologia.

Sobre o blog

Este blog, cujo nome faz referência à porta do protocolo Telnet, que é o protocolo de comunicação por texto sem criptografia, traz as informações mais relevantes sobre a economia digital.