Governo investe em reconhecimento facial para enfrentamento à criminalidade
Enquanto cidades dos Estados Unidos seguem proibindo o uso de reconhecimento facial por forças de segurança, o Brasil segue a passos largos para a validação da prática. Na última semana, passou despercebido no decreto que regulamenta o repasse de recursos do Fundo Nacional de Segurança Pública para os estados o seu uso para "fomento à implantação de sistemas de videomonitoramento com soluções de reconhecimento facial, por Optical Character Recognition – OCR, uso de inteligência artificial ou outras tecnologias".
Vale lembrar que, desde o ano passado, tramitam na Câmara dos Deputados o PL 9736/2018, cujo efeito é alterar a Lei de Execução Penal para incluir uma previsão de obrigatoriedade do uso desse tipo de sistema na população carcerária, e o PL 11.140 de 2018, do líder do PSL, Delegado Waldir (GO), que determina registros não somente aos detidos, mas também a funcionários e até mesmo advogados que ingressem na unidades de internação.
Além disso, em janeiro, parlamentares do Partido Social Liberal (PSL) atraíram atenção ao viajarem à China para conhecimento do sistema chinês de RFA, o qual inspiraria um projeto de lei voltado à implementação de tecnologia em locais públicos. Logo depois, testes foram realizados para identificação de criminosos fichados pela polícia nas ruas de Salvador e do Rio de Janeiro, durante o Carnaval.
Na Bahia, um rapaz de 19 anos foi preso depois de ser identificado em uma das câmeras de reconhecimento facial da Secretaria da Segurança Pública da Bahia (SSP-BA). Ele estava com um mandado de prisão em aberto e era procurado pela polícia por suspeita de homicídio. Já no Rio, o sistema permitiu a captura de quatro criminosos que detinham mandados de prisão, e de um adolescente que deveria estar fazendo trabalho educacional-social, além de recuperar um veículo roubado, segundo comunicado da polícia.
Meses depois, porém, o sistema carioca identificou incorretamente uma mulher como assassina procurada pela polícia. E é aí que começam as preocupações com o uso indiscriminado da tecnologia. Apesar do grande entusiasmo que envolve o recurso, é preciso ponderar as limitações que ainda marcam seu estágio atual de desenvolvimento.
O uso da inteligência no combate à criminalidade sempre foi bem-vindo. Mas ele precisa partir de algumas premissas. No caso da inteligência usada no reconhecimento facial, a primeira delas é a de que a tecnologia não é infalível. Prova disso são os testes feitos anualmente pelo Instituto Nacional de Padrões e Tecnologia dos Estados Unidos (NIST) junto aos fornecedores globais do segmento com o objetivo de certificar aqueles que apresentam o maior índice de acuracidade.
No último teste, por exemplo, a tecnologia da NEC superou a da Microsoft e apresentou a melhor performance, com uma taxa de erro de 0,5%, depois de identificar 12 milhões de pessoas. Ao realizar a correspondência em vários estágios, foi alcançada a impressionante velocidade de pesquisa de 230 milhões de comparações por segundo. O teste FRVT 2018 avaliou soluções de 49 organizações diferentes, que se orgulham de por seus sistema à prova. Se você gosta de papers científicos, o resultado geral está aqui.
Em se tratando de reconhecimento facial, há SISTEMAS e sisteminhas sendo vendidos por aí, para os mais diversos fins. De modo geral, os mais simples apresentam resultados significativos quando as imagens analisadas são fotografias frontais com boa iluminação e resolução. Mas os erros aumentam, por exemplo, quando são analisadas imagens com resolução baixa e provenientes de segmentos de vídeo, assim como devido a variações na iluminação, fundo da imagem, pose, expressão facial, sombras e distância da câmera, segundo relatório da Electronic Frontier Foundation (EFF) de fevereiro de 2018. Especialmente em se tratando de mulheres e minorias raciais, como afrodescendentes.
Parte da polícia americana, por exemplo, usa o sistema de reconhecimento facial da Amazon, o Rekognition, bastante impreciso. Em um teste da ACLU, American Civil Liberties Union, a tecnologia da Amazon identificou de maneira equivocada 28 membros do congresso com perfis da base de dados de encarcerados. A maioria dos casos de falso positivo foi de congressistas negros.
É claro que os sistemas evoluem. Mas ainda assim, é preciso ser bastante criterioso na escolha dos equipamentos e dos software empregados, especialmente pelas forças de segurança pública. Os melhores geralmente têm custo elevado para os parcos recursos disponíveis nas cidades brasileiras. Apesar disso, o Brasil já tem hoje 37 iniciativas de uso de reconhecimento facial em diferentes municípios. Mais da metade, 19, foram lançados no período de 2018 a 2019, de acordo levantamento do Instituto Igarapé, apresentado durante o 10º Seminário de Proteção à Privacidade e aos Dados Pessoais, realizado no mês passado pelo Comitê Gestor da Internet no Brasil.
A segunda premissa é o risco à privacidade. Dependendo da base de dados utilizada, seria possível acompanhar o dia a dia de cada cidadão, verificando os lugares que frequenta, por onde passou, e com que esteve, violando fatalmente a nossa privacidade. Organizações de direitos civis dizem que o projeto piloto de reconhecimento facial do Rio recolheu imagens de todos os cidadãos, crianças inclusive. Quem terá acesso a todos esses dados sensíveis que são os dados biométricos?
Por conta disso, muitas cidades americanas estão tratando de regulamentar o uso do reconhecimento facial, seja por órgãos públicos, seja pela iniciativa privada. Até empresas como a Microsoft e a própria Amazon já vêm reconhecendo a necessidade de uma regulamentação ampla e baseada em ideais de transparência pública, consentimento, respeito ao devido processo legal, precisão e não-discriminação.
Além disso, no mundo todo as leis gerais de proteção de dados têm deixado bem claro que não é razoável implementar qualquer tecnologia que use dados pessoais sem que tenhamos certeza de que esses dados serão tratados com segurança e não serão vazados para empresas com práticas abusivas ou mesmo ilegais. No Brasil, no entanto, vale lembrar que a a nossa LGPD abre uma exceção para o uso de dados pessoais (como a biometria) para a área de segurança pública, mas condiciona essa exceção à existência de lei específica. Código Penal? Sim. Mas também, por que não, uma que trate especificamente do reconhecimento facial, a exemplo do que vem sendo debatido em outros países?
Já que a tendência é a massificação do uso da tecnologia pelos estados, seria interessante começar a pensar nisso aqui também.
Além da segurança pública…
No Brasil, como em todo o mundo, as tecnologias de identificação do rosto estão sendo empregadas também em áreas que exigem alta confiabilidade, conveniência e uso a longo prazo, como verificação de identidade, acordos de transações, criação de contas bancárias e verificação de passaporte.
À medida que as tecnologias de vigilância habilitadas para IA amadurecem, elas rapidamente encontram um caminho para os cantos e recantos dos espaços físicos ao nosso redor. No local de trabalho, os gerentes estão implantando novas ferramentas para monitorar e avaliar a produtividade. Existem muitos exemplos para contar. O mais recente? Lojas do Outback em Oregon passaram a usar câmeras aéreas e IA, para avaliar se a cozinha e a equipe de garçons estão "fazendo seu trabalho adequadamente".
Críticos têm preocupações válidas sobre a precisão, o potencial de uso indevido e as consequências não intencionais do emprego da tecnologia. As compensações valerão a pena? É algo a se pensar também.
ID: {{comments.info.id}}
URL: {{comments.info.url}}
Ocorreu um erro ao carregar os comentários.
Por favor, tente novamente mais tarde.
{{comments.total}} Comentário
{{comments.total}} Comentários
Seja o primeiro a comentar
Essa discussão está encerrada
Não é possivel enviar novos comentários.
Essa área é exclusiva para você, assinante, ler e comentar.
Só assinantes do UOL podem comentar
Ainda não é assinante? Assine já.
Se você já é assinante do UOL, faça seu login.
O autor da mensagem, e não o UOL, é o responsável pelo comentário. Reserve um tempo para ler as Regras de Uso para comentários.