Topo

Cristina de Luca

Americanos dão o primeiro passo para regulamentar a Inteligência Artificial

Cristina De Luca

12/04/2019 18h13

Esta semana, legisladores norte-americanos apresentaram um novo projeto de lei que já vem sendo considerado como um dos primeiros grandes esforços federais para regulamentar a Inteligência Artificial nos Estados Unidos.  Alguns governos locais fizeram suas próprias tentativas de regulamentar a tomada de decisão automatizada. A Câmara de Nova York tornou-se a primeira legislatura dos EUA a aprovar uma lei de transparência algorítmica em 2017, e o estado de Washington realizou audiências para uma medida semelhante em fevereiro deste ano.

Chamado de Algorithmic Accountability Act, a lei proposta exige que as grandes empresas auditem seus sistemas de Machine Learning quanto a preconceitos e discriminação e tomem medidas corretivas em tempo hábil se tais problemas forem identificados. Outra exigência é a de que essas empresas auditem todos os processos de aprendizado de máquina que envolvam dados confidenciais – incluindo informações de identificação pessoal, biométricas e genéticas – quanto aos riscos de privacidade e segurança.

Seus dispositivos destinam-se sobretudo às grandes empresas com acesso a grandes quantidades de informações.  Traduzindo, empresas que ganham mais de US $ 50 milhões por ano, mantêm informações sobre pelo menos 1 milhão de pessoas ou dispositivos ou agem principalmente como corretores de dados que compram e vendem dados de consumidores.

O poder regulatório será da Comissão Federal de Comércio dos EUA (a FTC),  encarregada também das proteções do consumidor e das regulamentações antitruste.

"Ao exigir que as grandes empresas não façam vista grossa a impactos não intencionais de seus sistemas automatizados, a Algorithmic Accountability Act garante que as tecnologias do século 21 sejam ferramentas de capacitação, em vez de marginalização, ao mesmo tempo que reforçam a segurança e privacidade de todos os consumidores",  disse ao TechCrunch a deputada democrata Yvette Clarke.

O  PL integra uma estratégia maior para levar a supervisão regulatória a qualquer processo e produto de IA no futuro. A intenção é atacar em várias frentes, diz Mutale Nkonde, pesquisador do instituto Data & Society.

Embora os EUA não estejam sozinhos  – o Reino Unido, a França, e a Austrália, entre outros países, também já propuseram ou aprovaram legislações semelhantes para responsabilizar as empresas de tecnologia por seus algoritmos, e a União Europeia acabou de apresentar suas diretrizes iniciais para uma IA Ética – o país tem uma oportunidade única de moldar o impacto global da IA a partir do Vale do Silício.

A ver.

O problema
Uma das muitas maneiras pela quais a IA pode causar danos é permitir que os algoritmos reflitam os vieses humanos. É vital para qualquer pessoa envolvida no treinamento de programas de IA considerar o quão representativos são os dados de treinamento, por exemplo. Algoritmos não se tornam tendenciosos por conta própria – eles aprendem com os dados que usamos para treiná-los.  Os professores Danilo Doneda, Laura Schertel e Carlos Affonso se debruçaram sobre essa questão no artigo "Considerações iniciais sobre inteligência artificial, ética e autonomia pessoal".

Vieses ocultos, difíceis de serem identificados, são os mais problemáticos. Digamos que um banco imaginário tenha removido dados sobre gênero e raça de seu modelo de IA, mas tenha deixado os CEPs . Essa simples informação poderia levar os algoritmos do banco a produzir predições tendenciosas discriminando correntistas em função dos bairros onde moram.

O grupo Partnership on AI tem trabalhado no sentido de evitar que isso aconteça. Outro grupo, denominado EPIC, defende a transparência algorítmica, que pode reduzir o preconceito e ajudar a garantir a justiça na tomada de decisões automatizada.  Tempos atrás, o EPIC instou o Congresso Americano a exigir "Avaliações de Equidade Algorítmica" antes de serem adotadas ferramentas de decisão automatizadas. No ano passado, a EPIC propôs suas Diretrizes Universais para Inteligência Artificial endossadas por mais de 250 especialistas e 60 organizações em 40 países, como base para a legislações federais.

Até o Fórum Econômico Mundial (WEF, na sigla em inglês) está preocupado. Quer saber como poderemos ensinar uma máquina a "pensar" eticamente. 

Na opinião do WEF,  três estratégias podem ser adotadas por qualquer um que esteja construindo sistemas de IA:

1. Inclua humanos em cenários sensíveis
A IA que emprega um sistema "human-in-the-loop" (HITL), em que as máquinas executam o trabalho e os humanos só interferem quando há incerteza, geram algoritmos mais precisos. 

2. Inclua proteções para que as máquinas possam se auto-corrigir
Implemente postos de verificação para garantir que os sistemas não violem a confiança dos usuários.

3. Crie um código de ética
Isso pode parecer óbvio, mas você ficaria surpreso com o fato de poucas empresas estarem preocupadas em criar suas próprias regras. Seja sobre privacidade de dados, personalização ou Deep Learning, cada organização deve ter um conjunto de padrões de operação. De acordo com o CEO da Apple, Tim Cook, "a melhor regulação é auto-regulação". Para a Apple, isso significa examinar cuidadosamente todos os aplicativos em sua plataforma para garantir que a privacidade dos usuários não será violada. 

E aqui estão duas recomendações para do WEF para a criação de um código de ética:

A – Quando dados pessoais estiverem em jogo, comprometa-se a agregá-los e anonimizá-los da melhor maneira possível, tratando os dados dos consumidores como se fossem nossos.

B – Comprometa-se a promulgar salvaguardas em múltiplos intervalos no processo para garantir que a máquina não esteja tomando decisões prejudiciais.

Podemos – e devemos – nos tornar coletivamente administradores de um futuro mais ético, especialmente em relação à IA e aos processos automatizados.

Sobre a autora

Cristina De Luca é jornalista especializada em ambiente de produção multiplataforma. É diretora da ION 89, startup de mídia com foco em transformação digital e disrupção. Foi diretora da área de conteúdo do portal Terra; editora-executiva da área de conteúdo da Globo.com; e editora-executiva da unidade de Novos Meios da Infoglobo, responsável pela criação e implantação do Globo Online. Foi colunista de tecnologia da Rádio CBN e editor-at-large das publicações do grupo IDG no Brasil. Master em Marketing pela PUC do Rio de Janeiro, é ganhadora do Prêmio Comunique-se em 2005, 2010 e 2014 na categoria Jornalista de Tecnologia.

Sobre o blog

Este blog, cujo nome faz referência à porta do protocolo Telnet, que é o protocolo de comunicação por texto sem criptografia, traz as informações mais relevantes sobre a economia digital.