Topo

O viés nos dados é o maior empecilho para adoção da Inteligência Artificial

Cristina De Luca

02/10/2019 18h41

O viés nos dados ainda é o maior empecilho para as organizações implementarem sistemas de Inteligência Artificial (IA) em larga escala, segundo os resultados da pesquisa Artificial Intelligence Global Adoption Trends and Strategies 2019, da IDC.

O estudo ouviu 2.473 organizações usuárias de soluções de IA em todo o mundo, incluindo o Brasil, e ressalta a importância de os provedores de soluções de IA implementarem funcionalidades capazes de explicar seus modelos de uso e também ferramentas capazes de ajudar na avaliação do grau de assertividade das decisões tomadas. "Os fornecedores devem procurar a evolução contínua da configurabilidade e explicabilidade dos seus modelos em uso", diz o relatório.

Cada vez mais, considerações sobre confiança, preconceito e ética estão ganhando importância: quase 50% das empresas participantes do estudo estabeleceram uma estrutura formal para incentivar o uso ético, os possíveis riscos de viés e as implicações da IA, segundo a IDC.

A capacidade de explicação da IA ​​é um item cada vez mais importante entre as líderes de negócios – 68% que acreditam que os clientes usam mais nos próximos três anos, de acordo com pesquisa do IBM Institute for Business Value.

Isso me fez lembrar de um artigo lido recentemente, no qual alguns pesquisadores da IA ​​sugerem que o caminho a seguir para tornar os algoritmos mais equilibrados é estar ciente dos vieses cognitivos dos seres humanos e como eles podem afetar os algoritmos. No entanto, esse processo não é direto, nem rápido.

Não há IA sem desafios éticos. E eles passam por eliminar ao máximo qualquer viés nos dados, desenvolver sistemas de IA focados no ser humano, fazer auditoria de vieses aproveitando o Design Thinking, e tornar o raciocínio e o treinamento em IA transparentes. Mesmo sabendo que nem todo viés é ruim. É importante garantir que os modelos usados não sejam tendenciosos.

É importante entender todos os riscos e abordar a ética em todo o ciclo de vida das iniciativas de IA.

Há ferramentas que ajudam nesse trabalho, desde a fase de projeto. Já ouviu falar no Ethics Canvas? Ele ajuda a estruturar ideias sobre as implicações éticas dos projetos, para visualizá-las e resolvê-las. A Lime, por sua vez, pode ajudar a identificar o raciocínio e os fatores essenciais pelos quais uma solução específica foi escolhida como a correta.

E a IBM tem um Kit de código aberto chamado AI Fairness 360. Contém mais de 70 métricas e 10 algoritmos avançados de mitigação de vieses desenvolvidos pela comunidade de pesquisadores da companhia, para ajudar a examinar, relatar e mitigar a discriminação e o viés nos modelos de Machine Learning aplicados a áreas abrangentes, como finanças, gerenciamento de capital humano, saúde e educação.

Sobre a autora

Cristina De Luca é jornalista especializada em ambiente de produção multiplataforma. É diretora da ION 89, startup de mídia com foco em transformação digital e disrupção. Foi diretora da área de conteúdo do portal Terra; editora-executiva da área de conteúdo da Globo.com; e editora-executiva da unidade de Novos Meios da Infoglobo, responsável pela criação e implantação do Globo Online. Foi colunista de tecnologia da Rádio CBN e editor-at-large das publicações do grupo IDG no Brasil. Master em Marketing pela PUC do Rio de Janeiro, é ganhadora do Prêmio Comunique-se em 2005, 2010 e 2014 na categoria Jornalista de Tecnologia.

Sobre o blog

Este blog, cujo nome faz referência à porta do protocolo Telnet, que é o protocolo de comunicação por texto sem criptografia, traz as informações mais relevantes sobre a economia digital.

Blog Porta 23