WEF pretende criar um código de ética global para a Inteligência Artificial
"Culturas diferentes têm valores diferentes, e a Inteligência Artificial é uma tecnologia que pode codificar valores", diz Jack Clark, da OpenAI, uma empresa de Inteligência Artificial (IA) de San Francisco, apoiada por grandes investidores do Vale do Silício. "Quais valores devemos codificar em um sistema, a partir de uma perspectiva global?"
Essa é a pergunta que um encontro promovido pelo Fórum Econômico Mundial (WEF) nesta quarta-feira, 29 de maio, em São Francisco, pretende começar a responder. O debate é de suma importância, diante da geopolítica atual que vem colocando em lados opostos duas potências da IA: a China e os Estados Unidos.
O evento pretende reunir dezenas de especialistas, incluindo representantes das Nações Unidas e da Unicef, formuladores de políticas e executivos de empresas como Microsoft, IBM, e a gigante de seguros e tecnologia chinesa Ping An, para começar a definir processos capazes de determinar e julgar a responsabilização algorítmica.
Empresas, governos e outros atores precisarão fazer escolhas explícitas ao codificar protocolos de resposta para situações variadas nas quais os sistemas de IA decidirão no lugar das pessoas, pontuam os autores de um artigo publicado recentemente no site do Fórum.
"O papel que o WEF desempenha é o de uma organização internacional imparcial", disse Kay Firth-Butterfield, chefe de IA e Machine Learning do Fórum, em entrevista ao MIT Technology Review. O objetivo é tentar preencher lacunas de governança da IA, a partir de uma perspectiva global.
O evento é uma das iniciativas do Centro para a Quarta Revolução Industrial do WEF e do seu "Global AI Council", criado em janeiro, durante o encontro anual da entidade em Davos. Será a primeira reunião do conselho, co-presidido pelo CEO da Sinovation Ventures, Kai-Fu Lee, e pelo Presidente da Microsoft, Bradford L. Smith.
Já a governança global da IA é tema de um relatório publicado no site do Fórum no início deste mês.
Até aqui, várias nações já anunciaram planos de IA que prometem priorizar o financiamento, o desenvolvimento e a aplicação da IA. Mas os esforços para construir um consenso sobre como a tecnologia deveria ser governada foram deixados em segundo plano.
"Além das políticas nacionais de Inteligência Artificial, o que também podemos fazer internacionalmente, juntos? Acredito haver um sentimento definitivo de que os países tentarão trabalhar juntos para resolver algumas dificuldades comuns em torno da IA", afirma Kay Firth-Butterfield.
Ela está certa.
Em abril deste ano, a UE divulgou diretrizes para o uso ético da Inteligência Artificial. A Organização para Cooperação e Desenvolvimento Econômico (OCDE), uma coalizão de países dedicada à promoção da democracia e do desenvolvimento econômico, também anunciou este mês um conjunto de princípios balizadores para a IA, que já conta com a adesão de várias nações, incluindo o Brasil.
Mas é possível avançar mais.
ID: {{comments.info.id}}
URL: {{comments.info.url}}
Ocorreu um erro ao carregar os comentários.
Por favor, tente novamente mais tarde.
{{comments.total}} Comentário
{{comments.total}} Comentários
Seja o primeiro a comentar
Essa discussão está encerrada
Não é possivel enviar novos comentários.
Essa área é exclusiva para você, assinante, ler e comentar.
Só assinantes do UOL podem comentar
Ainda não é assinante? Assine já.
Se você já é assinante do UOL, faça seu login.
O autor da mensagem, e não o UOL, é o responsável pelo comentário. Reserve um tempo para ler as Regras de Uso para comentários.