Criando uma inteligência artificial ética

Com o uso cada vez maior da inteligência artificial, surgiu a necessidade de pensar em como garantir que ela seja ética.

Na Espanha, duas empresas de tecnologia, a Sngular e a Eticas, estão criando um modelo para projetar sistemas de inteligência artificial (IA) éticos. Reunindo equipes multidisciplinares com engenheiros, juristas, assistentes sociais e filósofos, elas querem programar algoritmos que atendam aos chamados “padrões de alto impacto”: saúde, emprego, educação, segurança, serviços sociais e justiça.

Enquanto a Sngular desenvolve softwares, a Eticas é especializada em auditar algoritmos. A ideia delas será desenvolver, em conjunto, auditorias em códigos de bancos de dados específicos para identificar cerca de 20 pontos de viés da inteligência artificial.

Isso porque a IA tende a reproduzir preconceitos e problemas já existentes na sociedade, ao mesmo tempo em que é cada vez mais usada por empresas e governos. No mercado financeiro, por exemplo, os algoritmos podem tomar decisões sexistas comuns no setor, que tradicionalmente é sub-representado por mulheres. É nessa hora que a “auditoria algorítmica” entraria para corrigir as distorções.

A metodologia, inédita na Espanha, evitaria possíveis efeitos negativos como esses antes que eles pudessem acontecer. Embora isso signifique que os sistemas precisarão de mais tempo para poderem ser colocados em funcionamento, por outro lado, os resultados serão mais limpos.

Segundo disse em entrevista ao El Pais a conselheira da Eticas, Gemma Galdon, um engenheiro não teria necessariamente a formação para entender o contexto e o impacto social da ferramenta que ele aplica e desenvolve. Daí a necessidade de se terem equipes multidisciplinares. “Para construir um edifício são necessários arquitetos, pedreiros, eletricistas, encanadores”, disse. “Não se poderia confiar todo trabalho a um eletricista, mas é o que fazemos nas tecnologias de alto impacto”.

A novidade vem em linha com as decisões mais recentes da União Europeia, que prepara uma diretiva com medidas de supervisão para os sistemas de inteligência artificial que se apliquem a atividades sensíveis, nas quais qualquer erro do algoritmo pode ter impactos importantes.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

This site is protected by reCAPTCHA and the Google Privacy Policy and Terms of Service apply.