Os sistemas de inteligência artificial carregam o risco de acentuar preconceitos históricos se utilizarem bases de dados enviesadas

E A DIVERSIDADE

Inteligência artificial

imagem: vinícius de araujo POR:  Giovanne ramos

Você já parou para pensar que a forte presença da tecnologia em nossas rotinas diárias nos expõe a riscos, desafios e muitas vezes altera as nossas decisões?

Os algoritmos estão presentes nos sistemas de busca de informações, nas redes sociais, nos aplicativos de mobilidade e de trânsito, previsão do tempo e outros tantos.

Acabamos utilizando tanto esse sistema de informação sem sequer nos darmos conta de que estamos entregando dados pessoais valiosos para as empresas negociarem com terceiros.

O debate em torno da inteligência envolve princípios éticos. A ONU pediu, em outubro de 2021, a suspensão de alguns sistemas invasivos até que haja a regulamentação sobre a sua utilização.

"A Inteligência Artificial já faz parte das nossas vidas, mas é preciso cuidar para que não seja um instrumento de discriminação, que invade a nossa privacidade e mina os nossos direitos"

- Peggy Hicks, diretora no gabinete da Alta Comissária da ONU

A chefe da Unesco, Audrey Azoulay, disse que o mundo precisa de regras sobre a inteligência artificial para que toda a humanidade seja beneficiada.

fotografia: reprodução

Para a UNESCO, a IA é boa para a humanidade, mas precisa ter seus riscos reduzidos e talvez avançar de forma um pouco mais lenta para que a sociedade tenha tempo de digerir as mudanças e a avaliar seus impactos.

No Brasil, é consenso que não se deve coibir o avanço tecnológico da Inteligência Artificial, mas zelar para que regras de uso evitem que a tecnologia se transforme em instrumento potencializador das desigualdades.

- victor goís no vídeo "Como um algoritmo pode ser racista?"

"Quando sua base de dados está contaminada com viés racista, onde pessoas de pele escura são menos identificadas de maneira correta do que pessoas de pele branca, aí temos um problema”

Um sistema de scoring de crédito baseado em inteligência artificial não pode, por exemplo, considerar dados de geolocalização, raça, credo e orientação sexual para a concessão de crédito.

Se o fizesse, o sistema poderia indicar que moradores de uma determinada região oferecem maior propensão à falta de pagamento ou obrigações, o que poderia acentuar a desigualdade.

A mesma lógica serve para um aplicativo de recrutamento e seleção. Há sério risco do sistema reforçar perfis historicamente distorcidos pelo preconceito, mesmo sob intervenção humana.

Se o sistema entender, por exemplo, que o padrão para um presidente de empresa é de um homem branco variando entre 40 e anos, isso pode dificultar o acesso do recrutador a currículos de pessoas com outros perfis.

TEXTOS
Giovanne Ramos

IMAGENS
Época Negócios
EPA-EFE
Canal Victor Góis
Vinícius de Araujo - Alma Preta


DESIGN
Vinícius de Araujo

CONHEÇA MAIS
HISTÓRIAS PRETAS

BLACKSTORIES