PUBLICIDADE
PUBLICIDADE
Pesquisar
Close this search box.

Como os algoritmos das redes sociais são impactados pelo racismo?

21 de outubro de 2020

Especialistas explicam que, para além das redes sociais, as tecnologias são influenciadas pelo racismo e servem como instrumento para amplificar as disparidades

Texto: Flávia Ribeiro | Edição: Nataly Simões | Imagem: Marta Branco/Pexels

Quer receber nossa newsletter?

Você encontrá as notícias mais relevantes sobre e para população negra. Fique por dentro do que está acontecendo!

Há algumas semanas, nas redes sociais, pessoas negras trocaram suas fotos por fotos de pessoas brancas e relataram conseguir maior alcance em suas publicações. O assunto levantou debate sobre o racismo por trás dos algoritmos, que são elementos fundamentais nas redes sociais. Aparentemente neutras, as tecnologias são pensadas e realizadas por profissionais brancos.

Por não serem visíveis, os algoritmos aparentemente estão distantes da vida das pessoas, mas não é bem assim. Em entrevista ao Alma Preta, Tarcizio Silva, Tech + Society Fellow na Mozilla Foundation, divide quatro grandes áreas em que os algoritmos podem influenciar coletivamente a vida das pessoas, com danos potenciais, como em perdas de oportunidades relacionadas a habitação, educação, emprego; perda financeira, como no caso de acesso a crédito ou preços diferenciais; estigmatização social, como reforço de estereótipos em mecanismos de busca e na necropolítica, quando sistemas de reconhecimento facial ou policiamento preditivo promovem o genocídio negro.

O algoritmo é uma série de instruções que implementam um tipo de procedimento, tal como cruzamento de dados. Na era digital e computacional, os algoritmos representam inúmeros sistemas, comumente baseados em inteligência artificial, que automatizam decisões e processos. “Chamo de ‘sistemas algorítmicos’ a rede de tecnologias e as decisões que elas tomam e quem delegou estas decisões a tais sistemas, para quais fins e afetando quais tipos de pessoas” , diz Tarcizio.

O profissional cita como exemplo um escore financeiro, que é um conjunto de sistemas algorítmicos que estabelece indicadores de risco sobre cidadãos quanto a seu potencial de consumo e segurança financeira. Entretanto, são desenvolvidos e implementados de forma assimétrica defendendo sobretudo as empresas financeiras, credores e clientes corporativos dos sistemas de escore e perfilação. “Os cidadãos, vistos apenas como consumidores, precisam ajustar seus comportamentos de acordo com tais escores para não perder oportunidades de vida e acesso a recursos”, explica.

tarciziosilva minJá quem usa as redes sociais sente o impacto desses sistemas na ordenação de conteúdo e comportamento nas plataformas de mídias sociais. Segundo o pesquisador, as plataformas são moldadas por um número cada vez maior de algoritmos que aplicam inteligência artificial para fins como moderação de texto, recomendação de conteúdo, reconhecimento facial, etiquetamento de imagens e outros.

Silva ainda cita uma situação peculiar de uma dessas redes, que escolhe automaticamente quais conteúdos gerar visibilidade ou não a amigos, seguidores ou fãs. “Aqui temos um risco gigantesco à democracia e aos direitos humanos na medida em que tais plataformas podem moldar o que as pessoas veem no seu dia a dia e, portanto, agendar e enquadrar temas ou até sentimentos”, revela.

A aparente neutralidade desses sistemas tem agido como um promotor de violações a direitos humanos. “Aqui tenho usado especialmente o termo ‘sistema algorítmico’ para relembrar que um software, modelo estatístico ou de aprendizado de máquina não existe em um vácuo. Não se trata apenas de código, mas sim a materialização de relações econômicas, raciais e de poder em um sistema que pressupõe visões de mundo, entradas de dados, saídas de resultados e objetivos específicos”, pontua o profissional.

Como exemplo, há o uso de reconhecimento facial para policiamento, que vem se demonstrando extremamente equivocado em todo o mundo, com estudos comprovando a imprecisão na identificação de pessoas, sobretudo pessoas não-brancas.  “Esta imprecisão aparentemente técnica é fruto de como os criadores – desenvolvedores, detentores e empresários – de tais sistemas percebem diferencialmente a humanidade dos diferentes grupos populacionais. Para alguns grupos, taxa de erros maiores são ignoradas”, salienta Silva.

“As pessoas reproduzem o racismo nas tecnologias”

A pesquisa #QuemCodaBr, publicada em 2019, mostra que os brancos representam 58,3% dos profissionais de tecnologia, e os negros, 36,9%. Os amarelos são 4% e os indígenas apenas 0,3%. A maior parte dos profissionais é heterosexual (78,9%), com apenas 10,2% de homossexuais, 7,8% de bissexuais e 2% de pansexuais.

Outro dado  é que os homens representam 68% dos profissionais de tecnologia, segundo a pesquisa, enquanto mulheres são 31,5%, e pessoas intersexo, 0,3%. O estudo é da PretaLab, iniciativa de inclusão de mulheres negras na inovação e na tecnologia, e do ThoughtWorks, consultoria global de software.safira moreira Olabi Silbahia min

Para Sil Bahia, diretora de projetos do Olabi e coordenadora do PretaLab, esse perfil é um reflexo das dificuldades que pessoas negras enfrentam diariamente e nem percebem. Ela cita o dispenser de sabão, que não reconhece peles negras e, por isso, muitas vezes não libera o líquido. Além disso, mais de 90% das prisões feitas por reconhecimento facial foi de pessoas negras. Há ainda os filtros para fotos nas redes sociais, que em grande parte, afinam o nariz e clareiam a pele.

“As pessoas querem saber qual o erro no código no desenvolvimento das tecnologias, mas esse erro vem antes do desenvolvimento. As pessoas reproduzem o racismo nas tecnologias porque o racismo é um dos pilares da sociedade”, destaca.

Um dos caminhos para combater o racismo nas tecnologias é ampliar a diversidade das pessoas que produzem essas ferramentas. Uma das iniciativas nesse sentido é o PretaLab, que dentre outras ações, mantem uma plataforma permanente com nomes de mulheres negras de todas as regiões do país. “Isso significa ter mais mulheres negras produzindo, pensando, criticando, analisando tecnologia. A plataforma tem três objetivos, pelo menos. Um que a gente se conheça entre nós; outro, que possamos jogar mais luz nos trabalhos dessas mulheres e também queremos dar uma resposta para o mercado de trabalho que diz que não encontra mulheres negras qualificadas para a área da tecnologia”, frisa Sil.

Fotos internas: Arquivo Pessoal de Tarcizio Silva/Sil Bahia por Safira Moreira/Olabi

Leia Mais

PUBLICIDADE

Destaques

AudioVisual

Podcast

papo-preto-logo

Cotidiano