top of page
Inserir um título (5) (1).jpg

Os algoritmos, reproduzem os mesmos padrões de exclusão e discriminação que marcam a história do racismo institucional

Em 2021, um relatório do MIT Media Lab revelou que sistemas de reconhecimento facial utilizados por governos e empresas de tecnologia apresentavam taxas de erro superiores a 30% na identificação de rostos negros e asiáticos, enquanto mantinham uma precisão acima de 95% para rostos brancos masculinos. A conclusão, que poderia parecer um simples “problema técnico”, aponta para algo mais profundo e estrutural: os algoritmos, supostamente neutros e objetivos, reproduzem — com notável eficiência — os mesmos padrões de exclusão e discriminação que marcam a história do racismo institucional.


© LEX BY RUSLAN RAKHMATOV
© LEX BY RUSLAN RAKHMATOV


É importante reconhecer que os sistemas algorítmicos operam com base em dados históricos. O problema, portanto, não está apenas nos códigos, mas nos dados que alimentam esses sistemas — dados que emergem de contextos sociais profundamente marcados por desigualdades raciais. Quando um algoritmo policial “aprende” a identificar comportamentos suspeitos com base em bancos de dados criminais de países como Estados Unidos, Brasil ou Reino Unido, o que ele internaliza não é uma descrição objetiva do crime, mas um histórico de policiamento seletivo, majoritariamente concentrado sobre populações negras e periféricas.


No Brasil, o caso de dois jovens negros erroneamente presos com base em sistemas de reconhecimento facial na Bahia (2019 e 2020), ambos posteriormente inocentados, gerou indignação pontual, mas pouco debate estrutural. A imprensa tratou os casos como falhas isoladas. As autoridades prometeram “aprimorar os sistemas”. A tecnologia, curiosamente, manteve sua aura de neutralidade — como se a culpa fosse de um erro técnico acidental, e não da lógica de segurança pública que criminaliza sistematicamente. Segundo levantamento da Rede de Observatórios da Segurança, entre 2019 e 2021, 90% das pessoas presas por reconhecimento facial no Brasil eram negras. O dado não sugere uma coincidência estatística, mas um padrão.


Em termos internacionais, o padrão se repete. Nos Estados Unidos, a ACLU (American Civil Liberties Union) demonstrou em 2018 que o software Rekognition, da Amazon, identificou erroneamente 28 parlamentares estadunidenses como criminosos — com taxa de erro significativamente maior entre congressistas negros. A Polícia Metropolitana de Londres também enfrenta críticas recorrentes por adotar sistemas que falham desproporcionalmente ao reconhecer rostos não brancos. Esses episódios não impedem, curiosamente, o uso contínuo dessas ferramentas, o que revela que sua função real talvez não seja a precisão, mas a legitimação de práticas de controle seletivo com aparência de eficiência técnica.


A contradição entre o discurso oficial e a prática é notável. As corporações tecnológicas, assim como os governos que contratam seus serviços, se autoproclamam defensores dos direitos humanos, da inovação inclusiva e da diversidade. Seus relatórios anuais e compromissos públicos em fóruns multilaterais como o World Economic Forum ou os encontros da UNESCO sobre ética da inteligência artificial estão repletos de menções à igualdade racial, responsabilidade algorítmica e justiça social. Entretanto, as tecnologias que promovem — e lucram com — continuam operando sobre lógicas de exclusão racial e classista, geralmente com respaldo jurídico, cobertura institucional e indiferença midiática.


Esse determinismo tecnológico, celebrado tanto por tecnocratas quanto por formuladores de políticas, ignora que tecnologias não são neutras, tampouco surgem em vácuos históricos. São produtos de contextos, valores, interesses e relações de poder. Ao se tornarem ferramentas de policiamento, julgamento e decisão automatizada, os algoritmos incorporam — com brutal eficiência — as desigualdades raciais do presente, sob a aparência de inovação científica.


Não se trata, portanto, de corrigir “viés algorítmico” com mais diversidade nos dados, como sugerem algumas soluções tecnocráticas. Isso equivale a tentar tornar mais “inclusivo” um aparato de vigilância seletiva, sem questionar o modelo de segurança pública e o papel estrutural da tecnologia na gestão de populações indesejadas. O problema não está apenas na distorção, mas na função. O algoritmo, nesse caso, não falha: ele cumpre sua tarefa. Assim como os antigos métodos de controle racial — das passagens internas nas colônias, às políticas de “suspeição” nas cidades modernas —, o algoritmo serve à mesma lógica: selecionar, vigiar, punir.

Tags:

 
 
 

Comentários


ADQUIRA UMA DAS VERSÕES DA EDITORA CLANDESTINO.

Ao adquirir um de nossos arquivos, você contribui para a expansão de nosso trabalho.

LEIA ON-LINE

“Pátria ou Morte!”  Che Guevara
01:08
Thomas Sankara responde “Por que você disse não aorecebimento de ajuda humanitária?”
01:29
A história do mundo por Ghassan Kanafani (1970)
00:21
Promessas Vazias de Justiça e Liberdade nos Estados Unidos
01:27
Aliança estratégica entre Rússia e China
01:00
Salve o Sudão!
01:00
Kim Jong Un inspeciona corpo de elite do Exército norte-coreano
00:45
"Quem te priva da liberdade não merece uma aboradagem pacífica" Malcolm X
00:28
bottom of page