Maurício Moura
Vivemos imersos em algoritmos. Das redes sociais aos sistemas de saúde, essas fórmulas matemáticas moldam nossa realidade digital. Mas há um segredo sujo: algoritmos não são neutros. Eles refletem preconceitos humanos e interesses corporativos, transformando discriminação em negócio. Neste artigo, revelamos como o viés algorítmico se tornou um produto rentável para Big Techs e o que podemos fazer para frear essa máquina de desigualdade 1.
A grande ilusão da neutralidade tecnológica
A ideia de que algoritmos são imparciais é um mito perigoso. Estudos mostram que esses sistemas codificam nossos piores vieses 2:
- Viés de dados: Conjuntos de treinamento incompletos. Exemplo: sistemas médicos que falham em diagnosticar mulheres negras porque bancos de imagens priorizam peles claras 3.
- Viés de design: Escolhas técnicas enviesadas. Caso clássico: algoritmo de recrutamento da Amazon que rejeitava currículos com palavras como “clube feminino” 4.
Como alerta a pesquisadora Cathy O’Neil, esses sistemas são “armas de destruição matemática”: transformam preconceitos históricos em barreiras digitais intransponíveis 1.
Mapa dos vieses: onde a discriminação se esconde
Os algoritmos não discriminam por acidente, eles seguem padrões sistêmicos que podemos mapear e combater. Nesta tabela, desvendamos os 6 tipos mais perigosos de viés algorítmico, mostrando exatamente onde se escondem, como operam e quem prejudicam no mundo real. Conhecer esses mecanismos é o primeiro passo para desarmá-los:
| Tipo de Viés | Como Acontece | Exemplo Real | Impacto Social |
|---|---|---|---|
| Dados | Sub-representação em dados | Diagnósticos médicos imprecisos para mulheres negras | Exclusão em saúde |
| Confirmação | Busca por engajamento | Bolhas ideológicas no TikTok durante eleições | Polarização política |
| Econômico | Lógica de mercado | Precificação dinâmica em apps como 99Pop | Desigualdade social |
| Moderação | Treinamento insuficiente | Censura a conteúdos indígenas no YouTube | Apagamento cultural |
| Loop de Feedback | Retroalimentação de padrões | Recomendações de emprego com estereótipos de gênero | Perpetuação de desigualdades |
| Proxy | Variáveis indiretas | Sistemas de crédito usando CEP como indicador de renda | Exclusão financeira |
Big Techs: a máquina de lucrar com a discriminação
Algoritmos são armas de acumulação capitalista. Dados de 2024 revelam que 72% das empresas brasileiras usam IA para marketing, transformando comportamentos humanos em commodities 5. Os trade-offs são perversos:
- TikTok prioriza conteúdos extremos para manter você rolando a tela, amplificando polarização6.
- Facebook Ads segmentava anúncios de emprego por raça até ser proibido por lei7.
- Deliveroo usava algoritmos para punir entregadores com responsabilidades familiares na França8.
Aqui mora o paradoxo sujo: quanto mais enviesado o algoritmo, mais lucrativo ele se torna. Vieses geram engajamento, engajamento gera dados, dados geram lucro.
Casos reais que chocaram o mundo
Prepare-se para conhecer o lado sombrio da inteligência artificial: esses não são cenários hipotéticos, mas escândalos reais que expuseram como algoritmos reproduzem discriminação em escala industrial. Do RH às salas de aula e hospitais, revelamos como sistemas digitais transformaram vieses humanos em barreiras sistêmicas – e quem lucrou com isso.
Trabalho: quando máquinas herdam preconceitos
O algoritmo de recrutamento da Amazon rejeitava sistematicamente currículos femininos. Motivo? Foi treinado com dados históricos de uma indústria dominada por homens4.
Educação: o apartheid digital
No Brasil, 44% dos jovens de 9-17 anos não têm internet nas escolas. Plataformas como Google Classroom aprofundam desigualdades:
- Sistemas de correção automática penalizam regionalismos linguísticos 9
- Estudantes de periferia têm menos acesso a ferramentas digitais 10
Saúde: racismo programado
Algoritmos dermatológicos têm até 50% menos precisão para diagnosticar câncer de pele em pacientes negros 11. Pior: sistemas de triagem para transplantes consideravam negros “mais saudáveis” que brancos com mesma condição 12.
Como desarmar os algoritmos preconceituosos
Não há solução mágica, mas caminhos promissores para minimizar os riscos:
- Transparência Radical
Auditorias independentes e direito à explicação (como no GDPR europeu) 4. - Governança Ética
Comitês com especialistas em equidade racial e representantes de grupos vulneráveis 13. - Regulação Corajosa
Leis como o PL 2.338/2023 no Brasil, que criminaliza sistemas discriminatórios 14.
Algoritmos são espelhos ampliados
Os vieses algorítmicos revelam uma verdade desconfortável: tecnologia reflete quem a cria. Enquanto Big Techs lucram bilhões com engajamento tóxico, comunidades marginalizadas pagam o preço.
A solução não é técnica, mas política. Precisamos escolher entre eficiência cega ou justiça digital. Como bem resume Cathy O’Neil: “Algoritmos são espelhos amplificados de nossas falhas coletivas”. Cabe a nós quebrá-los antes que cristalizem um futuro de exclusão algorítmica 1.
Leia o artigo completo:
A inevitabilidade do viés: algoritmos, humanidade e poder corporativo
Referências
- O’NEIL, C. Algoritmos de destruição em massa: Como o Big Data aumenta a desigualdade e ameaça a democracia. Rua do Sabão, 2021. ISBN 978-6586460025. ↩︎ ↩︎ ↩︎
- HOLDSWORTH, J. O que é viés da IA? IBM, 2023. ↩︎
- FERRARI, I. Discriminação algorítmica e poder judiciário: limites à adoção de sistemas de decisões algorítmicas no judiciário brasileiro. Emais, 2023. ISBN 978-6585073417. ↩︎
- VIANA, G. M. D. L.; MACEDO, C. S. D. Inteligência artificial e a discriminação algorítmica: uma análise do caso Amazon. Direito & TI, 2024. ↩︎ ↩︎ ↩︎
- RAMOS, M. Uso de Inteligência Artificial aumenta e alcança 72% das empresas, diz pesquisa. CNN Brasil, 2024. ↩︎
- DILMEGANI, C. Bias in AI: Examples and 6 Ways to Fix it in 2025. AI Multiple Research, 2025. ↩︎
- CARLOTO, S. Discriminação Algorítmica. Mizuno, 2023. ISBN 978-6555267464. ↩︎
- PEROTTO, J. et al. Deliveroo France sentenced for undeclared work: a step towards reconsideration of the delivery platform business model?. Alerion Avocats, 2022. ↩︎
- HEGGLER, J. M. et al. As dualidades entre o uso da Inteligência Artificial na educação e os riscos de vieses algorítmicos. Educação & Sociedade, 2025. ↩︎
- CNTE. Desigualdade no acesso à internet impacta qualidade da educação. Confederação Nacional dos Trabalhadores em Educação, 2023. ↩︎
- CROSS, J. L. et al. Bias in medical AI: Implications for clinical decision-making. PLOS digital health, 2024. ↩︎
- JINDAL, A. Misguided Artificial Intelligence: How Racial Bias is Built Into Clinical Models. Brown Hospital Medicine, 2022. ↩︎
- BACKMAN, I. Eliminating Racial Bias in Health Care AI: Expert Panel Offers Guidelines. Yale School of Medicine, 2023. ↩︎
- HASANZADEH, F. et al. Bias recognition and mitigation strategies in artificial intelligence healthcare applications. npj Digital Medicine, 2025. ↩︎
Pingback: Por que a Inteligência Artificial é inimiga do clima | Livre Pensamento
Pingback: O espelho vazio: a ilusão por trás da “inteligência” artificial | Livre Pensamento
Pingback: COP30 e Cúpula dos Povos: as duas faces da mesma farsa verde | Livre Pensamento