Um estudo recente do FGV Ibre, baseado em dados do LinkedIn e do Stanford Index 2025, expõe uma realidade preocupante no mercado brasileiro de inteligência artificial (IA): a concentração de homens neste sector ultrapassa significativamente a média global, com o desequilíbrio de género a aprofundar-se no país, contrariando a tendência mundial. Enquanto a média internacional aponta para 69,5% de profissionais masculinos e 30,5% femininos na IA, o Brasil regista uma participação masculina superior em 7,6 pontos percentuais, situando-se acima dos 77% – um patamar idêntico ao do Chile, mas alarmante face ao contexto global.
Esta disparidade não se limita a números abstractos; traduz-se em consequências tangíveis e preocupantes. Flávio Ataliba, investigador do FGV Ibre, alerta para dois riscos directos: o agravamento da disparidade de rendimentos entre homens e mulheres e a reprodução de algoritmos enviesados. O estudo introduziu o Hiato de Género da Concentração em IA (HCG-IA), um termómetro que mede o engajamento em IA dentro dos mercados de trabalho feminino e masculino. No Brasil, apenas 0,11% das mulheres com presença no LinkedIn estão envolvidas em actividades de IA, contra 0,37% dos homens – um fosso que reflecte uma sub-representação feminina crítica.
O Brasil, que concentra mais de 90% da capacidade de supercomputação da América Latina e se posiciona como protagonista natural na revolução da IA na região, está paradoxalmente a perder terreno num vector crucial de inclusão. Ataliba sublinha que este desvio compromete a qualidade e a ética da transformação digital do país, levando a um “empobrecimento da produtividade agregada”. A análise revela ainda um ciclo vicioso: actividades maioritariamente ocupadas por mulheres, como tarefas administrativas e de suporte, são mais susceptíveis de serem substituídas por IA, ampliando assim as desigualdades históricas de género e rendimento.
A diversidade limitada nas equipas de IA não é apenas uma questão ética, mas também técnica e comercial. Pierre Lucena, presidente do Porto Digital, alerta que equipas pouco diversas tendem a desenvolver algoritmos menos sensíveis à diversidade social, resultando em soluções menos robustas, menos confiáveis e mais propensas a erros em escala. Este efeito é particularmente visível quando se analisa a tecnologia através de recortes raciais, exacerbando ainda mais as disparidades.
Contudo, há excepções e soluções emergentes. Laiza Sobral, analista de IA na Accenture, destaca como a perspectiva feminina pode enriquecer o desenvolvimento tecnológico, questionando decisões puramente técnicas e incentivando diálogos com os utilizadores finais. Iniciativas como o processo seletivo do Cesar, que incorpora marcadores sociais, demonstram que é possível inverter esta lógica: 50,3% dos seus participantes são mulheres, pessoas trans e não binárias, oferecendo um modelo promissor para um futuro mais inclusivo.
Fonte: Valor Econômico
