Victor Gomes Soares De Barros 4

Algoritmos como recrutadores: O direito está preparado para enfrentar a exclusão digital de grupos vulneráveis?

Postado em 29 de outubro de 2025 Por Victor Gomes Soares De Barros Graduação em Direito pela FDR/UFPE. Membro do Instituto Brasileiro de Ciências Criminais. Diretor de Pesquisa e de Produção Científica da Associação Pernambucana de Jovens Juristas. Autor em Direito e tecnologia.

A tecnologia prometia democratizar oportunidades. Em vez disso, tem automatizado a exclusão. Quando uma nutricionista mestra em Ciências Sociais recebe recomendações de vagas para auxiliar de serviços gerais no LinkedIn, ou quando a Amazon descobre que seu sistema de recrutamento penalizava currículos que continham a palavra “mulher”, não estamos diante de meras falhas técnicas. Estamos testemunhando a digitalização do racismo e do sexismo que marcam nossa sociedade.

O recrutamento na era digital deveria representar um avanço. Algoritmos, em tese, não têm preconceitos. Mas a realidade mostra o contrário: essas ferramentas aprendem com dados históricos que refletem séculos de discriminação. Se, durante dez anos, uma empresa contratou majoritariamente homens brancos, o algoritmo aprenderá que esse é o “perfil ideal”. O resultado? A perpetuação, em escala industrial, das mesmas exclusões que o Direito busca combater há décadas.

Quando a discriminação se torna invisível

O racismo algorítmico não é abstrato. Ele se materializa quando sistemas de inteligência artificial reproduzem e amplificam preconceitos por meio de processos aparentemente neutros. Diferente do racismo explícito, essa discriminação opera de maneira quase invisível, embutida em códigos e bases de dados.

O caso da Amazon é emblemático. Em 2014, a empresa desenvolveu um sistema de inteligência artificial para automatizar a seleção de currículos. O algoritmo deveria analisar cem candidatos e selecionar os cinco melhores. O problema? O sistema foi treinado com dados dos últimos dez anos, período em que a maioria dos currículos recebidos era de homens. O resultado foi previsível: o algoritmo aprendeu que candidatos masculinos eram preferíveis e passou a penalizar currículos que mencionavam a palavra “mulheres” ou que vinham de universidades exclusivamente femininas.

No Brasil, casos no LinkedIn repetem o padrão. Bruna Oliveira, nutricionista com mestrado e atuação como pesquisadora, recebeu recomendações exclusivas para vagas de auxiliar de serviços gerais. O caso foi relatado em uma postagem na rede social Instagram, através de seu perfil, @brunacriola, no dia 26 de maio de 2025.

A profissional enfatiza: “E está tudo bem quem busca trabalho como profissional de serviços gerais via essa rede social, mas quais os critérios que o algoritmo das redes utilizam e julgam do algo da sua inteligência artificial o que mais combina com o meu perfil: serviços gerais. Por quê? Por quê?! Alguém pode me responder? (…) Isso não é um simples erro, vejam na sequência. Tem uma lista reservada para caso eu não querer a primeira. (…) AVISA O LINKEDIN QUE A NETA E FILHA DE DIARISTA NÃO VAI LIMPAR PRIVADA! (…) Não é burrice de robô é o RACISMO que fede dessa BRANQUITUDE NOJENTA que tá atrás dessa merda desse robô!!!!!! NÃO É ACIDENTE!!!!”.

Outras profissionais negras relataram experiências semelhantes: jornalistas recebendo sugestões para vagas de recepcionista e diarista, farmacêuticas sendo direcionadas para posições incompatíveis com suas qualificações. O elo comum? Todas são mulheres negras.

A fragilidade do trabalhador diante da caixa preta

A discriminação algorítmica encontra terreno fértil nas relações de trabalho. A assimetria de poder entre empregador e empregado é amplificada pela opacidade dos algoritmos. O trabalhador não sabe por quais critérios foi rejeitado, não consegue contestar a decisão e sequer compreende o processo que o excluiu.

São pessoas que já enfrentavam barreiras e agora veem essas exclusões serem automatizadas e multiplicadas no ambiente digital. Empregadores possuem acesso a quantidade massiva de dados pessoais que alimentam sistemas opacos. O trabalhador, por sua vez, está exposto sem instrumentos efetivos de proteção.

Os algoritmos de recrutamento são considerados segredos industriais, verdadeiras “caixas pretas”. Empresas justificam a falta de transparência alegando proteção de propriedade intelectual. Mas esse sigilo impede a identificação de vieses discriminatórios e inviabiliza qualquer forma de controle sobre essas tecnologias.

Quando a lei existe, mas não funciona

O Brasil, até certo ponto, não está despreparado normativamente. A Constituição Federal veda qualquer forma de discriminação. A Lei nº 9.029/95 proíbe práticas discriminatórias na contratação. A CLT estabelece princípios de não discriminação e igualdade de oportunidades. E a Lei Geral de Proteção de Dados prevê instrumentos específicos para combater a discriminação algorítmica.

O artigo 20 da LGPD garante ao trabalhador o direito de solicitar revisão de decisões tomadas exclusivamente com base em tratamento automatizado. O controlador deve fornecer informações claras sobre os critérios utilizados. Em tese, isso deveria garantir transparência e possibilidade de contestação.

Mas a teoria está distante da prática. Primeiro, porque o artigo 20 só se aplica a decisões tomadas “exclusivamente” por sistemas automatizados. Basta que haja mínima intervenção humana,  mesmo que meramente formal, para que o dispositivo não incida. Segundo, porque a LGPD não especifica o que significa “informações claras”. Empresas podem fornecer explicações genéricas e tecnicamente incompreensíveis, esvaziando o direito à explicação.

Além disso, a LGPD estabelece princípios como não discriminação e transparência, mas não prevê mecanismos concretos de auditoria externa dos algoritmos. Sem instrumentos de verificação independente, como garantir que sistemas de inteligência artificial não estão perpetuando discriminações?

A proposta de regulamentação da inteligência artificial em tramitação no Congresso também apresenta fragilidades. Embora preveja proteção aos trabalhadores e estabeleça princípios de transparência, o texto não detalha como essas garantias serão efetivadas. Faltam previsões sobre auditabilidade obrigatória, inversão do ônus da prova em casos de discriminação algorítmica e sanções efetivas para empresas que utilizem sistemas enviesados.

O que precisa mudar

O primeiro problema é a falta de transparência efetiva. Não basta prever o direito à explicação se as empresas podem se escudar no segredo industrial. É necessário estabelecer um regime de auditabilidade obrigatória, com revisões independentes periódicas dos sistemas utilizados em processos de recrutamento.

O segundo é a ausência de inversão do ônus da prova. Quando um grupo vulnerável demonstra que determinado algoritmo produz resultados desproporcionalmente excludentes, deveria caber à empresa provar que o sistema não é discriminatório. Atualmente, o ônus recai sobre o trabalhador, que sequer tem acesso aos dados e critérios utilizados.

O terceiro é a necessidade de avaliações de impacto em direitos humanos antes da implementação de sistemas algorítmicos. Assim como existe estudo de impacto ambiental, deveria haver avaliação de impacto discriminatório antes que algoritmos sejam utilizados em decisões que afetem trajetórias profissionais.

O quarto ponto é o fortalecimento da fiscalização. A Autoridade Nacional de Proteção de Dados e o Ministério do Trabalho precisam de estrutura e expertise técnica para auditar sistemas de inteligência artificial. Sem fiscalização efetiva, a legislação mais avançada se torna letra morta.

Por fim, é fundamental reconhecer que a neutralidade algorítmica é um mito. Algoritmos refletem as escolhas de quem os desenvolve e os dados com que são treinados. Se a sociedade é racista e excludente, os algoritmos também serão — a menos que medidas ativas sejam tomadas para prevenir e corrigir vieses.

Por trás dos algoritmos, há pessoas

O uso de algoritmos em processos de recrutamento não é, em si, um problema. A tecnologia pode trazer eficiência e ampliar o alcance das oportunidades. Mas quando sistemas automatizados reproduzem e amplificam exclusões históricas, algo está profundamente errado.

O direito ao trabalho digno não pode ser sacrificado no altar da eficiência algorítmica. A dignidade da pessoa humana não pode ser relativizada por segredos industriais ou pela opacidade de códigos de programação. Se o Direito não estabelecer limites claros e instrumentos efetivos de controle, a promessa de igualdade permanecerá apenas isso: uma promessa.

É urgente que o Direito brasileiro avance. Não apenas na previsão de princípios genéricos, mas na construção de mecanismos concretos que garantam transparência, auditabilidade e responsabilização. É necessário inverter o ônus da prova, estabelecer avaliações de impacto prévias e fortalecer a fiscalização.

Mas, acima de tudo, é preciso reconhecer que por trás dos algoritmos, há pessoas. E quando essas pessoas são sistematicamente excluídas pela cor da pele, pelo gênero ou por qualquer outra característica protegida pela Constituição, não estamos diante de uma falha técnica. Estamos diante de uma violação de direitos fundamentais.

A pergunta que intitula o presente artigo permanece em aberto: o Direito está preparado para enfrentar a exclusão digital de grupos vulneráveis? A resposta, infelizmente, ainda é não. Mas pode deixar de ser: se houver vontade política, mobilização social e compromisso com a construção de uma sociedade efetivamente justa, inclusive em sua dimensão digital.

A Editora OAB/PE Digital não se responsabiliza pelas opiniões e informações dos artigos, que são responsabilidade dos autores.

Envie seu artigo, a fim de que seja publicado em uma das várias seções do portal após conformidade editorial.

Gostou? Compartilhe esse Conteúdo.

Fale Conosco pelo WhatsApp
Ir para o Topo do Site