Livia Pereira Leandro

Governança algorítmica e gênero: Lacunas no PL 2.338/23 e seus impactos  na efetivação do princípio da não discriminação

Postado em 04 de fevereiro de 2026 Por Lívia Pereira Leandro Estudante de Direito com experiência em pesquisa jurídica e monitoria acadêmica. Integra a LADIS (GT Constituição, Tributação e Gênero) - Uninassau, Serra Talha/PE. Teve desempenho reconhecido com bolsas de mérito pelo Santander Universidades (Superamos Juntos 2022 e Santander Graduação 2023).

A expansão do uso da inteligência artificial, apesar de bem vista, em uma primeira análise, expõe um problema ainda pouco explorado sob a perspectiva jurídica: a ausência de diversidade de gênero nas equipes de construção de IA podem contribuir para a reprodução e amplificação de vieses discriminatórios? A ausência de uma regulação assertiva do Projeto de Lei 2.338/23 (Marco Regulatório da IA no Brasil) agrava o fenômeno da sub-representação feminina nessas equipes?

É nesse cenário que, surge o princípio da não discriminação, previsto na Constituição Federal de 1988 e reconhecido como fundamento do PL n. 2.338/23, desenhado para garantir o tratamento igualitário para todos, independente de raça, cor, gênero, origem, religião, idade, orientação sexual, deficiência ou condição social.

A proposta legislativa também incorpora os princípios de prevenção, precaução e mitigação de riscos. No entanto, apesar desse reconhecimento, o referido projeto de lei sequer prevê uma cota mínima de gênero nessas equipes, a fim de evitar os vieses discriminatórios de gênero, que comprovadamente auxiliam na persistência de preconceitos nas inteligências artificiais.

O relatório Artificial Intelligence Index Report 2025, capítulo 3, desenvolvido pela Universidade de Stanford, revelou que mesmo nos modelos de linguagem projetados para mitigar vieses foram expostos padrões contínuos de viés implícito, principalmente em categorias relacionadas a gênero.

Foram feitas duas contribuições nesse tópico específico da pesquisa. A primeira, foi introduzida dois novos métodos para detectar viés em LLMs — sistemas avançados de inteligência artificial treinados em alto volume de texto usando aprendizagem profunda, capazes de compreender, gerar, resumir e traduzir linguagem humana de forma análoga a um humano.

O viés implícito em LLM identifica vieses sutis analisando as associações automáticas entre palavras ou conceitos, e viés de decisão em LLM, que captura comportamentos do modelo que refletem esses vieses implícitos.

Segundo, eles investigam padrões discriminatórios relativos em tarefas de tomada de decisão, aplicando seus métodos a oito modelos notáveis — incluindo GPT-4 e Claude 3 Sonnet — em 21 categorias de estereótipos (por exemplo, raça, gênero, religião e saúde), eles descobrem vieses implícitos sistêmicos que se alinham com estereótipos sociais.

Nesse contexto, uma pesquisa indica que os LLMs tendem a associar termos desproporcionalmente negativos a pessoas negras e são mais subsidiados a vincular mulheres às humanidades em vez de áreas STEM (Ciência, Tecnologia, Engenharia e Matemática). Além disso, o estudo revela que os LLMs tendem a favorecer homens para posições de liderança, o que reforçam as perspectivas de gênero em situações de tomada de decisão.

Ademais, a pesquisa indica que, conforme os modelos são expandidos, os vieses implícitos crescem, mesmo que o viés de decisão e as taxas de rejeição permaneçam inalterados. Essa descoberta é importante porque sugere que, apesar de o viés aparentar ter diminuído nos benchmarks padrão — criando uma falsa sensação de neutralidade —, os vieses implícitos continuam prevalentes, o que pode resultar em discriminação sutil, mas significativa.

Nesse diapasão, é preciso destacar que, Giuliana Corbo, CEO da Nearsure, em uma matéria publicada no TI Inside, com o título “Inteligência Artificial e gênero: por que a diversidade é essencial?” menciona que a falta de diversidade de gênero nas equipes de desenvolvimento e treinamento de inteligência artificial eleva o risco de que preconceitos inconscientes sejam incorporados aos referidos sistemas.

Ao considerar o mercado de dados no Brasil os números de representatividade são preocupantes, uma vez que observados os dados revelados na pesquisa State of Data de 2024, em que apenas 23,6% dos profissionais de dados no Brasil são mulheres, e nos cargos de liderança somente 19% das posições de gestão são ocupadas por mulheres. 

Esses dados evidenciam a baixa representatividade feminina no setor de tecnologia, mas que poderia ser modificado com uma maior atuação legislativa impondo cotas, por exemplo. Uma ilustração disso é a norma eleitoral que traz a previsão mínima de 30% de cada gênero nas listas de candidaturas.

É justamente nesse cenário que, a opção legislativa ao não estabelecer mecanismos obrigatórios como cotas ou metas mínimas de gênero nas equipes de desenvolvimento e treinamento de IA  esvazio o conteúdo do princípio da não discriminação. Trata-se de uma escolha normativa e política, que transfere o problema da diversidade de gênero e da inovação tecnológica cada vez mais para o futuro.

Autoria: Lívia Pereira Leandro, estudante de direito (9° semestre).

REFERÊNCIAS:

BRASIL. Senado Federal. Projeto de Lei n. 2.338, de 2023. Dispõe sobre o uso da inteligência artificial. Brasília, DF, 31 jan. 2025. Disponível em: <https://legis.senado.leg.br/sdleg-getter/documento?dm=9881643&ts=1764601030099&disposition=inline>. Acesso em: 24 jan. 2026.

BRASIL. Constituição Da República Federativa Do Brasil De 1988. Disponível em: <https://www.planalto.gov.br/cci…>. Acesso em: 24 jan. 2026.

CORBO, Giuliana. Inteligência Artificial e gênero: por que a diversidade de gênero é essencial? Disponível em: <https://www.google.com/url?q=https://tiinside... Acesso em: 24 jan. 2026.

DATA HACKERS. Download do relatório State of Data Brazil 2024/2025: O panorama do mercado brasileiro de trabalho em dados e inteligência artificial. Disponível em: <https://www.datahackers.news…>. Acesso em: 24 jan. 2026.

DINO. Mulheres na tecnologia: evolução supera a de homens em 1,5%. Disponível em: <https://valor.globo.com/patrocinado/din…>. Acesso em: 24 jan. 2026.

STANFORD UNIVERSITY. Artificial intelligence index report 2025. [s.l: s.n.]. Disponível em: <https://hai.stanford.edu/assets/files/h..>.  Acesso em: 24 jan. 2026.

A Editora OAB/PE Digital não se responsabiliza pelas opiniões e informações dos artigos, que são responsabilidade dos autores.

Envie seu artigo, a fim de que seja publicado em uma das várias seções do portal após conformidade editorial.

Gostou? Compartilhe esse Conteúdo.

Fale Conosco pelo WhatsApp
Ir para o Topo do Site