Palloma Trindade Laurentino

IA e direitos: Reflexões sobre a PL Brasileira entre avanços e lacunas

Postado em 03 de setembro de 2025 Por Palloma Trindade Laurentino Advogada, Conselheira e Presidente da Comissão de Igualdade Racial da OAB Olinda, Membro da Comissão de Direito e Tecnologia da OAB-PE, Pós-Graduada em Direito e Processo Penal pelo IMN – Instituto dos Magistrados do Nordeste, Formada no Programa de Desenvolvimento Executivo da Fundação Dom Cabral, Líder do Comitê de Igualdade Racial Grupo Mulheres do Brasil -Recife, Membro do Coletivo Pacto das Pretas / SP, Membro do Black Sisters In Law / RJ.

1. Introdução

A inteligência artificial (IA) deixou de ser recurso de ficção científica para se tornar parte integrante da vida social, econômica e política. Sistemas algorítmicos influenciam decisões sobre crédito, seleção de candidatos, diagnósticos médicos e políticas de segurança pública. Esse protagonismo tecnológico levanta desafios inéditos: decisões automatizadas podem reproduzir preconceitos, violar direitos fundamentais e gerar desigualdades estruturais.

No Brasil, a tramitação da PL 2.338/2023 inaugura o debate sobre regulamentação da IA buscando conciliar inovação tecnológica e proteção de direitos, inspirando-se em legislações internacionais, mas adaptando-se ao contexto brasileiro, marcado por desigualdades raciais, socioeconômicas e de acesso à tecnologia.

O artigo analisa os direitos previstos na PL e suas lacunas, propondo aprimoramentos. A abordagem é interdisciplinar, integrando Direito, Tecnologia da Informação e Estudos Críticos de Tecnologia, com atenção às contribuições de autores negros, que discutem racismo estrutural e desigualdade.

2. O Cenário Global e o Brasil no Debate sobre a IA

A regulação da IA é um tema global. A União Europeia, com o AI Act, classificou sistemas por risco, proibindo usos que coloquem em perigo os direitos humanos. Nos EUA, a abordagem é setorial, enquanto em outros países emergentes o debate ainda se concentra em diretrizes éticas e governança de dados.

No Brasil, o Projeto de Lei (PL) 2.338/2023 adota uma regulação mais principiológica, com ênfase em direitos fundamentais, transparência, governança e responsabilidade civil. Isso permite flexibilidade, mas exige atenção para não deixar lacunas que comprometam a proteção.

A IA é infraestrutura invisível, moldando relações sociais e econômicas. Como lembra Milton Santos, tecnologias não são neutras: reproduzem padrões de poder e exclusão. Sueli Carneiro e Djamila Ribeiro evidenciam que grupos historicamente vulneráveis, mulheres negras, população periférica, comunidades indígenas são mais impactados por decisões automatizadas, reforçando desigualdades.

Importante destacar que a IA também afeta trabalhos humanos uma vez que automatizações podem reduzir custos e aumentar eficiência, mas ameaçam empregos e ampliam a necessidade de alfabetização digital. Sem políticas públicas adequadas, direitos previstos na legislação podem permanecer inacessíveis a parcela significativa da população.

A integração entre Direito e Tecnologia é essencial: juristas precisam compreender algoritmos, enquanto profissionais de TI devem incorporar ética e equidade social no design de sistemas de IA.

3. Direitos Fundamentais na PL 2.338/2023

A PL estabelece direitos fundamentais para proteger indivíduos frente a decisões automatizadas.  Destaco aqui um dos principais:

Direito à Explicabilidade

O cidadão tem direito a entender como e por que uma decisão automatizada foi tomada. A PL não detalha padrões de linguagem ou formatos acessíveis, permitindo explicações técnicas pouco compreensíveis. Assim sendo fundamental exigir relatórios claros, em linguagem acessível, compatíveis com o impacto da decisão para garantir o direito a informação e explicabilidade.  Direito à Revisão Humana

A PL prevê revisão humana em decisões relevantes. Mas isso não garante a imparcialidade ou competência do revisor, nem exigência de órgão independente. Sendo importante a criação de um grupo de fiscalização e/ou revisão por profissionais qualificados e independentes, especialmente em áreas de alto risco.

Direito à Não Discriminação

A lei prevê mitigação de vieses algorítmicos. Esse ponto me toca como uma jurista negra, uma vez que é essencial a vedação de discriminação, mais ainda resta ausente de auditorias obrigatórias e relatórios públicos sobre impactos raciais, de gênero ou socioeconômicos.

A pesquisadora Safiya Noble, em sua obra Algorithms of Oppression (2018), demonstra como sistemas de busca podem reproduzir estereótipos raciais e de gênero, reforçando preconceitos historicamente enraizados. De forma semelhante, Ruha Benjamin alerta em

Race After Technology (2019) para a existência de um “novo Jim Code”: práticas discriminatórias embutidas em sistemas tecnológicos aparentemente objetivos.

No Brasil, onde o racismo estrutural e as desigualdades sociais são históricas, os riscos são ainda maiores. Como destaca Sueli Carneiro, a sociedade brasileira se organiza a partir de mecanismos de exclusão que atravessam instituições públicas e privadas. Assim, sem regulação adequada, a IA pode se tornar mais uma ferramenta de reprodução dessas exclusões — apenas com roupagem digital.

 Já é comprovado que há tendências discriminatórias pelo uso de IA com o que chamamos de racismo algoritmo. Que se refere às formas de manifestação por meio de discriminação racial em ambiente virtual. Segundo, Tarcísio Silva (2022) quando aplicados de maneira desregulada, funcionam como instrumento de reprodução da desigualdade, tornando-se extensões digitais do racismo estrutural.  Como ocorrem em casos de software de reconhecimento facial que falham com pessoas negras, ou sistema de risco penal que associam a cor da pele à reincidência por exemplo, demostrando um alto risco a exposição de falhas graves da tecnologia sem critérios éticos e raciais. Uma saída seria a implementação de auditorias periódicas de impacto algorítmico, garantindo verificação e correção de decisões de alto risco. 

Ademais, pode haver impactos no trabalho humano pois se por um lado a automação aumenta a eficiência de processos e reduz custos, por outro ameaça postos de trabalho e impõe novas exigências de qualificação. Trabalhadores com menor acesso à educação formal e à inclusão digital tendem a ser os mais vulneráveis a esse processo.

Autores como Djamila Ribeiro sublinham a importância do conceito de lugar de fala para compreender essas transformações. A análise da IA não pode ser feita apenas sob a ótica das grandes corporações ou de especialistas: é preciso ouvir os sujeitos diretamente afetados pela substituição tecnológica, que muitas vezes não têm assento nas mesas de decisão.

Direito à Proteção de Dados e Segurança 

O uso de IA deve respeitar a LGPD, protegendo informações pessoais. A  PL não detalha critérios de retenção de dados nem mecanismos de controle de acesso.  Definir prazos claros de armazenamento, logs auditáveis e mecanismos de correção de dados imprecisos seria uma boa definição para acompanhamento de dados.  

Direito de Acesso à Justiça

Prevê responsabilidade civil por danos causados pela IA. Barreiras processuais podem dificultar o exercício do direito, especialmente para grupos vulneráveis. Como por exemplo, o acesso digital. O cidadão deve ter condições de compreender e interagir com sistemas de IA. Prever inversão do ônus da prova, legitimação para ações coletivas e buscar facilitação de processos de reparação, certamente garantirá o acesso à justiça.

Assim como programas públicos de educação tecnológica, garantindo acesso equitativo. 4. Conclusão

A PL 2.338/2023 representa avanço histórico no debate sobre IA no Brasil, reconhecendo direitos como explicabilidade, não discriminação, revisão humana, proteção de dados e acesso à justiça.

Lacunas permanecem: revisão humana independente, auditoria de vieses, transparência real e inclusão digital são áreas que exigem atenção futura. O grande desafio do legislador brasileiro é equilibrar inovação tecnológica e proteção de direitos, criando normas claras e efetivas, sobretudo em um país marcado por desigualdades estruturais.

O debate ainda está no início. Este artigo oferece uma análise crítica, deixando espaço para pesquisas futuras, experiências práticas de governança algorítmica e novas regulamentações que tornem a inteligência artificial eficiente, justa e inclusiva.

5. Referências

BRASIL.         Projeto         de        Lei         nº        2.338/2023.         Senado         Federal.

CARNEIRO, Sueli. Racismo, Sexismo e Desigualdade no Brasil. São Paulo: Selo Negro, 2011.

RIBEIRO, Djamila. Pequeno Manual Antirracista. São Paulo: Companhia das Letras, 2019.

SANTOS,     Milton.     A     Natureza     do     Espaço.     São     Paulo:     Edusp,     2002.

NOBLE, Safiya. Algorithms of Oppression. New York: NYU Press, 2018.

BENJAMIN, Ruha. Race After Technology. Cambridge: Polity Press, 2019.             

SILVA, Tarcísio. Racismo Algorítmico: Inteligência Artificial e Discriminação nas Redes Digitais. São Paulo: EDUFBA, 2022.

A Editora OAB/PE Digital não se responsabiliza pelas opiniões e informações dos artigos, que são responsabilidade dos autores.

Envie seu artigo, a fim de que seja publicado em uma das várias seções do portal após conformidade editorial.

Gostou? Compartilhe esse Conteúdo.

Fale Conosco pelo WhatsApp
Ir para o Topo do Site