Introdução
A Lei Geral de Proteção de Dados Pessoais (LGPD), Lei nº 13.709/2018, entrou em vigor como um marco na proteção dos direitos dos indivíduos em relação ao tratamento de seus dados pessoais. Dentre os diversos direitos previstos, destaca-se o direito à transparência, que exige que os controladores de dados pessoais forneçam informações claras sobre os processos automatizados que envolvem dados pessoais.
Com a crescente utilização de algoritmos e inteligência artificial para a tomada de decisões, como em crédito bancário, seleções de concursos e processos administrativos, surge a necessidade de garantir que esses processos sejam auditáveis e compreensíveis para os afetados. Este artigo visa analisar a viabilidade jurídica e a importância do incidente de exibição de algoritmos com base na LGPD (e outras normas) como mecanismo para garantir a transparência nas decisões automatizadas.
1. A Importância da Transparência nas Decisões Automatizadas
A decisão automatizada ocorre quando um algoritmo, sem intervenção humana, analisa dados pessoais e toma uma decisão que impacta o indivíduo. Essa forma de decisão tem se tornado comum em setores como financeiro, jurídico, educacional e previdenciário, onde algoritmos são empregados para avaliar perfis de crédito, selecionar candidatos a vagas de emprego e até conceder ou não benefícios sociais – entre outras aplicações.
A falta de compreensão sobre o funcionamento desses algoritmos pode gerar impactos negativos significativos para os indivíduos, como exclusões indevidas ou tratamentos discriminatórios. Nesse contexto, o direito à transparência, consagrado no art. 20 da LGPD, se torna essencial para garantir que os afetados possam entender e questionar as decisões que impactam seus direitos.
Confira-se o teor do citado artigo, com redação dada pela Lei 13.853/2019:
Art. 20. O titular dos dados tem direito a solicitar a revisão de decisões tomadas unicamente com base em tratamento automatizado de dados pessoais que afetem seus interesses, incluídas as decisões destinadas a definir o seu perfil pessoal, profissional, de consumo e de crédito ou os aspectos de sua personalidade.
2. O Direito à Explicabilidade e a Exposição dos Caminhos Lógicos
A explicabilidade é um conceito central da LGPD e do Regulamento Geral de Proteção de Dados da União Europeia (GDPR), que exige que os titulares dos dados compreendam como os algoritmos chegam às suas decisões. O art. 20, caput, da LGPD, assegura que o titular tenha o direito de solicitar revisão de decisões automatizadas, o que inclui, entre outras coisas, a obrigação de fornecer informações claras sobre os critérios e procedimentos utilizados. Este direito está relacionado à autodeterminação informativa do indivíduo, que deve ser capaz de entender, se necessário, como seus dados estão sendo usados para formar decisões que o afetem.
Nesse sentido, o incidente de exibição de algoritmos é uma ferramenta processual que possibilita que os afetados solicitem judicialmente que os órgãos ou entidades responsáveis pela decisão automatizada divulguem os critérios, as variáveis consideradas e os caminhos lógicos seguidos pelo algoritmo para alcançar uma determinada decisão. A não apresentação dessas informações pode ser considerada uma violação do direito à transparência, permitindo, ainda, que o titular questione a legitimidade e a precisão da decisão.
3. O Incidente de Exibição de Algoritmos: Mecanismo Processual
O incidente de exibição de algoritmos pode ser ajuizado com base no art. 20 da LGPD, que assegura ao titular o direito à explicação de decisões automatizadas. A exibição pode ser solicitada tanto no âmbito administrativo quanto judicial. Na seara judicial, é possível fundamentar o pedido com base no art. 5º, XXXIII, da Constituição Federal, que garante a todo cidadão o direito de acessar informações sobre a Administração Pública (direito de petição):
XXXIII – todos têm direito a receber dos órgãos públicos informações de seu interesse particular, ou de interesse coletivo ou geral, que serão prestadas no prazo da lei, sob pena de responsabilidade, ressalvadas aquelas cujo sigilo seja imprescindível à segurança da sociedade e do Estado.
Existe previsão, ainda, na Lei do Governo Digital (14.129/2021), consoante seu artigo 25:
Art. 25. As Plataformas de Governo Digital devem dispor de ferramentas de transparência e de controle do tratamento de dados pessoais que sejam claras e facilmente acessíveis e que permitam ao cidadão o exercício dos direitos previstos na Lei nº 13.709, de 14 de agosto de 2018 (Lei Geral de Proteção de Dados Pessoais).
§ 1º As ferramentas previstas no caput deste artigo devem:
I – disponibilizar, entre outras, as fontes dos dados pessoais, a finalidade específica do seu tratamento pelo respectivo órgão ou ente e a indicação de outros órgãos ou entes com os quais é realizado o uso compartilhado de dados pessoais, incluído o histórico de acesso ou uso compartilhado, ressalvados os casos previstos no inciso III do caput do art. 4º da Lei nº 13.709, de 14 de agosto de 2018 (Lei Geral de Proteção de Dados Pessoais);
II – permitir que o cidadão efetue requisições ao órgão ou à entidade controladora dos seus dados, especialmente aquelas previstas no art. 18 da Lei nº 13.709, de 14 de agosto de 2018 (Lei Geral de Proteção de Dados Pessoais).
§ 2º A Autoridade Nacional de Proteção de Dados (ANPD) poderá editar normas complementares para regulamentar o disposto neste artigo.
Mais recentemente, em 11 de março de 2025, o Conselho Nacional de Justiça (CNJ) editou a Resolução Nº 615 que estabeleceu diretrizes para o “desenvolvimento, utilização e governança de soluções desenvolvidas com recursos de inteligência artificial no Poder Judiciário”.
Citada norma deu visível ênfase à explicabilidade e à auditabilidade das soluções de IA para assegurar que os sistemas utilizados possam ser compreendidos e revisados por magistrados e outros operadores do direito, bem como os jurisdicionados, de modo a garantir que as decisões automatizadas sejam transparentes e passíveis de verificação.
O foco é fortalecer a confiança no processo judicial e na proteção aos direitos fundamentais dos cidadãos, de modo que os resultados gerados pelas IAs possam ser questionados e ajustados sempre que necessário. Observe-se alguns excertos da referida Resolução 615/CNJ:
Art. 13. Antes de ser colocada em produção, a solução que utilize modelos de inteligência artificial de alto risco deverá adotar as seguintes medidas de governança:
(…)
VII – adoção de medidas para viabilizar a explicabilidade adequada, sempre que tecnicamente possível, dos resultados dos sistemas de IA e de medidas para disponibilizar informações adequadas em linguagem simples e acessível que permitam a interpretação dos seus resultados e funcionamento, respeitados o direito de autor, a propriedade intelectual e os sigilos industrial e comercial, mas garantida a transparência mínima necessária para atender ao disposto nesta Resolução.
Art. 22. Qualquer modelo de inteligência artificial que venha a ser adotado pelos órgãos do Poder Judiciário deverá observar as regras de governança de dados aplicáveis aos seus próprios sistemas computacionais, as Resoluções e as Recomendações do CNJ, a Lei Geral de Proteção de Dados Pessoais, a Lei de Acesso à Informação, a propriedade intelectual e o segredo de justiça.
(…)
§ 3º Os modelos de inteligência artificial adotados deverão possuir mecanismos de explicabilidade, sempre que tecnicamente possível, de modo que suas decisões e operações sejam compreensíveis e auditáveis pelos operadores judiciais.
Vale salientar, por fim, que o Projeto de Lei 2481/2022, em tramitação no Senado Federal e que busca reformar a Lei nº 9.784/99 (Lei do Processo Administrativo), já prevê, desde seu texto inicial, a observância da explicabilidade e da auditabilidade como princípios:
Art. 47-E. A utilização de modelos de inteligência artificial no âmbito do processo administrativo eletrônico deve ser transparente, previsível, auditável, previamente informada aos interessados e permitir a revisão de seus dados e resultados.
De sorte que, como visto, este incidente pode ser proposto em processos onde o titular tenha sido impactado diretamente pela decisão automatizada, seja em negativas de crédito, exclusões de benefícios sociais ou seleções de emprego automatizadas, entre outras situações. A parte requerida, responsável pela decisão automatizada, será obrigada a fornecer um relatório detalhado contendo os parâmetros do algoritmo, as variáveis consideradas, os pesos atribuídos a cada critério e as regras lógicas que conduziram à decisão tomada.
4. Fundamentação Jurídica e Teorias Aplicáveis
A fundamentação jurídica para o incidente de exibição de algoritmos se apoia em três pilares principais:
4.1 Direito à Informação e Autodeterminação Informativa
O direito à informação é garantido pela Constituição Federal, e está relacionado diretamente ao direito do titular de entender e controlar o uso de seus dados pessoais. A autodeterminação informativa está prevista no art. 18 da LGPD, que reforça a necessidade de fornecer informações claras sobre o tratamento de dados pessoais:
Art. 18. O titular dos dados pessoais tem direito a obter do controlador, em relação aos dados do titular por ele tratados, a qualquer momento e mediante requisição:
I – confirmação da existência de tratamento;
III – correção de dados incompletos, inexatos ou desatualizados;
IV – anonimização, bloqueio ou eliminação de dados desnecessários, excessivos ou tratados em desconformidade com o disposto nesta Lei;
V – portabilidade dos dados a outro fornecedor de serviço ou produto, mediante requisição expressa, de acordo com a regulamentação da autoridade nacional, observados os segredos comercial e industrial;
VI – eliminação dos dados pessoais tratados com o consentimento do titular, exceto nas hipóteses previstas no art. 16 desta Lei;
VII – informação das entidades públicas e privadas com as quais o controlador realizou uso compartilhado de dados;
VIII – informação sobre a possibilidade de não fornecer consentimento e sobre as consequências da negativa;
IX – revogação do consentimento, nos termos do § 5º do art. 8º desta Lei.
4.2 Princípio da Transparência
O princípio da transparência, previsto no art. 6º, VI, da LGPD, exige que os controladores de dados ofereçam informações claras, precisas e acessíveis sobre o tratamento de dados. Isso inclui a exigência de que algoritmos e decisões automatizadas sejam explicados de maneira compreensível para os afetados.
Art. 6º As atividades de tratamento de dados pessoais deverão observar a boa-fé e os seguintes princípios:
VI – transparência: garantia, aos titulares, de informações claras, precisas e facilmente acessíveis sobre a realização do tratamento e os respectivos agentes de tratamento, observados os segredos comercial e industrial.
4.3 Tutela de Direitos Fundamentais
O incidente de exibição de algoritmos visa assegurar a proteção de direitos fundamentais, como a dignidade da pessoa humana (art. 1º, III, CF) e o direito à privacidade (art. 5º, X, CF), que podem ser comprometidos por decisões automatizadas que não são devidamente explicadas.
5. Implicações para o Direito Processual
O incidente de exibição de algoritmos configura-se como uma ação de transparência na qual o juiz, ao analisar o pedido, poderá determinar a exibição de documentos, relatórios técnicos ou informações sigilosas, que devem ser apresentadas de forma clara e compreensível. Além disso, a aplicação de astreintes (multa diária por descumprimento), conforme o art. 139, IV, do CPC, pode ser uma ferramenta eficaz para garantir o cumprimento da obrigação de transparência.
Assim, o citado incidente pode ser considerado como um mecanismo de controle judicial, permitindo ao Judiciário assegurar que os direitos do titular sejam efetivamente respeitados, promovendo um balanço entre a proteção dos dados pessoais e a eficiência dos processos decisórios automatizados.
CONCLUSÃO
A crescente utilização de decisões automatizadas em diferentes setores exige um controle social e judicial sobre os algoritmos que as implementam. O incidente de exibição de algoritmos, baseado no direito à transparência previsto pela LGPD e em princípios legais/constitucionais, emerge como uma ferramenta essencial para garantir que os indivíduos afetados por tais decisões possam compreender os critérios utilizados e assegurar seus direitos fundamentais. A criação de mecanismos processuais que promovam a explicabilidade e a auditabilidade dos algoritmos é imprescindível para assegurar um equilíbrio entre inovação tecnológica e proteção de direitos.
A LGPD representa um passo fundamental para a proteção dos dados pessoais no Brasil e o incidente de exibição de algoritmos é uma das formas mais eficazes de garantir que os caminhos lógicos usados por estas ferramentas tecnológicas sejam transparentes e acessíveis aos cidadãos. Este instrumento processual, quando aplicado corretamente, assegura que os dados pessoais sejam tratados com responsabilidade e que os direitos dos indivíduos sejam respeitados.
A Editora OAB/PE Digital não se responsabiliza pelas opiniões e informações dos artigos, que são responsabilidade dos autores.
Envie seu artigo, a fim de que seja publicado em uma das várias seções do portal após conformidade editorial.