Jose Carlos da Silva Filho

Automação decisória e desigualdade sociojurídica: O papel da Jurisdição Constitucional na proteção da cidadania digital

Postado em 17 de setembro de 2025 Por José Carlos Da Silva Filho Graduando em Direito pela (FICR). Atuou como presidente do DASEC/UFPE, integrou colegiado e departamento. Experiência em gestão, extensão e pesquisa. Bolsista na UFPE, estágios no TRT-6, UPE e Museu da Abolição. Atua em projetos de cultura, educação e justiça.

A ascensão das tecnologias digitais transformou profundamente as formas de governança, a prestação de serviços públicos e até mesmo o funcionamento da justiça. Vivemos em uma era marcada pela promessa de eficiência e racionalidade por meio da automação. Contudo, no Brasil — um país historicamente atravessado por desigualdades de raça, gênero, classe e território — a incorporação de algoritmos em políticas públicas e decisões judiciais têm produzido efeitos ambíguos: se por um lado promove rapidez, por outro lado reforça mecanismos estruturais de exclusão.

A questão central é que, sob a justificativa de eficiência, o Estado tem adotado ferramentas digitais que funcionam como caixas-pretas inacessíveis ao controle social. Sistemas algorítmicos decidem quem terá acesso a benefícios, quem será considerado um risco em segurança pública, quem será priorizado em processos judiciais. A falta de transparência e a ausência de parâmetros democráticos tornam esse processo perigoso, pois consolidam desigualdades em escala tecnológica.

No Brasil, já vemos casos concretos. Softwares de reconhecimento facial foram implementados em estados como Rio de Janeiro e Bahia, resultando em prisões injustas, sobretudo de pessoas negras. Em alguns municípios, algoritmos têm sido utilizados para triagem em programas sociais, criando barreiras de acesso a direitos fundamentais. Na previdência, sistemas automatizados negaram benefícios sem a devida justificativa, obrigando cidadãos a recorrerem judicialmente para garantir o mínimo existencial.

Esses exemplos revelam que a automação não é neutra. Como alerta Virginia Eubanks, em sua análise sobre programas sociais nos Estados Unidos, algoritmos carregam os vieses presentes nos dados em que são treinados. No contexto brasileiro, esses vieses encontram solo fértil: racismo estrutural, seletividade penal e exclusão territorial. Assim, sistemas que deveriam ser instrumentos de justiça se tornam ferramentas de reprodução de desigualdade.

Frank Pasquale chama esse fenômeno de “sociedade da caixa-preta”: um mundo em que decisões de enorme impacto social são tomadas por sistemas opacos, sem possibilidade de escrutínio. Shoshana Zuboff, ao falar sobre o “capitalismo de vigilância”, vai além: mostra como o uso massivo de dados transforma cidadãos em objetos de predição e controle. No Brasil, esse risco se multiplica, pois a fragilidade institucional e a desigualdade histórica dificultam a criação de barreiras democráticas eficazes.

Nesse cenário, o Supremo Tribunal Federal (STF) ocupa uma posição estratégica. Como guardião da Constituição, cabe à Corte definir os limites éticos e jurídicos da automação. No entanto, sua atuação ainda é tímida. Houve avanços no julgamento de ações sobre a Lei Geral de Proteção de Dados (LGPD) e sobre liberdade de expressão em ambientes digitais, mas quando se trata especificamente de algoritmos que impactam populações vulneráveis, prevalece o silêncio.

A ausência de posicionamento firme gera consequências graves. Em vez de funcionar como barreira protetiva, a jurisdição constitucional corre o risco de se tornar legitimadora das exclusões. Ao não enfrentar de modo direto o problema, o STF permite que tecnologias sejam usadas sem parâmetros de transparência, proporcionalidade e justiça distributiva. A omissão, aqui, é também uma forma de decisão.

Evidentemente, não se trata de demonizar a tecnologia. Algoritmos podem, sim, ser aliados da democracia, desde que regulados de forma crítica e inclusiva. A automação pode ajudar a reduzir a morosidade judicial, organizar grandes volumes de dados e melhorar a prestação de serviços públicos. Mas para que isso aconteça, é indispensável que exista regulação democrática, controle social e participação cidadã.

O constitucionalismo digital, conceito desenvolvido por autores como Simão Mendes de Sousa, aponta justamente para a necessidade de atualizar a leitura da Constituição frente aos desafios da sociedade da informação. Isso significa compreender que direitos como dignidade, igualdade e devido processo legal não podem ser relativizados em nome da eficiência tecnológica.

É nesse ponto que a crítica de Lenio Streck se torna relevante. O jurista alerta para o risco de que a racionalidade tecnocrática fragilize a função contramajoritária da jurisdição constitucional. Se o STF adotar uma postura de deferência acrítica à lógica da eficiência, estará abandonando sua função de proteger minorias e garantir direitos fundamentais.

Não é coincidência que os grupos mais prejudicados pela automação sejam justamente aqueles já historicamente excluídos. Silvio Almeida, ao tratar do racismo estrutural, evidencia como a desigualdade no Brasil não é um acidente, mas um projeto político reproduzido institucionalmente. Thula Pires, por sua vez, mostra como o sistema penal associa risco e criminalidade a marcadores raciais e territoriais. Quando algoritmos são aplicados a esse contexto, tendem a perpetuar — e até intensificar — tais distorções.

A crítica de Nancy Fraser à justiça meramente distributiva também é importante aqui. Segundo ela, não basta redistribuir recursos; é necessário também reconhecer identidades, diferenças e formas de vida diversas. A automação falha nos dois aspectos: nem distribui de forma equitativa, nem reconhece a pluralidade social.

Um olhar para experiências internacionais reforça essa preocupação. No Reino Unido, o sistema de avaliação automatizada de benefícios sociais (Universal Credit) foi alvo de severas críticas por aprofundar a pobreza. Nos Estados Unidos, softwares de análise preditiva como o COMPAS, usados no sistema penal, foram denunciados por atribuir maior risco de reincidência a réus negros. Esses exemplos mostram que o problema não é exclusivo do Brasil, mas adquire contornos mais dramáticos em países com histórico de desigualdade estrutural.

O STF, diante disso, precisa assumir um papel de vanguarda regulatória. É urgente que a Corte estabeleça princípios de transparência algorítmica, crie parâmetros de accountability e exija que qualquer implementação tecnológica seja acompanhada de avaliações de impacto em direitos fundamentais. Em outras palavras, o STF deve reconhecer que o uso de algoritmos não é apenas uma questão técnica, mas sobretudo uma questão de justiça constitucional.

Não se pode ignorar que a cidadania digital envolve muito mais do que acesso à internet. Trata-se de assegurar que cidadãos tenham voz, representação e dignidade nos ambientes digitais e nos processos decisórios mediados por tecnologia. Danielle Citron fala em “cidadania digital substantiva”: um conceito que exige proteção contra discriminações, contra vigilância abusiva e contra exclusões invisíveis.

A noção de justiça territorializada, defendida por Boaventura de Sousa Santos, também é central. Não basta aplicar os mesmos critérios para todo o território nacional; é preciso reconhecer as especificidades de comunidades indígenas, quilombolas, periféricas. A tecnologia, quando aplicada sem sensibilidade territorial, amplia o déficit de cidadania.

Cabe lembrar que a Constituição de 1988 prometeu um Estado Democrático de Direito fundado na dignidade da pessoa humana, na igualdade e na justiça social. A automação decisória, se não for regulada, ameaça corroer essa promessa. Ao STF, cabe decidir se será protagonista dessa atualização constitucional ou se se manterá como espectador diante da exclusão digital.

O desafio é grande, mas inadiável. O Supremo já mostrou, em outros momentos da história, capacidade de enfrentar temas complexos e de assumir papel contramajoritário em defesa de direitos. Agora, o teste é outro: a Corte será capaz de proteger os cidadãos contra os riscos da automação? Ou será cúmplice da transformação da tecnologia em novo instrumento de desigualdade?

A resposta a essa pergunta definirá o futuro da cidadania digital no Brasil. Mais do que eficiência, precisamos de justiça. Mais do que algoritmos, precisamos de dignidade. A Constituição não pode ser reescrita pelo código-fonte de sistemas opacos; ela deve continuar sendo o escudo dos vulneráveis.

O momento exige coragem hermenêutica, sensibilidade social e compromisso democrático. O STF não pode se esconder atrás da neutralidade tecnológica. É hora de assumir a responsabilidade histórica de garantir que a automação decisória não seja a exceção que legitima a exclusão, mas sim um instrumento de fortalecimento da democracia e de realização da promessa constitucional de igualdade.

A Editora OAB/PE Digital não se responsabiliza pelas opiniões e informações dos artigos, que são responsabilidade dos autores.

Envie seu artigo, a fim de que seja publicado em uma das várias seções do portal após conformidade editorial.

Gostou? Compartilhe esse Conteúdo.

Fale Conosco pelo WhatsApp
Ir para o Topo do Site