Amanda Dias de Almeida 2

O  fim da culpa humana? Uma dogmática reconstruída da responsabilidade civil na era algorítmica

Postado em 19 de novembro de 2025 Por Amanda Dias de Almeida Acadêmica de Direito no 8º período da Universidade Católica de Pernambuco, atuante na 3ª Vara da Fazenda Pública da Capital nas áreas cível, administrativa e tributária. Pesquisadora e entusiasta das discussões contemporâneas sobre a evolução do Direito e os desafios inerentes à sua aplicação.

1. Introdução

Transformação Tecnológica, Risco Sistêmico e Crise da Imputação

A sociedade contemporânea vive uma mutação estrutural profunda, caracterizada pela emergência da inteligência artificial como eixo regulatório central das relações sociais, econômicas e políticas. Isto posto, a tecnologia adquire densidade normativa, impondo condutas com eficácia muitas vezes superior à própria lei.

O exemplo trivial, mas emblemático, do automóvel que não liga sem o cinto afivelado evidencia como o código tecnológico passa a desempenhar função normativa, substituindo, na prática, a regra estatal que apenas ordenaria o uso do cinto. Ao incorporar a obrigação diretamente na arquitetura do produto, a montadora desloca a regulação para o domínio privado: não há mais espaço para decisão humana nem necessidade de fiscalização pública, pois a própria tecnologia impede o comportamento indesejado e impõe uma sanção imediata — a impossibilidade de uso do veículo. Trata-se de manifestação clara do fenômeno em que o código se converte em mecanismo de regulação, capaz de organizar condutas de forma mais eficaz que a lei e de promover uma transferência silenciosa de poder normativo para agentes privados não sujeitos ao mesmo controle democrático que limita o Estado.

Essa transformação produz uma crise inédita na teoria da imputação jurídica, pois os danos decorrentes de decisões algorítmicas frequentemente não são atribuíveis a um agente humano individual, mas ao conjunto de interações técnicas invisíveis que compõem modelos de redes neurais e bases de dados massivas. Programadores, operadores e plataformas compartilham poder, mas frequentemente alegam ausência de responsabilidade, sustentando que o funcionamento dos sistemas é imprevisível ou não totalmente compreensível.

Essa narrativa, se acolhida, fragiliza a própria função civilizatória da responsabilidade civil, que historicamente serve à contenção dos riscos da atividade humana. Assim, a sociedade algorítmica inaugura nova etapa de risco sistêmico, exigindo do Direito respostas mais densas, profundas e constitucionalmente orientadas.

2. Tecnologia, Normatividade Privada e Superação do Mito da Neutralidade Técnica

A segunda premissa que fundamenta este estudo reside na compreensão de que a tecnologia não é neutra, e sua pretensa neutralidade é uma das narrativas mais eficazes para limitar a intervenção do Direito. Dessarte, a técnica incorpora valores, vieses e interesses econômicos, frequentemente delineados por agentes privados transnacionais, especialmente conglomerados tecnológicos cujo poder econômico e informacional supera o de muitos Estados.

Nesse viés, a tese de Lawrence Lessig — “código é lei” — revela-se mais atual do que nunca: ao estruturar fluxos de informação, estabelecer limites operacionais, condicionar escolhas e mediar interações, o código desempenha função normativa equivalente, e em certos casos superior, à legislação tradicional. Esta dinâmica cria tensão estrutural com a Constituição brasileira, que condiciona toda atividade econômica à dignidade da pessoa humana, ao desenvolvimento e à justiça social (CF, arts. 1º, III, e 170).

A inovação tecnológica, portanto, não é valor absoluto. Seu desenvolvimento deve respeitar as garantias fundamentais, especialmente a proteção da autonomia individual, da autodeterminação informativa e da integridade democrática. Sempre que uma tecnologia — por sua arquitetura ou por seu modo de operação — potencializar violações a esses direitos, o Direito está não apenas autorizado, mas obrigado a intervir. Regular, limitar ou mesmo proibir determinadas inovações não constitui retrocesso tecnológico, mas afirmação da supremacia constitucional.

3. Irresponsabilidade Organizada: Fragmentação da Culpa e Erosão da Accountability Digital

Airresponsabilidade organizada, constitui o principal desafio da responsabilidade civil na era algorítmica. Trata-se da fragmentação estratégica da culpa: programadores afirmam que apenas criam o código; operadores alegam que apenas acionam sistemas pré-configurados; engenheiros de dados dizem ser meros fornecedores de insumos; plataformas sustentam que não compreendem integralmente a lógica evolutiva dos modelos autoadaptativos. Ao final, ninguém é responsável, mas todos exercem poder.

Este fenômeno é especialmente perverso porque coincide com um momento histórico de expansão inédita do poder tecnológico, capaz de influenciar decisões econômicas, relações de trabalho, políticas públicas e até mesmo eleições. A opacidade algorítmica — característica intrínseca dos modelos de aprendizado profundo — é utilizada como álibi para a negação de responsabilidades.

Esse quadro viola um princípio elementar do constitucionalismo democrático: quanto maior o poder exercido, maior o dever de responder pelos efeitos produzidos. A responsabilidade civil, enquanto mecanismo de equalização entre poder e dever, não pode se curvar à retórica da complexidade técnica. A mera alegação de que “não se compreende o algoritmo” é incompatível com o risco que se aceita ao colocá-lo em operação.

4. A Suficiência do Direito Brasileiro e a Releitura Contemporânea da Teoria do Risco

Longe de uma crise de normatividade, o ordenamento jurídico brasileiro possui instrumentos densos e sofisticados para lidar com danos algorítmicos. O artigo 927, parágrafo único, do Código Civil consagra a responsabilidade objetiva para atividades que, por sua natureza, impliquem risco para terceiros. A operação de sistemas de inteligência artificial — dada sua imprevisibilidade estrutural, opacidade, complexidade e capacidade de causar danos amplificados — enquadra-se com perfeição na categoria de atividade de risco agravado.

Ora, o Código de Defesa do Consumidor estabelece responsabilidade objetiva pelo defeito do produto ou do serviço, incluindo defeitos invisíveis, sistêmicos ou decorrentes de arquitetura manipulativa. O próprio algoritmo, enquanto parte essencial do serviço digital, é produto em sentido funcional. Assim, vieses, falhas de segurança, decisões discriminatórias e manipulações comportamentais configuram defeitos indenizáveis. A LGPD completa este tripé ao estabelecer deveres mínimos de governança algorítmica, medidas de segurança, demonstração de conformidade (accountability) e direitos do titular, incluindo o direito à revisão de decisões automatizadas.

A estrutura legislativa existente não apenas é suficiente, mas extremamente moderna, exigindo apenas interpretação constitucionalmente orientada e aplicação rigorosa.

5. Deveres de Cuidado, Boa-fé Algorítmica e Governança como Imperativo Jurídico

Os deveres tradicionais de cuidado — culpa in eligendo e culpa in vigilando — devem ser reinterpretados segundo a lógica técnica dos sistemas algorítmicos.

A culpa in eligendo exige que o agente analise previamente os riscos da tecnologia que seleciona, identifique seus possíveis vieses, avalie a adequação das bases de dados e verifique a existência de documentação transparente sobre os parâmetros utilizados.

A culpa in vigilando requer auditorias periódicas, testes de impacto, mecanismos de supervisão humana, registros de logs e manutenção de relatórios capazes de garantir rastreabilidade das decisões automatizadas. A boa-fé objetiva traduz-se, nesse cenário, em deveres de transparência, explicabilidade, previsibilidade e não manipulação.

Portanto, a utilização de “dark patterns” — técnicas de manipulação — constitui violação direta da boa-fé, pois representa manipulação da autonomia privada. A ausência de governança algorítmica configura falta de diligência grave e suficiente para atrair responsabilidade civil objetiva, independentemente de prova de culpa.

6. Risco-Proveito Digital e Consolidação Jurisprudencial do Fortuito Interno

A jurisprudência do Superior Tribunal de Justiça tem contribuído decisivamente para a consolidação de um regime de responsabilidade objetiva no ambiente digital. O REsp 2.147.374/SP reconhece que vazamentos de dados decorrentes de ataques cibernéticos constituem fortuito interno, inerente à atividade econômica, afastando qualquer hipótese de exclusão de responsabilidade.

Destarte, o raciocínio utilizado aplica, de modo coerente, a Súmula 479 — relativa às instituições financeiras — às plataformas digitais, reconhecendo que falhas de segurança fazem parte do risco natural das atividades que lidam com dados sensíveis. No REsp 1.740.942/RS, o Tribunal consolidou a responsabilidade objetiva dos marketplaces por fraudes de terceiros, especialmente quando a plataforma se beneficia economicamente da intermediação.

Tais decisões refletem a evolução da teoria do risco-proveito, segundo a qual quem lucra com a atividade deve suportar os ônus decorrentes dos riscos que ela cria. A lógica algorítmica, nesse contexto, intensifica a relação entre proveito econômico e risco jurídico, pois a escala e a velocidade das operações ampliam o potencial danoso.

7. Precaução Tecnológica como Paradigma da Nova Responsabilidade Civil

A sociedade algorítmica opera sob a lógica da incerteza radical. Os danos potenciais — como manipulação comportamental, erosão da autonomia cognitiva, discriminações invisíveis e interferência no processo democrático — não podem ser integralmente previstos ou quantificados.

O princípio da precaução, tradicionalmente aplicado ao direito ambiental, revela profunda afinidade com o contexto tecnológico. O PL 2.338/2023 acolhe este princípio expressamente, impondo mecanismos de avaliação e mitigação de riscos para sistemas de alto impacto. No campo da responsabilidade civil, a precaução atua como critério hermenêutico, orientando a interpretação de deveres de cuidado, nexo causal e diligência técnica.

Diante da incerteza, deve prevalecer a proteção da pessoa humana, e não o incentivo irrestrito à inovação. A inovação só é constitucional quando submissa à dignidade humana. Toda tecnologia que comprometa a liberdade cognitiva, a autodeterminação informativa ou a integridade democrática deve ser regulada, contida ou proibida.

8. Conclusão

Responsabilidade Civil como Ferramenta de Contenção Ética do Poder Algorítmico

A reconstrução da responsabilidade civil na era algorítmica exige hermenêutica sofisticada, sensibilidade constitucional e rigor preventivo. O poder tecnológico, se não submetido à accountability (responsabilidade de prestar contas por ações e resultados), tende à expansão sem limites, produzindo riscos existenciais graves. O Direito Civil, à luz da Constituição, deve assumir a função de reequilibrar esse cenário, reconectando poder técnico e dever jurídico. A responsabilidade objetiva por risco, a boa-fé objetiva, a governança algorítmica, a precaução tecnológica e o risco-proveito formam um arcabouço robusto, adequado e suficiente para enfrentar os desafios contemporâneos.

Ademais, a jurisprudência do STJ reforça esta orientação, reconhecendo que falhas de segurança, fraudes digitais e danos algorítmicos constituem riscos internos, não podendo afastar a responsabilidade dos agentes econômicos. Assim, longe de ser freio ao progresso, a responsabilidade civil torna-se instrumento ético e civilizatório para assegurar que o desenvolvimento tecnológico permaneça compatível com a dignidade humana, com a autonomia individual e com os fundamentos democráticos da República.

Todo poder exige responsabilidade — e o poder algorítmico não pode ser exceção.

Referências Bibliográficas

ACEMOGLU, Daron; JOHNSON, Simon. Poder e Progresso: Nossa Luta Milenar pela Tecnologia e Prosperidade. São Paulo: Companhia das Letras, 2023.

BRASIL. Código Civil. Lei nº 10.406/2002.

BRASIL. Código de Defesa do Consumidor. Lei nº 8.078/1990.

BRASIL. Lei Geral de Proteção de Dados (LGPD). Lei nº 13.709/2018.

BRASIL. Projeto de Lei nº 2.338/2023.

CAVALIERI FILHO, Sérgio. Programa de Responsabilidade Civil. São Paulo: Atlas.

FRAZÃO, Ana. Palestra sobre Direito e Tecnologia, ESMAPE/TJPE, 2024.

LESSIG, Lawrence. Code and Other Laws of Cyberspace. New York: Basic Books, 1999.

MARQUES, Guilherme Raso. Responsabilidade Civil na Era da Inteligência Artificial. Revista da Advocacia Pública Federal, v. 8, n. 1, 2024.

SARLET, Ingo Wolfgang. A Eficácia dos Direitos Fundamentais. Porto Alegre: Livraria do Advogado.

STJ. REsp 2.147.374/SP, 2024.

STJ. REsp 1.740.942/RS.

STJ. Súmula 479.

A Editora OAB/PE Digital não se responsabiliza pelas opiniões e informações dos artigos, que são responsabilidade dos autores.

Envie seu artigo, a fim de que seja publicado em uma das várias seções do portal após conformidade editorial.

Gostou? Compartilhe esse Conteúdo.

Fale Conosco pelo WhatsApp
Ir para o Topo do Site