A sociedade contemporânea vive uma mutação estrutural profunda, caracterizada pela emergência da inteligência artificial como eixo regulatório central das relações sociais, econômicas e políticas. Isto posto, a tecnologia adquire densidade normativa, impondo condutas com eficácia muitas vezes superior à própria lei.
O exemplo trivial, mas emblemático, do automóvel que não liga sem o cinto afivelado evidencia como o código tecnológico passa a desempenhar função normativa, substituindo, na prática, a regra estatal que apenas ordenaria o uso do cinto. Ao incorporar a obrigação diretamente na arquitetura do produto, a montadora desloca a regulação para o domínio privado: não há mais espaço para decisão humana nem necessidade de fiscalização pública, pois a própria tecnologia impede o comportamento indesejado e impõe uma sanção imediata — a impossibilidade de uso do veículo. Trata-se de manifestação clara do fenômeno em que o código se converte em mecanismo de regulação, capaz de organizar condutas de forma mais eficaz que a lei e de promover uma transferência silenciosa de poder normativo para agentes privados não sujeitos ao mesmo controle democrático que limita o Estado.
Essa transformação produz uma crise inédita na teoria da imputação jurídica, pois os danos decorrentes de decisões algorítmicas frequentemente não são atribuíveis a um agente humano individual, mas ao conjunto de interações técnicas invisíveis que compõem modelos de redes neurais e bases de dados massivas. Programadores, operadores e plataformas compartilham poder, mas frequentemente alegam ausência de responsabilidade, sustentando que o funcionamento dos sistemas é imprevisível ou não totalmente compreensível.
Essa narrativa, se acolhida, fragiliza a própria função civilizatória da responsabilidade civil, que historicamente serve à contenção dos riscos da atividade humana. Assim, a sociedade algorítmica inaugura nova etapa de risco sistêmico, exigindo do Direito respostas mais densas, profundas e constitucionalmente orientadas.
A segunda premissa que fundamenta este estudo reside na compreensão de que a tecnologia não é neutra, e sua pretensa neutralidade é uma das narrativas mais eficazes para limitar a intervenção do Direito. Dessarte, a técnica incorpora valores, vieses e interesses econômicos, frequentemente delineados por agentes privados transnacionais, especialmente conglomerados tecnológicos cujo poder econômico e informacional supera o de muitos Estados.
Nesse viés, a tese de Lawrence Lessig — “código é lei” — revela-se mais atual do que nunca: ao estruturar fluxos de informação, estabelecer limites operacionais, condicionar escolhas e mediar interações, o código desempenha função normativa equivalente, e em certos casos superior, à legislação tradicional. Esta dinâmica cria tensão estrutural com a Constituição brasileira, que condiciona toda atividade econômica à dignidade da pessoa humana, ao desenvolvimento e à justiça social (CF, arts. 1º, III, e 170).
A inovação tecnológica, portanto, não é valor absoluto. Seu desenvolvimento deve respeitar as garantias fundamentais, especialmente a proteção da autonomia individual, da autodeterminação informativa e da integridade democrática. Sempre que uma tecnologia — por sua arquitetura ou por seu modo de operação — potencializar violações a esses direitos, o Direito está não apenas autorizado, mas obrigado a intervir. Regular, limitar ou mesmo proibir determinadas inovações não constitui retrocesso tecnológico, mas afirmação da supremacia constitucional.
Airresponsabilidade organizada, constitui o principal desafio da responsabilidade civil na era algorítmica. Trata-se da fragmentação estratégica da culpa: programadores afirmam que apenas criam o código; operadores alegam que apenas acionam sistemas pré-configurados; engenheiros de dados dizem ser meros fornecedores de insumos; plataformas sustentam que não compreendem integralmente a lógica evolutiva dos modelos autoadaptativos. Ao final, ninguém é responsável, mas todos exercem poder.
Este fenômeno é especialmente perverso porque coincide com um momento histórico de expansão inédita do poder tecnológico, capaz de influenciar decisões econômicas, relações de trabalho, políticas públicas e até mesmo eleições. A opacidade algorítmica — característica intrínseca dos modelos de aprendizado profundo — é utilizada como álibi para a negação de responsabilidades.
Esse quadro viola um princípio elementar do constitucionalismo democrático: quanto maior o poder exercido, maior o dever de responder pelos efeitos produzidos. A responsabilidade civil, enquanto mecanismo de equalização entre poder e dever, não pode se curvar à retórica da complexidade técnica. A mera alegação de que “não se compreende o algoritmo” é incompatível com o risco que se aceita ao colocá-lo em operação.
Longe de uma crise de normatividade, o ordenamento jurídico brasileiro possui instrumentos densos e sofisticados para lidar com danos algorítmicos. O artigo 927, parágrafo único, do Código Civil consagra a responsabilidade objetiva para atividades que, por sua natureza, impliquem risco para terceiros. A operação de sistemas de inteligência artificial — dada sua imprevisibilidade estrutural, opacidade, complexidade e capacidade de causar danos amplificados — enquadra-se com perfeição na categoria de atividade de risco agravado.
Ora, o Código de Defesa do Consumidor estabelece responsabilidade objetiva pelo defeito do produto ou do serviço, incluindo defeitos invisíveis, sistêmicos ou decorrentes de arquitetura manipulativa. O próprio algoritmo, enquanto parte essencial do serviço digital, é produto em sentido funcional. Assim, vieses, falhas de segurança, decisões discriminatórias e manipulações comportamentais configuram defeitos indenizáveis. A LGPD completa este tripé ao estabelecer deveres mínimos de governança algorítmica, medidas de segurança, demonstração de conformidade (accountability) e direitos do titular, incluindo o direito à revisão de decisões automatizadas.
A estrutura legislativa existente não apenas é suficiente, mas extremamente moderna, exigindo apenas interpretação constitucionalmente orientada e aplicação rigorosa.
Os deveres tradicionais de cuidado — culpa in eligendo e culpa in vigilando — devem ser reinterpretados segundo a lógica técnica dos sistemas algorítmicos.
A culpa in eligendo exige que o agente analise previamente os riscos da tecnologia que seleciona, identifique seus possíveis vieses, avalie a adequação das bases de dados e verifique a existência de documentação transparente sobre os parâmetros utilizados.
A culpa in vigilando requer auditorias periódicas, testes de impacto, mecanismos de supervisão humana, registros de logs e manutenção de relatórios capazes de garantir rastreabilidade das decisões automatizadas. A boa-fé objetiva traduz-se, nesse cenário, em deveres de transparência, explicabilidade, previsibilidade e não manipulação.
Portanto, a utilização de “dark patterns” — técnicas de manipulação — constitui violação direta da boa-fé, pois representa manipulação da autonomia privada. A ausência de governança algorítmica configura falta de diligência grave e suficiente para atrair responsabilidade civil objetiva, independentemente de prova de culpa.
A jurisprudência do Superior Tribunal de Justiça tem contribuído decisivamente para a consolidação de um regime de responsabilidade objetiva no ambiente digital. O REsp 2.147.374/SP reconhece que vazamentos de dados decorrentes de ataques cibernéticos constituem fortuito interno, inerente à atividade econômica, afastando qualquer hipótese de exclusão de responsabilidade.
Destarte, o raciocínio utilizado aplica, de modo coerente, a Súmula 479 — relativa às instituições financeiras — às plataformas digitais, reconhecendo que falhas de segurança fazem parte do risco natural das atividades que lidam com dados sensíveis. No REsp 1.740.942/RS, o Tribunal consolidou a responsabilidade objetiva dos marketplaces por fraudes de terceiros, especialmente quando a plataforma se beneficia economicamente da intermediação.
Tais decisões refletem a evolução da teoria do risco-proveito, segundo a qual quem lucra com a atividade deve suportar os ônus decorrentes dos riscos que ela cria. A lógica algorítmica, nesse contexto, intensifica a relação entre proveito econômico e risco jurídico, pois a escala e a velocidade das operações ampliam o potencial danoso.
A sociedade algorítmica opera sob a lógica da incerteza radical. Os danos potenciais — como manipulação comportamental, erosão da autonomia cognitiva, discriminações invisíveis e interferência no processo democrático — não podem ser integralmente previstos ou quantificados.
O princípio da precaução, tradicionalmente aplicado ao direito ambiental, revela profunda afinidade com o contexto tecnológico. O PL 2.338/2023 acolhe este princípio expressamente, impondo mecanismos de avaliação e mitigação de riscos para sistemas de alto impacto. No campo da responsabilidade civil, a precaução atua como critério hermenêutico, orientando a interpretação de deveres de cuidado, nexo causal e diligência técnica.
Diante da incerteza, deve prevalecer a proteção da pessoa humana, e não o incentivo irrestrito à inovação. A inovação só é constitucional quando submissa à dignidade humana. Toda tecnologia que comprometa a liberdade cognitiva, a autodeterminação informativa ou a integridade democrática deve ser regulada, contida ou proibida.
A reconstrução da responsabilidade civil na era algorítmica exige hermenêutica sofisticada, sensibilidade constitucional e rigor preventivo. O poder tecnológico, se não submetido à accountability (responsabilidade de prestar contas por ações e resultados), tende à expansão sem limites, produzindo riscos existenciais graves. O Direito Civil, à luz da Constituição, deve assumir a função de reequilibrar esse cenário, reconectando poder técnico e dever jurídico. A responsabilidade objetiva por risco, a boa-fé objetiva, a governança algorítmica, a precaução tecnológica e o risco-proveito formam um arcabouço robusto, adequado e suficiente para enfrentar os desafios contemporâneos.
Ademais, a jurisprudência do STJ reforça esta orientação, reconhecendo que falhas de segurança, fraudes digitais e danos algorítmicos constituem riscos internos, não podendo afastar a responsabilidade dos agentes econômicos. Assim, longe de ser freio ao progresso, a responsabilidade civil torna-se instrumento ético e civilizatório para assegurar que o desenvolvimento tecnológico permaneça compatível com a dignidade humana, com a autonomia individual e com os fundamentos democráticos da República.
Todo poder exige responsabilidade — e o poder algorítmico não pode ser exceção.
ACEMOGLU, Daron; JOHNSON, Simon. Poder e Progresso: Nossa Luta Milenar pela Tecnologia e Prosperidade. São Paulo: Companhia das Letras, 2023.
BRASIL. Código Civil. Lei nº 10.406/2002.
BRASIL. Código de Defesa do Consumidor. Lei nº 8.078/1990.
BRASIL. Lei Geral de Proteção de Dados (LGPD). Lei nº 13.709/2018.
BRASIL. Projeto de Lei nº 2.338/2023.
CAVALIERI FILHO, Sérgio. Programa de Responsabilidade Civil. São Paulo: Atlas.
FRAZÃO, Ana. Palestra sobre Direito e Tecnologia, ESMAPE/TJPE, 2024.
LESSIG, Lawrence. Code and Other Laws of Cyberspace. New York: Basic Books, 1999.
MARQUES, Guilherme Raso. Responsabilidade Civil na Era da Inteligência Artificial. Revista da Advocacia Pública Federal, v. 8, n. 1, 2024.
SARLET, Ingo Wolfgang. A Eficácia dos Direitos Fundamentais. Porto Alegre: Livraria do Advogado.
STJ. REsp 2.147.374/SP, 2024.
STJ. REsp 1.740.942/RS.
STJ. Súmula 479.
A Editora OAB/PE Digital não se responsabiliza pelas opiniões e informações dos artigos, que são responsabilidade dos autores.
Envie seu artigo, a fim de que seja publicado em uma das várias seções do portal após conformidade editorial.