O presente artigo examina as fragilidades da responsabilização das Big Techs no Brasil à luz do Marco Civil da Internet, com ênfase no art. 19 e no impacto do uso de Inteligência Artificial Generativa, à luz da recente interpretação do Supremo Tribunal Federal. O dispositivo legal, originalmente proposto para regularizar o uso da Internet no Brasil, e estabelecer diretrizes para promoção de um ambiente online seguro, determinou a necessidade de ordem judicial para a responsabilização dos provedores de aplicação de internet. Todavia, com a difusão do cenário digital no Brasil, observou-se a implementação e instantânea aderência ao uso de IAs Generativas, e este avanço promove questionamentos a respeito dos encalces para a responsabilização nas redes. O poder dessas tecnologias de produzir e disseminar conteúdos autônomos intensifica os riscos de desinformação, discurso de ódio e violação de direitos fundamentais, pressionando o sistema jurídico a repensar não apenas a liberdade de expressão, mas também os contornos da responsabilidade civil das plataformas. Este movimento provoca reflexões sobre a existência de um ambiente democrático, conforme esperado pelo texto legal. Diante disso, surge a questão: se não há ambiente seguro para todos, quais os limites da liberdade de expressão para conter conteúdos criminosos? A partir dessa concepção, o STF decidiu expandir a aplicação do art. 19, compreendendo que o texto legal não acompanhou a velocidade a qual a revolução tecnológica emergiu no Brasil, precisando de adequação para o exercício regular do constitucionalismo digital. Este trabalho busca avaliar a possibilidade de responsabilidade civil dos provedores de internet diante dos conteúdos criminosos vivenciados em suas redes. A partir disso, compreender os limites da liberdade de expressão num ambiente ilusoriamente neutro, como as redes sociais, e quais os impactos que o uso de IAs vêm provocando para a estabilidade de um constitucionalismo digital contemporâneo. Trata-se de estudo de revisão bibliográfica, baseado na Lei nº 12.965/2014, artigos científicos e jurisprudência recente. Foram utilizados termos como “marco civil da internet”, “liberdade de expressão” e “provedores”, além da análise de casos envolvendo IA generativa e crimes digitais, como ataques cibernéticos contra pessoas públicas e crimes contra a honra. Portanto, ao discutir a falsa neutralidade das redes e os impactos da recente interpretação do STF, torna-se indispensável problematizar a emergência das IAs generativas. Logo, busca-se contribuir para o desenvolvimento de um constitucionalismo digital que assegure de forma eficiente os direitos individuais dos usuários e a responsabilização adequada das plataformas.
Palavras-chave: Marco civil da internet; Responsabilização; Inteligência artificial generativa; Liberdade de expressão.
Resumén:
Introducción: Este artículo examina las debilidades de la rendición de cuentas de las grandes tecnológicas en Brasil a la luz de la Carta de Derechos de Internet de Brasil, con énfasis en el Artículo 19 y el impacto del uso de la Inteligencia Artificial Generativa, a la luz de la reciente interpretación del Supremo Tribunal Federal. La disposición legal, propuesta originalmente para regular el uso de internet en Brasil y establecer directrices para promover un entorno en línea seguro, estableció la necesidad de una orden judicial para responsabilizar a los proveedores de aplicaciones de internet. Sin embargo, con la expansión del panorama digital en Brasil, se ha observado la implementación y adopción inmediata de la IA Generativa, y este avance plantea interrogantes sobre los marcos de rendición de cuentas dentro de las redes. El poder de estas tecnologías para producir y difundir contenido autónomo intensifica los riesgos de desinformación, discurso de odio y violaciones de derechos fundamentales, presionando al sistema legal para que reconsidere no solo la libertad de expresión, sino también los límites de la responsabilidad civil de las plataformas. Este movimiento provoca reflexiones sobre la existencia de un entorno democrático, como lo prevé el texto legal. Ante esto, surge la pregunta: si no existe un entorno seguro para todos, ¿cuáles son los límites de la libertad de expresión para contener contenido delictivo? Con base en esta comprensión, el Supremo Tribunal Federal (STF) decidió ampliar la aplicación del Artículo 19, entendiendo que el texto legal no se había adaptado al ritmo de la revolución tecnológica en Brasil y necesitaba adaptarse al ejercicio habitual del constitucionalismo digital. Objetivos: Este trabajo busca evaluar la posibilidad de responsabilidad civil de los proveedores de internet por el contenido delictivo detectado en sus redes. A partir de esto, se busca comprender los límites de la libertad de expresión en un entorno aparentemente neutral, como las redes sociales, y los impactos que el uso de la IA ha tenido en la estabilidad del constitucionalismo digital contemporáneo. Metodología: Se trata de un estudio de revisión bibliográfica, basado en la Ley n.º 12.965/2014, artículos científicos y jurisprudencia reciente. Se utilizaron términos como “marco de derechos civiles en internet”, “libertad de expresión” y “proveedores”, además de analizar casos que involucran IA generativa y delitos digitales, como ciberataques contra figuras públicas y delitos contra el honor. Conclusiones: Por lo tanto, al analizar la falsa neutralidad de las redes y los impactos de la reciente interpretación de la Corte Suprema, es fundamental problematizar el surgimiento de la IA generativa. Por ello, buscamos contribuir al desarrollo de un constitucionalismo digital que garantice eficazmente los derechos individuales de los usuarios y la adecuada rendición de cuentas de las plataformas.
Palabras clave: Marco de derechos civiles en internet; rendición de cuentas; inteligencia artificial generativa; libertad de expresión.
Introdução:
A Lei 12.965/2014 foi concebida como constituição da internet, ela estabelece as diretrizes para atuação das redes no Brasil. Enquanto, disciplina a utilização bucando cumprir o princípio de Liberdade de expressão. “Esta Lei estabelece princípios, garantias, direitos e deveres para o uso da internet no Brasil e determina as diretrizes para atuação da União, dos Estados, do Distrito Federal e dos Municípios em relação à matéria (Art. 1º, Lei 12.965/2014)”.
Uma vez consolidado a internet como principal meio de comunicação proporcionou novos desafios no campo jurídico, em destaque quanto a responsabilização dos agentes que intermediam a circulação de informações no meio digital. O Art. 19 do Marco Civil disserta a respeito da responsabilização, afirmando que independentemente do conteúdo divulgado, e dos meios aos quais ele foi inserido na plataforma, os provedores de internet apenas seriam responsabilizados após decisão judicial.
Com o intuito de assegurar a liberdade de expressão e impedir a censura, o provedor de aplicações de internet somente poderá ser responsabilizado civilmente por danos decorrentes de conteúdo gerado por terceiros se, após ordem judicial específica, não tomar as providências para, no âmbito e nos limites técnicos do seu serviço e dentro do prazo assinalado, tornar indisponível o conteúdo apontado como infringente, ressalvadas as disposições legais em contrário (Art. 19º)
Vale salientar que o princípio constitucional a ser velado pelo texto legal anteriormente citado, foi o principal bem jurídico guardado por todos os anos subsequentes a vigência da norma, isto é, em defesa da liberdade de expressão e prevenção a possíveis censuras, o entendimento acerca da responsabilização dos agentes era de responsabilidade mitigada, a qual seria expressa apenas após ordem judicial específica. Neste contexto, observou-se que o uso responsável das redes estava em risco, tendo em vista a ausência de eficiência na responsabilização dos danos recorrentes do alcance de alguns conteúdos. A atual conjuntura mostrou-se insuficiente para lidar com as complexidades do atual ecossistema digital, notadamente diante da atuação das Big Techs e do advento das Inteligências Artificiais Generativas.
No contexto do novo cenário digital, essas plataformas, que inicialmente se apresentavam como neutras intermediárias de conteúdo, passaram a exercer poder de filtragem, recomendação e amplificação de informações, assumindo papel ativo na formação da opinião pública e na modelagem de comportamentos sociais. A crescente autonomia dos sistemas algorítmicos e o potencial criativo das IAs Generativas agravam a dificuldade de identificar responsabilidades e de preservar direitos fundamentais diante da massificação da desinformação, dos discursos de ódio e das violações à honra e à dignidade humana. As empresas têm capacidade de filtro para configurar e direcionar o conteúdo segundo os seus termos de uso, por exemplo. Porém, não possuem capacidade para filtrar conteúdos criminosos, como de pedofilia ou tráfico? Não há capacidade ou há desvio de interesses?
Em um dos casos analisados, o uso de IA estava sendo empregado para automatizar processos decisórios envolvendo remoção de conteúdo. Especificamente, essa ferramenta, foi desenvolvida para avaliar o nível de “ofensa” de conteúdos textuais, e faz uso de processamento natural de linguagem e análise de sentimentos para detectar discurso de ódio e conteúdo de caráter danoso. Segundo os pesquisadores que construíram os dois sistemas de IA, após testá-los em um par de conjuntos de dados de mais de 100.000 tweets, foram anotados por humanos com rótulos como “ofensivo”, “nenhum” ou “discurso de ódio”. Um dos algoritmos sinalizou incorretamente 46% dos tweets inofensivos de autores afro-americanos como ofensivos. Testes em conjuntos de dados maiores, incluindo um composto por 5,4 milhões de tweets, descobriram que postagens de autores afro-americanos tinham 1,5 vez mais probabilidade de serem rotuladas como ofensivas. Isto demonstra que uma linguagem ser considerada ofensiva ou não, depende de quem a diz e daquele que a ouve.
Assim, o Supremo Tribunal Federal, ao analisar a inconstitucionalidade parcial do art. 19, reconheceu que o regime de responsabilidade restrita não pode servir como escudo absoluto para condutas omissas das plataformas, especialmente em casos de disseminação de conteúdos manifestamente ilícitos ou violações graves de direitos fundamentais. Essa decisão evidencia a transição de uma concepção passiva das plataformas para um modelo de corresponsabilidade, em que se exige delas uma postura diligente no controle e na mitigação de danos digitais. Isso reacendeu o debate sobre os limites da liberdade de expressão, a necessidade de responsabilização mais efetiva das Big Techs e o papel do Estado na regulação do espaço digital.
Outrossim, cabe investigar o papel do Direito na proteção do ambiente digital, questionando a real extensão da liberdade de expressão garantida pelo Marco Civil e os riscos de manutenção de um modelo que, sob o pretexto de proteger usuários, acaba por blindar as corporações que estruturam e influenciam a comunicação online. A partir de revisão bibliográfica e análise da jurisprudência recente, busca-se compreender de que modo o avanço das IAs Generativas pressiona o sistema jurídico a desenvolver um novo paradigma de constitucionalismo, capaz de compatibilizar inovação tecnológica, segurança jurídica e efetividade dos direitos fundamentais.
1. A EVOLUÇÃO NORMATIVA E CONCEITUAL DA RESPONSABILIZAÇÃO DIGITAL NO BRASIL
1.1 O MARCO CIVIL DA INTERNET E OS PRINCÍPIOS DA REGULAÇÃO DEMOCRÁTICA DA REDE
A existência humana é, primariamente, uma esfera de ação. Desde o mais simples gesto até a mais complexa decisão, nos movemos em um vasto campo de possibilidades, onde a liberdade é a nossa condição inaugural. É nesse ponto que surge a necessidade de um tecido social que transcenda o mero caos de forças em colisão. A norma, em sua acepção mais profunda e crua, emerge como o principal estabilizador social. Longe de ser apenas uma imposição externa, ela é a gramática da ação intersubjetiva. As normas jurídicas, éticas e morais atuam como balizas que, ao delimitar o permissível e o vedado, transformam o campo aberto da ação em um espaço de convivência previsível e justo. Ao dirigir a conduta, a norma não visa suprimir a liberdade, mas sim qualificá-la, garantindo que o exercício da autonomia de um não anule a autonomia do outro.
Neste contexto, a internet se apresentava como “terra sem lei”, onde tudo seria permitido pela aparente impossibilidade de descoberta da verdadeira identidade da pessoa. Nesse sentido, ressalta-se o equívoco da afirmação de que a internet seria o meio da livre e irrestrita circulação de informações, onde qualquer espécie de restrição ou censura seria vedada (GREENBERG, 2016). Assim, era evidente a deficiência do direito penal tradicional no combate à criminalidade virtual. Os Códigos Penais e legislações penais especiais foram afetados por essa nova realidade, porque o direito penal é fortemente ligado à questão da soberania nacional, enquanto a internet, por sua vez, não conhece Estados por ser manifestação de uma verdadeira “aldeia global”. Ao largo dessas reflexões sobre a responsabilização e combate ao crime em ambiente digital, a consolidação de um regime jurídico protetivo para o ambiente digital no Brasil é fruto de um processo legislativo marcado por forte mobilização social, debates públicos e pressões geopolíticas.
A gênese do Marco Civil da Internet é inseparável de um contexto de incerteza jurídica e de anseio por um modelo regulatório que, diferentemente de legislações mais antigas, fosse capaz de harmonizar a inovação tecnológica com a proteção de direitos fundamentais. É notório que sua formulação foi influenciada pelos escândalos internacionais de vigilância estatal revelados pelo caso Snowden, o que conferiu à proposta legislativa um caráter voltado à proteção da privacidade, definição de responsabilidades e promoção de um espaço democrático online. Assim, a lei se tornou um marco paradigmático na construção do constitucionalismo digital brasileiro, fixando bases principiológicas robustas para o funcionamento da Internet.
O tripé principiológico que estrutura o Marco Civil — liberdade de expressão, proteção da privacidade e neutralidade da rede — revela a preocupação do legislador em construir um ambiente que concilie circulação livre de informações com a preservação da dignidade humana e das garantias constitucionais. A liberdade de expressão, compreendida como núcleo essencial da formação de uma esfera pública plural, aparece tanto como direito fundamental quanto como condição para o exercício de outros direitos políticos. A doutrina, inspirada na filosofia de John Stuart Mill, que defende a importância do “mercado de ideias” para o progresso social, entende que a intervenção estatal deve ser mínima para evitar o efeito silenciador (chilling effect). Em contrapartida, a proteção da privacidade e dos dados pessoais confere limites à atuação estatal e privada, prevenindo práticas de vigilância abusiva e o uso indevido de informações sensíveis. Por fim, a neutralidade da rede garante que o tráfego de dados não seja manipulado pelas empresas provedoras, assegurando igualdade de condições para o acesso e a difusão de conteúdo. O princípio impõe que a filtragem ou os privilégios de tráfego devam respeitar apenas e tão somente critérios técnicos e éticos, não sendo admissíveis motivos políticos, comerciais, religiosos ou culturais que criem qualquer forma de discriminação ou favorecimento.
O MCI estabelece o Estado não apenas como regulador, mas como garantidor ativo dos direitos fundamentais na internet (Art.4º), como o acesso à informação e a participação. Isso implica um dever de proteção (Schutzpflicht) em um ambiente que, embora privado em sua infraestrutura, é essencialmente público em sua função social.
Na ADPF 187, o Min. Luiz Fux consignou que: “a liberdade de expressão […] merece proteção qualificada, de modo que, quando da ponderação com outros princípios constitucionais, possua uma dimensão de peso prima facie maior”, em razão da sua “preeminência axiológica” sobre outras normas e direitos. Todavia, isso não significa que o intérprete deva atribuir à liberdade de expressão a condição de direito absoluto, imune a qualquer limite, nem mesmo que deva estabelecer uma espécie de hierarquia prévia entre as normas constitucionais (SARLET, 2015). Inserido nesse arranjo, o Estado assume papel central como garantidor da efetividade de direitos fundamentais, devendo assegurar que as práticas das plataformas digitais se orientem pela proteção dos usuários, pela transparência e pela regulação técnica adequada. Não se trata apenas de impor obrigações às empresas, mas de reconhecer que, no ambiente digital, há assimetria informacional e econômica capaz de colocar o usuário em posição de vulnerabilidade. Assim, o Marco Civil foi concebido não apenas como um marco regulatório, mas como um instrumento de realização do ideal democrático no ciberespaço, balizado pela Constituição Federal de 1988.
1.2 O ARTIGO 19 DO MARCO CIVIL E A LÓGICA DA IRRESPONSABILIDADE CONDICIONADA
O artigo 19 do MCI estabelece o modelo brasileiro de responsabilização dos provedores de aplicação, consagrando uma lógica de irresponsabilidade condicionada, também conhecida como “responsabilidade subsidiária”. Essa construção jurídica não surgiu de forma autônoma; ela se inspira diretamente no sistema norte-americano de safe harbor, especialmente no regime previsto no Digital Millennium Copyright Act (DMCA), que limita a responsabilização das plataformas por conteúdos de terceiros, desde que cumpram determinados requisitos procedimentais. A transposição desse modelo buscou equilibrar a proteção de direitos individuais com a preservação da liberdade de expressão, evitando a remoção excessiva (“overblocking”) motivada pelo medo de responsabilização.
No contexto brasileiro, o safe harbor ganhou contornos próprios. O artigo 19 condicionou a responsabilização das plataformas à existência de ordem judicial específica, afastando qualquer dever generalizado de monitoramento prévio. Assim, enquanto nos EUA é comum a remoção por simples notificação privada (“notice and takedown”), o Brasil adotou um sistema mais garantista, entendendo que a filtragem privada do discurso poderia violar a esfera comunicativa dos cidadãos. Contudo, essa solução trouxe controvérsias significativas, especialmente porque, em situações envolvendo crimes contra a honra, discursos de ódio, perseguições virtuais ou conteúdos ilícitos de rápida disseminação, a necessidade de ordem judicial prévia mostra-se incompatível com a velocidade da dinâmica digital. Desse modo, como alerta Thomas Frank (2004), “a política se torna basicamente um exercício de autoterapia individual, uma realização individual, não um esforço voltado à construção de um movimento”. A tecnologia que prometia intensificar a democracia periga se converter em mecanismo de preservação do status quo. Vislumbra-se o risco daquilo que Zygmunt Bauman denomina uma “dispensa honrosa da política do real”:
Os servidores engolem e armazenam as marcas de dissensão e protesto para que a política líquido-moderna possa ir em frente sem sofrer influências nem interrupções – substituindo o confronto e a argumentação por frases descontextualizadas e oportunidades para fotos. (…) quando a discordância viaja em direção a armazéns eletrônicos, ela é esterilizada, neutralizada e tornada irrelevante (…) A política real e a política virtual correm em direções opostas, e a distância entre ambas cresce na proporção em que a autossuficiência de cada uma se beneficia da ausência da companhia da outra.
A exigência de ordem judicial também gerou críticas relativas à eficácia prática da proteção do usuário. Na ADPF 130, o Min. Carlos Britto afirmou que “a Constituição brasileira se posiciona diante de bens jurídicos de personalidade para, de imediato, cravar uma primazia ou precedência: a das liberdades de pensamento e de expressão lato senso”. Desse modo, por um lado, preserva-se a liberdade de expressão contra remoções arbitrárias. Por outro, cria-se um cenário de morosidade, pois as plataformas somente agem após determinação judicial, permitindo que conteúdos ilícitos permaneçam ativos por longos períodos. Essa lacuna produz danos irreversíveis, especialmente diante de fenômenos como deepfakes, difamação viral e campanhas coordenadas de desinformação, cujos impactos se amplificam em poucos minutos. Críticos argumentam que a exigência de ordem judicial em todos os casos de ilicitude (incluindo conteúdos graves como crimes de ódio, pornografia de vingança, ou terrorismo) gera uma demora excessiva na retirada do material, exacerbando o dano à vítima, em uma clara violação à efetividade da tutela jurisdicional e do direito à dignidade da pessoa humana.
Essa tensão abriu caminho para a judicialização do tema e para a adaptação interpretativa promovida pelo Supremo Tribunal Federal, que passou a reconhecer a insuficiência do modelo original frente aos desafios da era algorítmica e da Inteligência Artificial Generativa.
2. A INTERPRETAÇÃO CONSTITUCIONAL DO STF E OS NOVOS LIMITES DA LIBERDADE DE EXPRESSÃO NAS REDES
2.1 A DECISÃO DO SUPREMO TRIBUNAL FEDERAL E A REITERPRETAÇÃO DA NORMA
O cerne da virada interpretativa está nos julgamentos dos Temas 987 e 533 da Repercussão Geral. Embora não tenha declarado o Art. 19 integralmente inconstitucional sem redução do texto, o STF introduziu uma releitura fundamental da norma, reposicionando a interpretação do dispositivo à luz das mutações do ambiente digital. Essa releitura constitucional assentou que a exigência de ordem judicial como condição exclusiva para a responsabilização civil das plataformas não satisfaz mais o dever de proteção estatal em um cenário marcado por produção algorítmica de conteúdo, discursos ilícitos de rápida difusão e ataques coordenados contra direitos fundamentais.
O núcleo da decisão reside no deslocamento do modelo de responsabilidade exclusivamente reativa para um modelo baseado em diligência, prevenção e resposta adequada, compreendido pelo Tribunal como extensão do dever de proteção previsto no art. 5º da Constituição. Como afirma Ferraz Jr. (2021), “a Constituição impõe ao Estado não apenas abstenções, mas prestações positivas destinadas a impedir a violação de direitos fundamentais” — dever que, no ambiente digital, necessariamente passa pela regulação da atividade de plataformas que exercem poder estrutural sobre a circulação de informações. O STF reconheceu ainda que a mediação automatizada de fluxos comunicativos cria zonas de risco, cujo controle técnico integra a esfera de domínio das plataformas. Assim, quando a empresa deixa de adotar medidas minimamente eficazes para impedir a reprodução massiva de conteúdos manifestamente ilícitos, há falha no dever de cuidado, justificando sua responsabilização independentemente de prévia ordem judicial.
O modo pelo qual tais instituições estão a gerir suas redes, no entanto, tem sido alvo de questionamentos, face à alegação de que empregam algoritmos que amplificam as manifestações de ódio online, uma vez que estas conduzem a um maior acesso dos usuários às plataformas e consequentemente permite às empresas auferirem maiores lucros com os anúncios de publicidade. Frances Haugen, ex-funcionária da empresa Facebook, denunciou a companhia às autoridades públicas norte-americanas quanto as suas práticas de gestão das plataformas sociais Facebook e Instagram. Ao testemunhar perante o Senado dos Estados Unidos, em 5 de outubro de 2021, Haugen declarou: “A liderança da empresa sabe como tornar o Facebook e o Instagram mais seguros, mas não fará as mudanças necessárias porque colocaram os seus lucros astronômicos à frente das pessoas”
É imprescindível destacar que tal interpretação em nada mina a liberdade de expressão, ela é uma justa medida para amenizar e buscar filtrar os impactos promovidos pelo aumento de noticias falsas direcionando o pensamento social. O Brasil é o terceiro país com maior consumo de fake news, segundo o Reuters Institute Digital News Report, que analisou a confiança e a desinformação no consumo de notícias globais. Ademais, a Organização para a Cooperação e Desenvolvimento Econômico investigou a acurácia das pessoas na identificação de fake news e como isso se relaciona com IA e mídias sociais, com base nesse estudo, observou-se que os brasileiros foram os piores em identificar notícias falsas e postagens delituosas, principalmente em conteúdo elaborado por IA em redes sociais, totalizando mais de 54% de erros. Sendo assim, a decisão busca fortalecer a democracia digital enquanto direito relacional, que não pode ser instrumentalizado para legitimar práticas ilícitas, discurso de ódio, ataques coordenados à democracia e violações de direitos da personalidade. Como destaca Jack Balkin (2021), o discurso digital só pode ser considerado verdadeiramente livre quando protegido contra ameaças estruturais provenientes tanto do Estado quanto de atores privados que controlam a arquitetura da comunicação.
A decisão impacta diretamente a lógica de moderação de conteúdo: as plataformas passam a ter que estruturar mecanismos de resposta rápida, transparência, revisão e supervisão humana, pois a omissão dolosa ou negligente passa a configurar ato ilícito. O Tribunal reconheceu que, em uma sociedade amplamente conectada, a proteção dos direitos fundamentais não pode depender exclusivamente da velocidade do Judiciário, mas também da capacidade regulatória e preventiva das próprias Big Techs.
2.2 O PAPEL DAS BIG TECHS COMO MEDIADORAS DA ESFERA PÚBLICA DIGITAL
A decisão do STF só pode ser compreendida a partir da dimensão estrutural ocupada pelas plataformas digitais na sociedade contemporânea. As Big Techs deixaram de ser meros intermediários neutros e passaram a atuar como curadoras da esfera pública digital, controlando fluxos informacionais, hierarquizando conteúdos e definindo o que se torna visível ou invisível. Esse fenômeno é descrito por Manuel Castells (2016) como a “programação da comunicação social”, em que o poder circula pela capacidade de moldar redes, algoritmos e estruturas de interação.
Esse contexto entra em evidência como realidade ao observar a reação das Big Techs à mudança de entendimento do STF, em nota enviada ao Estadão, a Meta, empresa do norte-americano Mark Zuckerberg, a decisão da Corte levanta preocupações sobre a liberdade. “Enfraquecer o Artigo 19 do Marco Civil da Internet traz incertezas jurídicas e terá consequências para a liberdade de expressão, inovação e desenvolvimento econômico digital, aumentando significativamente o risco de fazer negócios no Brasil”, declarou o porta-voz da Meta. Ou seja, a alegada neutralidade algorítmica das plataformas constitui uma ficção funcional. Como observam Gillespie e Zuboff (2020), os algoritmos são arquiteturas normativas que operam segundo lógicas econômicas específicas, notadamente, a maximização do engajamento e do lucro, e não segundo ideais democráticos. O design da plataforma, seu modelo de negócios e os critérios de ranqueamento influenciam diretamente quais narrativas ganham visibilidade, podendo reforçar discursos extremistas, sensacionalistas ou discriminatórios. Os dados são imputados em rede após coleta, e esse processo se dá por observação de mundo. Sendo assim, é preciso compreender como o mundo é observado para entender como é feita a coleta desses dados.
Como alerta Lawrence Lessig (2006), “o código é a nova lei”: as regras incorporadas às plataformas funcionam como verdadeiros dispositivos regulatórios, condicionando comportamentos e produzindo enquadramentos sociais. No caso brasileiro, isso significa que as plataformas, embora privadas, exercem função pública indireta, pois estruturam o espaço em que se formam opiniões, identidades políticas e práticas sociais. Como qualquer outra tecnologia, ela foi fruto de um contexto socioeconômico, o qual influenciou, diretamente, a forma e os objetivos para os quais foi desenvolvida. Compreender isto é indispensável para analisar criticamente a internet dos dias de hoje (CASTELLS, 2001, p. 23).
A concentração de poder nas mãos de poucas empresas privadas globais (um oligopólio informacional) representa um risco direto à democracia informacional, que pressupõe o acesso a informações diversas e um debate livre de manipulações. A ausência de mecanismos eficientes de responsabilização cria um cenário em que as plataformas se beneficiam economicamente da viralização de conteúdos nocivos, ao mesmo tempo em que se eximem das consequências jurídicas. Assim, o papel das Big Techs não é apenas tecnológico, mas político: elas definem a moldura do debate público e influenciam o próprio exercício da cidadania.
3. INTELIGÊNCIA ARTIFICIAL GENERATIVA E OS DESAFIOS DA RESPONSABILIDADE CIVIL DIGITAL
Se antes os provedores se limitavam à moderação reativa de conteúdos produzidos por usuários, as IAs generativas inauguram uma etapa em que os sistemas passam a atuar como agentes produtores de conteúdo, alterando drasticamente o eixo da imputação de responsabilidade. O conteúdo gerado por IAG não é uma mera retransmissão, mas uma criação sintética resultante de modelos complexos de aprendizado (Large Language Models – LLMs). O modelo tradicional de responsabilidade civil (subjetiva ou objetiva) pressupõe a existência de um nexo causal claro entre a ação/omissão de um sujeito imputável (o agente) e o dano sofrido pela vítima. A IAG desestrutura essa lógica.
Como aponta Frank Pasquale (2015), “os sistemas automatizados criam zonas de indeterminação que dissolvem as fronteiras da autoria individual”. Assim, quando um deepfake difamatório é gerado autonomamente, ou quando uma imagem violadora é criada sem qualquer input direto do usuário, surge a pergunta: quem responde? Como afirma Lawrence Lessig (2006), “quem controla o código controla o comportamento”, o que reforça a necessidade de responsabilização proporcional ao grau de ingerência da plataforma. A ausência de um agente humano direto não pode servir como escudo de irresponsabilidade. Para muitos autores, o problema da autoria na IA revela a importância de migrar de um modelo de culpa para um modelo de responsabilidade por risco tecnológico, mais aderente às dinâmicas da economia digital.
O relatório da organização Media Matters e análises de outras organizações (como AI Forensics, citada em reportagens sobre o tema) destacam a proliferação em massa de vídeos de ódio e racistas gerados por Inteligência Artificial (IA) na plataforma TikTok, expondo as falhas no regime de moderação e o perigo da IAG desregulada. Grande parte dos vídeos problemáticos foi identificada como tendo sido criada com o auxílio de ferramentas de IA generativa, como o Veo 3 do Google (um modelo de conversão de texto em vídeo), que é capaz de produzir clipes hiper-realistas de alta qualidade e em larga escala. O material disseminado inclui racismo explícito, antissemitismo, e xenofobia, muitas vezes empregando estereótipos ofensivos e depreciativos. Um exemplo notório mencionado é um vídeo intitulado “Average Waffle House in Atlanta”, que utiliza um tropo racista extremamente agressivo, e que teria acumulado centenas de milhares de visualizações.
Os riscos concretos da IA generativa já são amplamente documentados. Deepfakes com potencial eleitoral, campanhas coordenadas de desinformação, criação automatizada de calúnias, extorsões baseadas em áudios falsificados e manipulações que violam direitos da personalidade demonstram que a produção autônoma de conteúdo não é apenas um desafio teórico, mas um vetor de lesões reais e crescentes. Shoshana Zuboff (2019) destaca que “as tecnologias que moldam a percepção moldam também o poder”, evidenciando a gravidade desse fenômeno.
O apelo normativo promovido pelo MCI torna-se insuficiente para lidar com essa nova escala de riscos. A exigência de ordem judicial prévia do art. 19 não se harmoniza com a velocidade e a intensidade com que danos digitais podem se consolidar no ambiente de IA, especialmente em contextos eleitorais, de violência de gênero ou de ataques à honra. A ausência de legislação específica sobre IA no Brasil impõe ao Poder Judiciário o papel de protagonista na construção de um constitucionalismo digital responsivo, capaz de compatibilizar liberdade de expressão, inovação e proteção de direitos fundamentais. Nesse sentido, a recente postura do STF — ao reinterpretar o alcance do art. 19 e enfatizar o dever de diligência das plataformas — já aponta para um movimento de reposicionamento institucional.
4. CONSTITUCIONALISMO DIGITAL E A CONSTRUÇÃO DE UM NOVO PARADIGMA DE RESPONSABILIZAÇÃO
A evolução da responsabilização digital no Brasil, marcada pela tensão entre a liberdade de expressão e a necessidade de proteção dos cidadãos em um ambiente cada vez mais dominado por poderes algorítmicos, culmina na exigência de um Constitucionalismo Digital. Este conceito busca projetar os valores e princípios da Constituição Federal brasileira para o ciberespaço, redefinindo as relações de poder e a eficácia dos direitos fundamentais na era da informação.
A consolidação de um constitucionalismo digital exige compreender que a proteção da liberdade de expressão não se opõe à responsabilidade civil das plataformas; ao contrário, ambas se fortalecem mutuamente. Conforme Robert Post (2012), a liberdade de expressão só cumpre sua função democrática quando estruturada dentro de um ecossistema institucional capaz de proteger a integridade do discurso público. No ambiente virtual, isso significa que não basta garantir a livre manifestação: é necessário assegurar que essa manifestação não se converta em instrumento de violência simbólica, ódio organizado, manipulação informacional ou ataque à dignidade.
O Direito Constitucional exige que esse conflito seja resolvido pela ponderação, um método que busca otimizar os princípios em jogo sem anular um deles. A decisão do STF sobre o Art. 19 do MCI é um exemplo dessa ponderação, ao reconhecer que a liberdade de expressão não é um direito absoluto. A liberdade de expressão encontra seu limite quando transborda para o abuso de direito e atinge o núcleo de outros direitos fundamentais. Conforme a doutrina, o discurso que incita o ódio, a violência ou a discriminação não se qualifica como discurso constitucionalmente protegido, devendo ser coibido. Tal leitura afasta a visão liberal clássica de neutralidade das plataformas e se aproxima da concepção substancial de direitos fundamentais, na qual a responsabilidade civil funciona como instrumento para tornar a liberdade possível.
Em síntese, a responsabilização das plataformas deixa de ser interpretada como ameaça à expressão e passa a ser mecanismo indispensável para garantir um ambiente seguro e plural, especialmente num cenário em que a circulação digital de informações é capaz de produzir danos reais e massificados. A ponderação entre direitos, portanto, não é apenas um exercício teórico, mas condição para a manutenção da própria democracia informacional.
Autores como Mireille Hildebrandt (2020) defendem que o Direito deve se adaptar para lidar com estruturas algorítmicas capazes de moldar comportamentos, expectativas e percepções, e isso inclui repensar a forma como se imputa responsabilidade. Além do legislador, o Poder Judiciário desempenha papel central ao concretizar direitos fundamentais na esfera digital, ajustando a interpretação normativa às novas realidades tecnológicas. A atuação das agências reguladoras também se revela estratégica, sobretudo no diálogo entre proteção de dados, concorrência, comunicação social e direitos digitais.
Por fim, a construção de um constitucionalismo digital inclusivo e democrático exige que a regulação reconheça a assimetria de poder entre usuários e plataformas. Trata-se de garantir que o espaço digital não seja capturado por interesses privados, mas permaneça orientado pelos valores constitucionais brasileiros, especialmente a dignidade, a cidadania, a pluralidade informativa e a proteção contra danos estruturais.
Conclusão:
A análise da responsabilidade civil das Big Techs no contexto brasileiro evidencia um descompasso estrutural entre a dinâmica acelerada das tecnologias digitais e o ritmo mais lento das respostas normativas tradicionais. Embora o MCI seja um diploma legal vanguardista, o contexto atual o provou insuficiente para lidar com os desafios complexos e exponenciais da Era Algorítmica. A estrutura de irresponsabilidade condicionada do Artigo 19, inspirada no modelo Safe Harbor, entrou em crise diante do poder curatorial das Big Techs e da proliferação de conteúdos danosos gerados por Inteligência Artificial (IAG).
A interpretação conferida pelo Supremo Tribunal Federal ao art. 19 revela a necessidade de superação do modelo de irresponsabilidade condicionada. A interpretação constitucional firmada pelo Supremo Tribunal Federal (STF) nos Temas 987 e 533 constituiu a primeira grande fissura no safe harbor brasileiro. Ao impor o dever de diligência (duty of care) e admitir a responsabilização das plataformas por falha sistêmica na prevenção de ilícitos graves, o Judiciário sinalizou que a liberdade de expressão não pode ser o escudo para a omissão corporativa, especialmente quando o dano atinge a dignidade da pessoa humana
Ao deslocar o eixo da responsabilidade para a lógica da diligência e da prevenção, o Tribunal reconheceu que a neutralidade estrutural das plataformas é, em grande medida, uma ficção incompatível com o poder de curadoria e de influência social que elas exercem. Com isso, o STF reposiciona as Big Techs como agentes ativos na conformação da esfera pública digital, obrigando-as a incorporar parâmetros de cuidado, mitigação de riscos e respostas tempestivas diante de violações de direitos.
O advento da Inteligência Artificial Generativa aprofundou essa crise, tornando obsoleta a busca pelo nexo causal tradicional. Conforme demonstrado, a IAG dissolve a figura do agente responsável direto, deslocando o foco da imputação para o risco da atividade. As empresas de tecnologia, por criarem e lucrarem com sistemas de alto risco, devem ser o centro da responsabilidade civil, aplicando-se a teoria do risco-proveito e do defeito do serviço/produto. A dificuldade em identificar autoria, dolo ou culpa, bem como a ausência de um sujeito humano diretamente imputável, reforça a urgência de um novo paradigma regulatório capaz de lidar com agentes algorítmicos e com os efeitos sistêmicos por eles produzidos.
Diante disso, torna-se indispensável a construção de um constitucionalismo digital que responda às novas formas de poder informacional, assegurando tanto a liberdade de expressão quanto a efetividade da proteção da dignidade humana. A revisão legislativa, a atuação coordenada das instituições e a consolidação de parâmetros jurisprudenciais consistentes configuram caminhos essenciais para um ambiente digital mais democrático e transparente.
Referências Bibliográficas:
BALKIN, Jack. The Path of Robotics Law. Yale Law School Public Law Research Paper, n. 822, 2021.
BAUMAN, Zygmunt. Vida para Consumo. p. 138.
BODIN, Celina. Redes sociais virtuais: privacidade e responsabilidade civil. Análise a partir do Marco Civil da Internet. Pensar – Revista de Ciências Jurídicas, 2017.
CASTELLS, Manuel. A sociedade em rede. Tradução de Roneide Venancio Majer. 6. ed. São Paulo: Paz e Terra, 2016.
CELESTE, Edoardo; DA SILVA SANTARÉM, Paulo Rená. Constitucionalismo digital: mapeando a resposta constitucional aos desafios da tecnologia digital. Revista Brasileira de Direitos Fundamentais & Justiça, v. 15, n. 45, p. 63-91, 2021.
COZMAN, F. Relatório da OCDE mostra que brasileiros são os piores em identificar notícias falsas. Jornal da USP, São Paulo, 19 jul. 2024. Disponível em: https://jornal.usp.br/radio-usp/relatorio-da-ocde-mostra-que-brasileiros-sao-os-piores-em-identificar-noticias-falsas/. Acesso em: 04 nov. 2025.
DA SILVA, Erika Gianni. O Marco Civil da Internet e a responsabilidade civil: uma análise sob a ótica dos direitos fundamentais. Revista Científica Doctum Direito, v. 1, n. 2, 2023.
DE MOURA SANTANA, Bianca Quitéria. A (in)constitucionalidade do artigo 19 do Marco Civil da Internet: uma análise à luz do RE nº 1.037.396/SP, Tema 987 do STF. Revista Universitária Brasileira, v. 3, n. 2, 2025.
DE OLIVEIRA, José Antonio Cordeiro. A liberdade de expressão na internet. Revista Mosaico, v. 5, n. 1, p. 31-35, 2014.
DE SOUZA, Alcian Pereira et al. O fim da blindagem das big techs? A nova interpretação do art. 19 do Marco Civil da Internet pelo STF. Revista DCS, v. 22, n. 81, p. e3067-e3067, 2025.
FERRAZ JUNIOR, Tércio Sampaio. Introdução ao Estudo do Direito: Técnica, Decisão, Dominação. 8. ed. São Paulo: Atlas, 2021.
FRANK, Thomas. Le Marché de Droit Divin. Paris: Lux, 2004.
GREENBERG, Andy. It’s Been 20 Years since This Man Declared Cyberspace Independence. Wired. Disponível em: https://www.wired.com/2016/02/its-been-20-years-since-this-man-declared-cyberspaceindependence/. Acesso em: 21 out. 2025.
HILDEBRANDT, Mireille. Law for Computer Scientists and Other Folk. Oxford: Oxford University Press, 2020.
ISTOÉ DINHEIRO. Big techs indicam preocupação com decisão do Supremo. IstoÉ Dinheiro, 28 jun. 2025. Disponível em: https://istoedinheiro.com.br/big-techs-indicam-preocupacao-com-decisao-do-supremo. Acesso em: 22 jul. 2025.
JEE, Charlotte. Algoritmo de identificação de discurso de ódio discrimina linguagem afro-americana. Interlab, 13 ago. 2019. Disponível em: https://www.technologyreview.com/2019/08/13/133757/googles-algorithm-for-detecting-hate-speech-looks-racially-biased/. Acesso em: 13 out. 2025.
JUNIOR, Irineu Francisco Barreto; GALLINARO, Fábio; SAMPAIO, Vinícius Garcia Ribeiro. Marco Civil da Internet e direito à privacidade na sociedade da informação. Revista Direito, Estado e Sociedade, n. 52, 2018.
LEONARDI, Marcel. Responsabilidade civil dos provedores de serviços de internet. São Paulo: Editora Juarez de Oliveira, 2005.
LESSIG, Lawrence. Code 2.0. New York: Basic Books, 2006.
PASQUALE, Frank. The Black Box Society: The Secret Algorithms That Control Money and Information. Cambridge: Harvard University Press, 2015.
PEREIRA, Jane Reis Gonçalves; KELLER, Clara Iglesias. Constitucionalismo digital: contradições de um conceito impreciso. Revista Direito e Práxis, v. 13, n. 4, p. 2648-2689, 2022.
POST, Robert. Democracy, Expertise, and Academic Freedom: A First Amendment Jurisprudence for the Modern State. New Haven: Yale University Press, 2012.
SARLET, Ingo. Liberdade de expressão e biografias não autorizadas — notas sobre a ADI 4.815. Consultor Jurídico, 19 jun. 2015. Disponível em: http://www.conjur.com.br/2015-jun-19/direitos-fundamentais-liberdade-expressao-biografias-nao-autorizadas. Acesso em: 21 out. 2025.
SCHREIBER, Anderson. Marco Civil da Internet: avanço ou retrocesso? A responsabilidade civil por dano derivado do conteúdo gerado por terceiro. In: DE LUCCA, Newton; SIMÃO FILHO, Adalberto; LIMA, Cíntia Rosa Pereira de (Coords.). Direito & Internet III. São Paulo: Quartier Latin, v. 2, p. 293-294, 2015.
TAKANO, Camila Cardoso; DA SILVA, Lucas Gonçalves. O constitucionalismo digital e as novas tecnologias da informação e comunicação (TIC). Revista de Direito, Governança e Novas Tecnologias, v. 6, n. 1, p. 1-15, 2020.
TEIXEIRA, Tarcisio. Marco civil da internet: comentado. São Paulo: Almedina Brasil, 2018.
TOMASEVICIUS FILHO, Eduardo. Marco Civil da Internet: uma lei sem conteúdo normativo. Estudos Avançados, v. 30, p. 269-285, 2016.
ZUBOFF, Shoshana. The Age of Surveillance Capitalism: The Fight for a Human Future at the New Frontier of Power. New York: PublicAffairs, 2019.
A Editora OAB/PE Digital não se responsabiliza pelas opiniões e informações dos artigos, que são responsabilidade dos autores.
Envie seu artigo, a fim de que seja publicado em uma das várias seções do portal após conformidade editorial.