Paulo Junior de Moraes Vasconcelos

A nova era da responsabilidade nas redes sociais: Por que regular não é censurar

Postado em 15 de outubro de 2025 Por Paulo Júnior de Moraes Vasconcelos Estudante de Direito cursando 2o período - FICR. Engenheiro Químico - UFPE, 22 anos de experiência em pesquisas sociais, econômicas e políticas, da elaboração do plano amostral ao processamento, Mestre em Ciências da Computação - IA - CIN/UFPE, Pós Graduação em Deep Learning - CIN/UFPE, Tecnólogo em Análise e Desenvolvimento de Sistemas - FICR.

Nos últimos anos, a discussão sobre a necessidade de regulamentar as redes sociais se tornou central em todo o mundo. Esse debate é alimentado por questões complexas que envolvem liberdade de expressão, responsabilidade civil, proteção de dados, segurança pública, interesses empresariais e expectativas da sociedade. Trata-se de um tema que já não pode ser ignorado, pois as plataformas digitais se transformaram no principal espaço de circulação de informações, de formação de opinião e até mesmo de deliberação política. O que está em jogo, portanto, não é apenas a maneira como nos comunicamos no ambiente digital, mas o próprio futuro da esfera pública e da democracia.

No Brasil, esse debate ocorre em um cenário de normas ainda em amadurecimento. O Marco Civil da Internet, de 2014, foi um marco relevante ao estabelecer princípios como neutralidade de rede, privacidade e responsabilidade limitada dos provedores por conteúdos de terceiros. Entretanto, ele não previu, com a mesma profundidade, a dimensão atual das redes sociais como palco para desinformação, manipulação política e discurso de ódio. Essa lacuna estimulou propostas mais recentes, como o chamado PL das Fake News (PL 2.630/2020), que busca criar mecanismos de transparência e de responsabilização das plataformas. O Supremo Tribunal Federal, por sua vez, também passou a revisar a aplicação do artigo 19 do Marco Civil, que limitava a responsabilização das plataformas à hipótese de descumprimento de ordem judicial. Ao reinterpretar esse dispositivo, a Corte abriu caminho para modelos mais flexíveis de responsabilização, aproximando o Brasil de experiências regulatórias internacionais.

Na União Europeia, o processo está mais avançado. A aprovação do Digital Services Act (DSA) criou o regime regulatório mais ambicioso do mundo, impondo às grandes plataformas — chamadas de VLOPs (Very Large Online Platforms) — deveres específicos de mitigação de riscos, relatórios de transparência, auditorias independentes e obrigações de fornecer dados a pesquisadores. Esse modelo europeu parte da premissa de que a dimensão das plataformas lhes confere responsabilidades proporcionais, já que seus algoritmos e políticas de moderação impactam a sociedade em escala sistêmica. O DSA não busca apenas punir conteúdos ilegais, mas atuar preventivamente, exigindo das empresas políticas robustas de governança digital.

Nos Estados Unidos, a situação é distinta. O país ainda se ancora na Seção 230 do Communications Decency Act, de 1996, que garante imunidade ampla às plataformas por conteúdos de terceiros, ao mesmo tempo em que lhes permite moderar conteúdo sem assumir responsabilidade editorial. Esse dispositivo, muitas vezes descrito como “as 26 palavras que criaram a internet”, tornou-se alvo de críticas de todos os lados do espectro político. Há quem defenda sua revogação parcial para responsabilizar mais as empresas; há também quem o veja como essencial para proteger a liberdade de expressão online. Ao invés de um marco federal abrangente, os Estados Unidos têm assistido a iniciativas fragmentadas, sobretudo em legislações estaduais, como as leis da Flórida e do Texas que tentam limitar o poder de moderação das plataformas, hoje sub judice na Suprema Corte. O resultado é um ambiente regulatório instável, altamente litigioso e permeado pelas disputas políticas próprias do sistema norte-americano.

Tanto o Japão quanto a Coreia do Sul vêm fortalecendo suas políticas de regulação das redes sociais, impulsionados por preocupações com difamação, desinformação, crimes digitais e abuso de poder das grandes plataformas. No caso japonês, o debate gira em torno de como conter conteúdos difamatórios e falsos, especialmente durante períodos eleitorais. O país alterou sua Lei de Limitação de Responsabilidade dos Provedores para obrigar as plataformas a removerem postagens ofensivas em prazos curtos e a divulgarem seus critérios de moderação. Além disso, o Japão passou a proibir o “marketing disfarçado” nas redes e discute medidas para combater fake news, inclusive a suspensão de monetizações em situações de crise. Essa tendência reflete a pressão popular — mais da metade dos japoneses apoia leis que limitem a circulação de informações falsas —, mas também traz o desafio de equilibrar liberdade de expressão e proteção da reputação.

Na Coreia do Sul, o foco regulatório é mais severo e concentrado na proteção da privacidade e no combate a crimes digitais, especialmente os que envolvem conteúdo sexual não consentido. O governo criminalizou não apenas a produção e a distribuição, mas também a simples posse de deepfakes sexuais, com penas que podem chegar a sete anos de prisão. A Comissão de Proteção de Informações Pessoais também tem atuado com firmeza, como no caso da multa aplicada à Meta por coleta ilegal de dados sensíveis. Ao mesmo tempo, o país mantém leis rígidas sobre difamação online, embora a obrigatoriedade do uso de nomes reais tenha sido considerada inconstitucional, preservando um certo espaço para o anonimato. Essa postura evidencia a tentativa sul-coreana de equilibrar segurança e privacidade, ainda que sob críticas de possíveis excessos e de vigilância ampliada.

Em ambos os países, observa-se uma tendência de maior intervenção estatal sobre as redes sociais, impulsionada por escândalos públicos e pela crescente influência dessas plataformas na política e na vida cotidiana. Enquanto o Japão foca em desinformação eleitoral e publicidade enganosa, a Coreia do Sul busca conter crimes digitais e proteger dados pessoais. Apesar das diferenças, o dilema é o mesmo: encontrar um ponto de equilíbrio entre liberdade e responsabilidade no ambiente digital. Essa busca reflete um movimento mais amplo na Ásia — e no mundo — de redefinir os limites da liberdade de expressão diante de novas formas de dano social mediadas pela tecnologia.

Diante desse panorama comparado, surgem diferentes visões sobre a regulamentação. Do ponto de vista jurídico, há uma tensão evidente entre a proteção da liberdade de expressão e a necessidade de impor responsabilidade às plataformas. Modelos mais liberais, como o americano, temem que a regulação se torne censura estatal; modelos mais intervencionistas, como o europeu e o asiático, aceitam restrições proporcionais quando outros direitos fundamentais estão em jogo. O desafio é equilibrar eficácia na contenção de abusos com garantias de devido processo e previsibilidade normativa. No caso brasileiro, o que parece sensato seria uma legislação equilibrada, adotar o caminho do meio: prever transparência algorítmica, estabelecer canais de contestação acessíveis, criar obrigações diferenciadas segundo o porte da plataforma e manter forte controle judicial sobre eventuais abusos. Isso traria segurança para usuários e empresas sem fragilizar garantias constitucionais.

Sob a ótica antropológica, a discussão revela que redes sociais não são apenas ferramentas técnicas, mas verdadeiros espaços de produção cultural. Elas moldam comportamentos, reforçam identidades e criam nichos ecológicos de sentido próprios, muitas vezes polarizadas. Os algoritmos de recomendação priorizam engajamento, o que amplifica discursos extremados e desinformação. A consequência é uma esfera distorcida, em que a informação confiável disputa espaço com narrativas fabricadas. Regular, portanto, não é apenas disciplinar empresas, mas reconhecer que estamos intervindo em um processo social e cultural. Qualquer legislação deve vir acompanhada de iniciativas de educação digital, incentivo a práticas responsáveis e de fortalecimento da capacidade crítica dos cidadãos.

Já na perspectiva das empresas de tecnologia, a regulação é vista tanto como ameaça quanto como oportunidade. Por um lado, as Big Techs resistem às regras que possam alterar seus modelos de negócios ou limitar a exploração de dados, além de argumentarem contra uma suposta “censura estatal”. Por outro, reconhecem que normas previsíveis e harmonizadas podem trazer mais segurança jurídica e preservar sua reputação. A maior preocupação das empresas é o custo do compliance: obrigações de auditoria, relatórios, verificação de idade e transparência aumentam despesas e podem dificultar a competição de empresas menores. Ainda assim, grandes plataformas já se movimentam para internalizar práticas de transparência, em parte para evitar legislações mais severas.

Do lado dos usuários, há uma expectativa ambivalente. A maioria das pessoas deseja menos desinformação, menos discurso de ódio e mais segurança para crianças e adolescentes. Ao mesmo tempo, há medo de que a regulação leve à censura, que restrinja vozes dissonantes ou minoritárias. O que os usuários reivindicam, sobretudo, são mecanismos de denúncia mais eficazes, justificativas claras para remoções e recursos de contestação acessíveis. Também querem maior controle sobre o funcionamento dos algoritmos e sobre o direcionamento de anúncios. Nesse sentido, uma regulação só será socialmente legítima se trouxer ganhos concretos para a vida do usuário, equilibrando segurança e liberdade.

É importante perguntar então: de quem é a responsabilidade por essa possível regulamentação? A resposta é distribuída. O usuário tem papel ativo, exercendo responsabilidade informacional e denunciando abusos. As empresas devem assumir a obrigação técnica e processual de criar sistemas de moderação eficazes e transparentes. O Judiciário deve garantir a tutela dos direitos fundamentais e zelar pelo devido processo legal. O legislador precisa desenhar regras claras e proporcionais, com sanções bem calibradas. E a sociedade civil, incluindo academia e imprensa, deve atuar como fiscalizadora e produtora de conhecimento crítico. Nenhum desses atores pode, sozinho, dar conta da complexidade do problema.

O que seria, afinal, uma proposta razoável de regulação? Parece prudente que um modelo ideal incluiria regras de transparência algorítmica, obrigação de notificar e oferecer recurso antes da remoção de conteúdos (salvo em casos de flagrante ilegalidade, como exploração sexual de menores), diferenciação de responsabilidades conforme o porte da plataforma, limites ao uso de dados sensíveis para anúncios e mecanismos de auditoria independentes. Deve ainda, haver um sistema de sanções administrativas proporcionais e a possibilidade de controle judicial. Ao mesmo tempo, políticas públicas de educação digital e campanhas de literacia midiática são indispensáveis, pois a lei, sozinha, não resolve problemas sociais complexos como a desinformação.

A regulamentação das redes sociais tem prós e contras evidentes. Entre os benefícios, estão a maior proteção de direitos fundamentais, a redução da circulação de conteúdos ilícitos, a transparência e a previsibilidade jurídica. Entre os riscos, estão a possibilidade de censura indevida, o aumento de custos que prejudicam a concorrência e o uso autoritário da regulação para silenciar dissenso. O desafio é desenhar normas que maximizem os benefícios e minimizem os riscos, algo que só pode ser alcançado por meio de ampla participação social, transparência no processo legislativo e fiscalização permanente.

No fim das contas, a regulamentação das redes sociais é parte inevitável do seu amadurecimento. Já não vivemos em uma “terra sem lei”, mas ainda carecemos de normas claras que definam os limites da liberdade digital, a responsabilidade dos intermediários e os direitos dos usuários. Regular não é controlar arbitrariamente, mas estabelecer regras de convivência e de proteção em um espaço que se tornou vital para a democracia, para a economia e para a vida cotidiana. O desafio não é decidir se devemos regular, mas como regular — e esse “como” precisa ser compatível com a liberdade, com a pluralidade e com a

própria ideia de uma internet aberta.

A Editora OAB/PE Digital não se responsabiliza pelas opiniões e informações dos artigos, que são responsabilidade dos autores.

Envie seu artigo, a fim de que seja publicado em uma das várias seções do portal após conformidade editorial.

Gostou? Compartilhe esse Conteúdo.

Fale Conosco pelo WhatsApp
Ir para o Topo do Site