A Constituição da República atribuiu, no art. 227, absoluta prioridade à garantia dos direitos da infância e juventude, a doutrina da proteção integral, cujo corolário é o melhor interesse das crianças, adolescentes e jovens. Trata-se de norma constitucional de aplicabilidade imediata e observância obrigatória, núcleo essencial do pacto civilizatório que o Brasil se impôs ao adotar um Estado Democrático de Direito comprometido com a dignidade da pessoa humana.
À luz dessa diretriz, com a alteração social estabelecida pelo desenvolvimento dos ambientes digitais, em especial as assim chamadas redes sociais, impossível ignorar um das mais perversas faces da pretendida desregulação das plataformas digitais: a intencional exposição e exploração de crianças e adolescentes.
Redes sociais e plataformas de compartilhamento de vídeos operam com algoritmos sofisticados, alimentados por uma coleta massiva e incessante de dados comportamentais, capazes de identificar e prever padrões de interesse com um grau de precisão antes inimaginável. No contexto da exploração sexual infantil, a tecnologia vem sendo utilizada para mapear perfis de usuários que demonstram interesse em material sexualizado envolvendo menores, direcionar-lhes recomendações personalizadas e, assim, criar um ciclo de consumo que se retroalimenta.
De destaque que este comportamento algorítmico não é mero descuido técnico ou efeito não intencional do progresso tecnológico. Trata-se de uma engrenagem cuidadosamente calibrada para transformar vulneráveis em entretenimento, mercadoria, produto e, portanto, desprovidos dos caracteres de humanidade. Essa lógica de funcionamento não é neutra. É arquitetura de incentivo que visa prolongar o tempo de exposição e maximizar o engajamento e traduz cada clique e cada visualização em receita publicitária ou de assinaturas. Está-se, portanto, diante de modelo de negócios que, de forma consciente ou dolosamente cega, lucra com a degradação da infância.
Ao recomendar e monetizar conteúdos que sexualizam crianças e adolescentes, as plataformas digitais tornam-se, quando menos, partícipes econômicos de um crime, ainda que o façam sob o verniz da distância operacional ou da ausência de intervenção humana direta na curadoria do material. A verdade é que seus algoritmos ( programados e ajustados por equipes de engenharia e gestão) cumprem função ativa na propagação desse conteúdo, entregando-o precisamente àqueles que demonstram interesse específico, como se o produto da exploração sexual infantil pudesse ser tratado como legítima mercadoria na vitrine do mercado digital.
O ordenamento jurídico brasileiro já contempla tipos rigorosos voltados à repressão dessas condutas. Tanto o Código Penal, nos artigos 217-A, 218, 218-A, 218-B e 218-C, quanto o Estatuto da Criança e do Adolescente, nos artigos 240, 241-A, 241-C e 241-D, estabelecem proibições e sanções severas à produção, difusão e posse de material pornográfico infantil, incluindo qualquer representação sexual de menores. No entanto, a legislação ainda é notoriamente insuficiente para enfrentar o papel desempenhado pelas plataformas digitais. Não existe, no Brasil, um regime de responsabilidade que as alcance de maneira efetiva e proativa, especialmente quando se trata de práticas nas quais o próprio desenho algorítmico desempenha função decisiva na disseminação do conteúdo criminoso.
O Supremo Tribunal Federal, ao julgar os Temas 987 e 533 da repercussão geral, avançou no reconhecimento da responsabilidade dos provedores de aplicação de internet que, notificados, não promovam a imediata indisponibilização de conteúdos que configurem crimes graves contra crianças e adolescentes, como pornografia infantil ou abuso sexual. Passo importante, porém as ainda insuficiente. O modelo fixado é essencialmente reativo: condiciona a responsabilização à ciência inequívoca da plataforma ou a uma notificação formal.
Incapaz de alcançar o estágio anterior, aquele em que o conteúdo é identificado pelo sistema automatizado e (em vez de ser bloqueado, registrado e denunciado) é promovido e amplificado para públicos potencial e provavelmente abusadores. É exatamente nesse ponto, na detecção e prevenção proativa, que reside o maior potencial para impedir que o crime se consume e se propague.
Sabe-se, com base em estudos, investigações e relatos amplamente divulgados, que os algoritmos dessas plataformas são capazes de identificar com altíssimo grau de precisão o tipo de conteúdo que interessa a um determinado usuário e de recomendar material similar. Sabe-se que isso inclui conteúdos sexualizados de crianças e adolescentes. Sabe-se que esses conteúdos geram visualizações, engajamento e, portanto, receita. E, ainda assim, não se instituiu no Brasil um regime de responsabilização que alcance o provedor na medida de sua participação no ciclo econômico do crime.
A omissão legislativa, além de déficit técnico, configura violação a princípios e garantias constitucionais. Compromete a dignidade da pessoa humana, insculpida no art. 1º, III, como fundamento da República. Infringe o comando constitucional de absoluta prioridade na proteção do melhor interesse da infância e juventude, previsto no art. 227. Transgride o dever do Estado de assegurar a efetividade dos direitos fundamentais.
No âmbito internacional, contraria obrigações assumidas pelo Brasil, pelo menos na Declaração Universal dos Direitos Humanos (1948), na Declaração dos Direitos da Criança (1959), na Convenção Americana de Direitos Humanos (Pacto de San José da Costa Rica, 1969), nas Regras Mínimas das Nações Unidas adotadas pela Assembleia da ONU (chamadas Regras de Beijing, 1985), na; Convenção Internacional sobre os Direitos da Criança (1989).
Diante desse cenário, evidencia-se a necessária e robusta normatividade legislativa, que não se limite a respostas pontuais e tardias. É necessário instituir dever legal expresso de monitoramento ativo por parte das plataformas digitais, com a adoção obrigatória de tecnologias de varredura, cruzamento de dados e inteligência artificial treinada para a detecção e bloqueio de material de abuso infantil.
É imperativo que se preveja a responsabilidade solidária da plataforma, além de seus administradores quando deixarem de tomar as necessárias medidas acautelatórias, sempre que se comprovar que seus algoritmos recomendaram ou promoveram conteúdos desse tipo.
Transparência é igualmente essencial, em formato de relatórios públicos e periódicos sobre o funcionamento dos sistemas de recomendação, com métricas objetivas de identificação e remoção de material ilegal, bem como auditorias externas independentes para avaliar a eficácia e a integridade das medidas.
Além disso, possível prever, como medida obrigatória, que, além dos conteúdos identificados, os usuários expostos a conteúdo de natureza potencialmente criminosa envolvendo crianças e adolescentes tenham seus dados pessoais e suas interações com esse conteúdo integralmente preservados e automaticamente encaminhados às autoridades competentes para apuração de eventual prática penalmente tipificada.
A coleta e envio dos dados devem ser executadas com a devida informação ao próprio interessado, por meio de uma mensagem de advertência clara e ostensiva, que acompanhe o rastreamento e registro do alcance daquele material. Tal mecanismo, além de proteger a integridade da prova digital, também funciona como instrumento de dissuasão e alerta, interrompendo a cadeia de disseminação e responsabilizando, quando for o caso, aqueles que interagem com o conteúdo criminoso.
A responsabilização não pode ser simbólica, mas além de efetiva e punitiva, deve ser pedagógica. Multas devem ser calculadas sobre o faturamento global da empresa, de modo que o descumprimento não se torne mero custo operacional absorvível. Possível prever, ainda, sanções como bloqueio temporário de funcionamento e, nos casos de descumprimento reiterado e grave, suspensão total de operações no território nacional.
Tudo voltado a criar ambiente digital em que a exploração sexual de menores deixe de ser lucrativa e passe a ser um risco econômico e jurídico inaceitável para quem dela participa.
A escolha que se impõe é entre a integridade de crianças e adolescentes e a preservação de um modelo de negócios que monetiza crimes. A proteção absoluta da infância não é sugestão, mas comando constitucional. Cumpri-lo exige coragem política, clareza jurídica e sensibilidade ética. Cada clique monetizado sobre um vídeo que sexualiza uma criança, representa mais do que um ato de violência contra um indivíduo vulnerável, é fracasso coletivo e institucional. A neutralidade, aqui, é cumplicidade. E a Constituição Brasileira não admite cumplicidade diante da barbárie.
A Editora OAB/PE Digital não se responsabiliza pelas opiniões e informações dos artigos, que são responsabilidade dos autores.
Envie seu artigo, a fim de que seja publicado em uma das várias seções do portal após conformidade editorial.