A Quarta Revolução Industrial ou, mais pontualmente, a Revolução da Internet tem gerado novidades espetaculares, bem como perplexidades de igual nível. Entre estas últimas, a regulação das novas tecnologias, em especial as de inteligência artificial – embora, para alguns cientistas não se trate nem de inteligência, sequer artificial – chama a atenção.
O tema da regulação ganhou uma nova dimensão quando, para além de manifestações dos titulares das Big Techs, em Conferência Global, no Reino Unido, vinte e oito Países, incluindo Estados Unidos e China, os mais importantes neste campo, chegaram a um consenso quanto aos potenciais disruptivos e riscos do desenvolvimento tecnológico e seus usos nestas áreas. Na Declaração de Bletchley, constou: “Há potencial para danos graves, até mesmo catastróficos, deliberados ou não intencionais…”.
Após um período de aparente paralisia das autoridades públicas – Estados, Comunidades Supranacionais, Organismos Internacionais etc. – voltam-se os olhares para o papel destes na gestão do desenvolvimento científico e tecnológico, sem que isso signifique algum tipo de intervenção indevida.
Da falácia da autorregulação e da insuficiência de uma autorregulação regulada volta ao cenário a perspectiva de uma heterorregulação como instrumento necessário para o estabelecimento de parâmetros jurídico-normativos fortes desde uma autoridade pública externa, seja o Estado, com instrumento próprio da modernidade político-jurídica, seja de Comunidades Supranacionais – a União Europeia como exemplo melhor estruturado – ou, mesmo, da busca de uma regulação da tipo proveniente do direito internacional, com suas características e fragilidades próprias.
A grande questão que transparece, aqui e agora, após já algumas décadas de experimentação desde as origens das pesquisas em torno da cibernética, impulsionada pelas descobertas no contexto da Segunda Guerra Mundial – lembremos que a internet se inaugura nos finais dos anos 1960, no âmbito de um projeto militar e no auge da Guerra Fria – é a da produção de marcos regulatórios impositivos para o desenvolvimento, produção e utilização destas novíssimas tecnologias, sobretudo aquelas denominadas “inteligência artificial e aprendizagem de máquina”.
Até há pouco, a regulação técnica e a autorregulação pareciam ser o modelo privilegiado de modelagem para a “era digital”.
Agora, não apenas os riscos envolvidos, mas as situações já enfrentadas, levaram, em 2024, inclusive o Presidente J. Biden, dos EUA, a assinar uma normativa para regular o uso de IA, mesmo no contexto do modelo (autor)regulatório americano.
Por outro lado, a União Europeia também tem agido com este objetivo, após a edição do Regulamento Geral de Proteção de Dados, agora com o Digital Services Act (DSA) e o Digital Markets Act (DMT) e, mais pontualmente um regulamento para a inteligência artificial, todos com aplicabilidade geral e imediata no âmbito dos seus vinte e sete membros, além de um convênio marco no âmbito da Conselho da Europa (com seus 46 membros), com a participação de alguns outros Estados fora do seu âmbito, inclusive Estados Unidos.
A China, por sua vez, também tem atuado neste campo, produzindo um modelo regulatório próprio e particular, distinto dos outros dois grandes modelos que se confrontam: o americano, baseado na liberdade de mercado, e o europeu, este alicerçado, de regra, na proteção de direitos.
O Brasil busca acompanhar esta tendência. Após o Marco Civil da Internet (Lei nº 12.965/14) e a Lei Geral de Proteção de Dados Pessoais (Lei nº 13.709/18), discute o Projeto de Lei das “Fake News” (PL nº 2630/20) e o da Inteligência Artificial (PL nº 2338/23), atualização do Código Civil (PL nº 4/25) entre outros, muitos sob o “efeito Bruxelas” – como nomeado por Anu Bradford, em seu The Brussels Effect: How the European Union Rules the World (Oxford University Press) -, quando o modelo regulatório europeu parece “colonizar” marcos regulatórios ao redor do mundo. Também, no âmbito do Sistema de Justiça Eleitoral, impactado fortemente pelo uso de novas tecnologias e desinformação, além de discursos de ódio, misóginos etc., há uma produção regulatória crescente – p. ex. Resoluções nº 23714/2022 e 23735/2024 – no uso de sua competência própria na matéria. Também o Conselho Nacional de Justiça, recentemente editou a Resolução nº 615/2025, que regula o uso da inteligência artificial em seu ambiente.
Entretanto, muitas dificuldades devem ser superadas, iniciando pela forte reação promovida pelas Big Techs, como se viu quando da tentativa de votação do PL das “Fake News” no último ano.
Por outro lado, a experiência, ainda coloca o problema da efetividade destas legislações, a exigir uma atuação forte dos poderes públicos, em especial das funções executiva e jurisdicional – nas suas competências próprias – para por em marcha e concretizar os conteúdos dispostos legislativamente.
De qualquer modo, a urgência impõe uma tomada de posição, em especial considerando a dupla velocidade característica da “era digital”: enquanto a tecnologia opera rumo à instantaneidade, o Estado, analogicamente, atua diferidamente.
A Editora OAB/PE Digital não se responsabiliza pelas opiniões e informações dos artigos, que são responsabilidade dos autores.
Envie seu artigo, a fim de que seja publicado em uma das várias seções do portal após conformidade editorial.