A Inteligência Artificial (IA) vem se consolidando como uma das tecnologias mais transformadoras do século XXI, modificando de maneira profunda a forma como diversos setores operam. No campo jurídico, seu impacto é cada vez mais evidente: soluções baseadas em IA já são utilizadas para triagem de processos, análise preditiva de decisões judiciais, revisão de contratos e até para auxiliar na elaboração de peças processuais. Essas inovações apresentam o potencial de tornar os tribunais mais eficientes, reduzir custos operacionais e ampliar o acesso à justiça, possibilitando que mais pessoas tenham orientação e suporte jurídico de qualidade.
Por outro lado, esse avanço tecnológico traz consigo importantes desafios. Questões éticas se intensificam quando decisões automatizadas influenciam diretamente a vida de indivíduos, como na recomendação de concessão ou negação de benefícios, na definição de prioridades de julgamento ou na estimativa de chance de êxito em ações judiciais. Também surgem preocupações sobre a transparência dos algoritmos, o risco de reprodução de preconceitos existentes nos dados de treinamento e a responsabilidade em casos de erros ou resultados discriminatórios. O debate, portanto, não se resume ao avanço tecnológico em si, mas à maneira como essas ferramentas são utilizadas e ao cuidado necessário para que não substituam o pensamento crítico e a análise interpretativa, que são a base do Direito.
Esses dilemas sistêmicos se manifestam diretamente nos riscos da prática jurídica cotidiana: o uso indiscriminado dessas tecnologias, sem o devido senso crítico, abre portas para a disseminação de informações equivocadas, a dificuldade na verificação de fontes, a violação de direitos autorais e, talvez o mais grave, o progressivo enfraquecimento da atividade intelectual que caracteriza a profissão. O debate, portanto, não se resume à ferramenta em si, mas à vigilância necessária para que a conveniência não anule o pensamento crítico e a análise interpretativa, que são a base do Direito.
Os tribunais brasileiros já são palco desses novos dilemas. Em um episódio marcante na 2ª Turma Recursal da Justiça Federal do Paraná, um profissional utilizou uma voz gerada por inteligência artificial para realizar sua sustentação oral. Embora autorizado a se manifestar, optou por reproduzir um áudio robótico que leu toda a argumentação. A atitude gerou evidente desconforto entre as pessoas magistradas, que interromperam a gravação e destacaram que, para apresentar o conteúdo dessa forma, ele deveria ter sido juntado por escrito aos autos.
De forma ainda mais contundente, o Supremo Tribunal Federal (STF) lidou com outro mau uso da tecnologia. O ministro Cristiano Zanin rejeitou uma petição elaborada com auxílio de IA que citava precedentes inexistentes e fazia afirmações falsas sobre súmulas vinculantes. O ministro entendeu que houve uma clara tentativa de induzir a Corte a erro, caracterizando a conduta como litigância de má-fé e determinando a comunicação ao Conselho Federal da OAB para as providências cabíveis. Esses casos ilustram que a tecnologia, sem supervisão humana, pode levar a graves falhas éticas e processuais.
Essa discussão, contudo, transcende as fronteiras nacionais. A União Europeia tem se destacado nesse campo com a aprovação da Lei da Inteligência Artificial (AI Act), um marco regulatório global. A lei estabelece que sistemas de IA de alto risco, como aqueles utilizados na administração da justiça, em processos educacionais, na saúde e no setor financeiro, estarão sujeitos a exigências rigorosas de transparência, governança, documentação e monitoramento constante. Antes de serem implementados, deverão passar por avaliações de impacto para garantir que suas aplicações não causem prejuízos. Para apoiar a aplicação dessas regras, foi criado o Gabinete Europeu para a IA, que supervisiona fornecedores e acompanha testes em ambientes controlados, conhecidos como “caixas de areia regulatórias” (regulatory sandboxes), assegurando que inovações sejam testadas de forma segura.
Nos Estados Unidos, a utilização da IA também tem levantado questionamentos sobre responsabilidade legal e ética, com foco na responsabilização civil dos desenvolvedores. Um processo movido pela família de Adam Raine, adolescente de 16 anos, contra a
OpenAI, acusa a empresa de homicídio culposo e negligência no funcionamento do ChatGPT. Segundo a ação, a interação do jovem com o sistema foi um fator determinante para que ele planejasse e cometesse suicídio, pois a IA teria encorajado suas ideações autodestrutivas. O caso norte-americano reforça a necessidade de reflexão sobre como sistemas de IA podem impactar diretamente a vida das pessoas quando não há protocolos claros de segurança.
As experiências internacionais, portanto, oferecem um panorama rico para o Brasil. O modelo europeu demonstra que é possível avançar tecnologicamente sem abrir mão da responsabilidade, enquanto os litígios nos Estados Unidos ilustram os riscos de uma implementação sem a devida supervisão e os caminhos para a responsabilização por danos. Juntos, esses cenários reforçam a necessidade de uma abordagem crítica e reflexiva sobre a IA, lembrando que a tecnologia deve servir à sociedade, sem comprometer direitos fundamentais ou eximir seus desenvolvedores e usuários de suas responsabilidades.
No Brasil, o avanço dessas discussões reflete a necessidade de construir um marco regulatório próprio. A tramitação do PL 2338/2023 busca estabelecer diretrizes para o desenvolvimento e uso ético da IA, com ênfase na centralidade da pessoa humana e na proteção de direitos fundamentais. Acompanhar o desenvolvimento dessa legislação é um dever de toda a comunidade jurídica, pois ela moldará os limites e as responsabilidades associadas a essas ferramentas no nosso país.
Para além dos marcos regulatórios e dos litígios que definem o cenário global, a efetividade da Inteligência Artificial no Direito recai sobre um pilar fundamental: a responsabilidade de quem a utiliza. A dependência exclusiva da tecnologia, muitas vezes a partir de algoritmos opacos (no chamado efeito “caixa-preta”), pode levar não apenas a erros grosseiros, mas a argumentações frágeis, violações éticas e danos reputacionais irreparáveis. Torna-se imperativo que a comunidade jurídica encare a verificação de fontes e o pensamento crítico não como meras boas práticas, mas como competências essenciais do jurista do século XXI. A forma como cada profissional lida com essa responsabilidade está, portanto, no cerne do debate sobre o futuro da profissão.
Esse debate manifesta-se em um complexo desafio comportamental que polariza a comunidade jurídica. Por um lado, há um ceticismo compreensível, muitas vezes enraizado na defesa da tradição humanista do Direito e no receio da precarização intelectual, o que pode levar à subutilização de ferramentas valiosas. Por outro lado, existe o perigo de um otimismo acrítico, uma confiança excessiva que pode levar à negligência da análise aprofundada, criando o risco de formar profissionais que são excelentes em operar sistemas, mas frágeis em seus fundamentos. Essa tensão entre a recusa receosa e a adesão irrefletida cria um impasse que precisa ser superado, pois define os contornos da prática jurídica que está por vir e o próprio valor do capital intelectual no futuro.
Em síntese, para superar o impasse que hoje desafia a comunidade jurídica, a resposta não reside nos extremos da recusa receosa ou da adesão irrefletida. A Inteligência Artificial exige, antes de tudo, uma nova postura de liderança ética e profissional. O desafio imposto não é meramente aprender a operar novos sistemas, mas sim liderar a construção de uma terceira via, fundamentada em uma regulamentação clara, em um ceticismo saudável, na coragem de impor limites e na sabedoria para usar a tecnologia como um meio de fortalecer, e nunca substituir, o juízo humano. Estamos diante de uma oportunidade histórica de moldar o futuro da nossa profissão. A responsabilidade será determinante para que a IA seja incorporada de forma segura e eficaz, garantindo que a tecnologia não apenas otimize processos, mas que continue a servir à sociedade e a aprimorar os princípios mais fundamentais do Direito.
A Editora OAB/PE Digital não se responsabiliza pelas opiniões e informações dos artigos, que são responsabilidade dos autores.
Envie seu artigo, a fim de que seja publicado em uma das várias seções do portal após conformidade editorial.