Guilherme Fonseca

Inteligência artificial, direito e responsabilidade: Um olhar crítico para a comunidade jurídica

Postado em 24 de setembro de 2025 Por Guilherme Fonseca É graduando em Direito pela FICR e graduando em Administração pela Estácio de Sá. Atua como Analista de Logística e Analista de Projetos, com experiência em gestão de processos e análise de dados. É também pesquisador econômico, com foco em estudos sobre impactos socioeconômicos nas organizações.

A  Inteligência  Artificial  (IA)  vem  se  consolidando  como  uma  das  tecnologias  mais  transformadoras  do  século  XXI,  modificando  de  maneira  profunda  a  forma  como  diversos  setores  operam.  No  campo  jurídico,  seu  impacto  é  cada  vez  mais  evidente:  soluções  baseadas  em  IA  já  são  utilizadas  para  triagem  de  processos,  análise  preditiva  de  decisões  judiciais,  revisão  de  contratos  e  até  para  auxiliar  na  elaboração  de  peças  processuais.  Essas  inovações  apresentam  o  potencial  de  tornar  os  tribunais  mais  eficientes,  reduzir  custos  operacionais  e  ampliar  o  acesso  à  justiça,  possibilitando  que  mais  pessoas  tenham  orientação e suporte jurídico de qualidade.

Por  outro  lado,  esse  avanço  tecnológico  traz  consigo  importantes  desafios.  Questões  éticas  se  intensificam  quando  decisões  automatizadas  influenciam  diretamente  a  vida  de  indivíduos,  como  na  recomendação  de  concessão  ou  negação  de  benefícios,  na  definição  de  prioridades  de  julgamento  ou  na  estimativa  de  chance  de  êxito  em  ações  judiciais.  Também  surgem  preocupações  sobre  a  transparência  dos  algoritmos,  o  risco  de  reprodução  de  preconceitos  existentes  nos  dados  de  treinamento  e  a  responsabilidade  em  casos  de  erros  ou  resultados  discriminatórios.  O  debate,  portanto,  não  se  resume  ao  avanço  tecnológico  em  si,  mas  à  maneira  como  essas  ferramentas  são  utilizadas  e  ao  cuidado  necessário  para  que  não  substituam  o  pensamento  crítico  e  a  análise  interpretativa,  que  são  a base do Direito.

Esses  dilemas  sistêmicos  se  manifestam  diretamente  nos  riscos  da  prática  jurídica  cotidiana:  o  uso  indiscriminado  dessas  tecnologias,  sem  o  devido  senso  crítico,  abre  portas  para  a  disseminação  de  informações  equivocadas,  a  dificuldade  na  verificação  de  fontes,  a  violação  de  direitos  autorais  e,  talvez  o  mais  grave,  o  progressivo  enfraquecimento  da  atividade  intelectual  que  caracteriza  a  profissão.  O  debate,  portanto,  não  se  resume  à  ferramenta  em  si,  mas  à  vigilância  necessária  para  que  a  conveniência  não  anule  o  pensamento crítico e a análise interpretativa, que são a base do Direito.

Os  tribunais  brasileiros  já  são  palco  desses  novos  dilemas.  Em  um  episódio  marcante  na  2ª  Turma  Recursal  da  Justiça  Federal  do  Paraná,  um  profissional  utilizou  uma  voz  gerada  por  inteligência  artificial  para  realizar  sua  sustentação  oral.  Embora  autorizado  a  se  manifestar,  optou  por  reproduzir  um  áudio  robótico  que  leu  toda  a  argumentação.  A  atitude  gerou  evidente  desconforto  entre  as  pessoas  magistradas,  que  interromperam  a  gravação  e  destacaram  que,  para  apresentar  o  conteúdo  dessa  forma,  ele  deveria  ter  sido  juntado  por  escrito aos autos.

De  forma  ainda  mais  contundente,  o  Supremo  Tribunal  Federal  (STF)  lidou  com  outro  mau  uso  da  tecnologia.  O  ministro  Cristiano  Zanin  rejeitou  uma  petição  elaborada  com  auxílio  de  IA  que  citava  precedentes  inexistentes  e  fazia  afirmações  falsas  sobre  súmulas  vinculantes.  O  ministro  entendeu  que  houve  uma  clara  tentativa  de  induzir  a  Corte  a  erro,  caracterizando  a  conduta  como  litigância  de  má-fé  e  determinando  a  comunicação  ao  Conselho  Federal  da  OAB  para  as  providências  cabíveis.  Esses  casos  ilustram  que  a  tecnologia,  sem  supervisão  humana, pode levar a graves falhas éticas e processuais.

Essa  discussão,  contudo,  transcende  as  fronteiras  nacionais.  A  União  Europeia  tem  se  destacado  nesse  campo  com  a  aprovação  da  Lei  da  Inteligência  Artificial  (AI  Act),  um  marco  regulatório  global.  A  lei  estabelece  que  sistemas  de  IA  de  alto  risco,  como  aqueles  utilizados  na  administração  da  justiça,  em  processos  educacionais,  na  saúde  e  no  setor  financeiro,  estarão  sujeitos  a  exigências  rigorosas  de  transparência,  governança,  documentação  e  monitoramento  constante.  Antes  de  serem  implementados,  deverão  passar  por  avaliações  de  impacto  para  garantir  que  suas  aplicações  não  causem  prejuízos.  Para  apoiar  a  aplicação  dessas  regras,  foi  criado  o  Gabinete  Europeu  para  a  IA,  que  supervisiona  fornecedores  e  acompanha  testes  em  ambientes  controlados,  conhecidos  como  “caixas  de  areia  regulatórias”  (regulatory  sandboxes),  assegurando  que  inovações  sejam  testadas  de  forma segura.

Nos  Estados  Unidos,  a  utilização  da  IA  também  tem  levantado  questionamentos  sobre  responsabilidade  legal  e  ética,  com  foco  na  responsabilização  civil  dos  desenvolvedores.  Um  processo  movido  pela  família  de  Adam  Raine,  adolescente  de  16  anos,  contra  a

OpenAI,  acusa  a  empresa  de  homicídio  culposo  e  negligência  no  funcionamento  do  ChatGPT.  Segundo  a  ação,  a  interação  do  jovem  com  o  sistema  foi  um  fator  determinante  para  que  ele  planejasse  e  cometesse  suicídio,  pois  a  IA  teria  encorajado  suas  ideações  autodestrutivas.  O  caso  norte-americano  reforça  a  necessidade  de  reflexão  sobre  como  sistemas  de  IA  podem  impactar  diretamente  a  vida  das  pessoas  quando  não  há  protocolos  claros de segurança.

As  experiências  internacionais,  portanto,  oferecem  um  panorama  rico  para  o  Brasil.  O  modelo  europeu  demonstra  que  é  possível  avançar  tecnologicamente  sem  abrir  mão  da  responsabilidade,  enquanto  os  litígios  nos  Estados  Unidos  ilustram  os  riscos  de  uma  implementação  sem  a  devida  supervisão  e  os  caminhos  para  a  responsabilização  por  danos.  Juntos,  esses  cenários  reforçam  a  necessidade  de  uma  abordagem  crítica  e  reflexiva  sobre  a  IA,  lembrando  que  a  tecnologia  deve  servir  à  sociedade,  sem  comprometer  direitos  fundamentais  ou  eximir  seus  desenvolvedores  e  usuários  de  suas  responsabilidades.

No  Brasil,  o  avanço  dessas  discussões  reflete  a  necessidade  de  construir  um  marco  regulatório  próprio.  A  tramitação  do  PL  2338/2023  busca  estabelecer  diretrizes  para  o  desenvolvimento  e  uso  ético  da  IA,  com  ênfase  na  centralidade  da  pessoa  humana  e  na  proteção  de  direitos  fundamentais.  Acompanhar  o  desenvolvimento  dessa  legislação  é  um  dever  de  toda  a  comunidade  jurídica,  pois  ela  moldará  os  limites  e  as  responsabilidades  associadas a essas ferramentas no nosso país.

Para  além  dos  marcos  regulatórios  e  dos  litígios  que  definem  o  cenário  global,  a  efetividade  da  Inteligência  Artificial  no  Direito  recai  sobre  um  pilar  fundamental:  a  responsabilidade  de  quem  a  utiliza.  A  dependência  exclusiva  da  tecnologia,  muitas  vezes  a  partir  de  algoritmos  opacos  (no  chamado  efeito  “caixa-preta”),  pode  levar  não  apenas  a  erros  grosseiros,  mas  a  argumentações  frágeis,  violações  éticas  e  danos  reputacionais  irreparáveis.  Torna-se  imperativo  que  a  comunidade  jurídica  encare  a  verificação  de  fontes  e  o  pensamento  crítico  não  como  meras  boas  práticas,  mas  como  competências  essenciais  do  jurista  do  século  XXI.  A  forma  como  cada  profissional  lida  com  essa  responsabilidade  está,  portanto,  no  cerne do debate sobre o futuro da profissão.

Esse  debate  manifesta-se  em  um  complexo  desafio  comportamental  que  polariza  a  comunidade  jurídica.  Por  um  lado,  há  um  ceticismo  compreensível,  muitas  vezes  enraizado  na  defesa  da  tradição  humanista  do  Direito  e  no  receio  da  precarização  intelectual,  o  que  pode  levar  à  subutilização  de  ferramentas  valiosas.  Por  outro  lado,  existe  o  perigo  de  um  otimismo  acrítico,  uma  confiança  excessiva  que  pode  levar  à  negligência  da  análise  aprofundada,  criando  o  risco  de  formar  profissionais  que  são  excelentes  em  operar  sistemas,  mas  frágeis  em  seus  fundamentos.  Essa  tensão  entre  a  recusa  receosa  e  a  adesão  irrefletida  cria  um  impasse  que  precisa  ser  superado,  pois  define  os  contornos  da  prática jurídica que está por vir e o próprio valor do capital intelectual no futuro.

Em  síntese,  para  superar  o  impasse  que  hoje  desafia  a  comunidade  jurídica,  a  resposta  não  reside  nos  extremos  da  recusa  receosa  ou  da  adesão  irrefletida.  A  Inteligência  Artificial  exige,  antes  de  tudo,  uma  nova  postura  de  liderança  ética  e  profissional.  O  desafio  imposto  não  é  meramente  aprender  a  operar  novos  sistemas,  mas  sim  liderar  a  construção  de  uma  terceira  via,  fundamentada  em  uma  regulamentação  clara,  em  um  ceticismo  saudável,  na  coragem  de  impor  limites  e  na  sabedoria  para  usar  a  tecnologia  como  um  meio  de  fortalecer,  e  nunca  substituir,  o  juízo  humano.  Estamos  diante  de  uma  oportunidade  histórica  de  moldar  o  futuro  da  nossa  profissão.  A  responsabilidade  será  determinante  para  que  a  IA  seja  incorporada  de  forma  segura  e  eficaz,  garantindo  que  a  tecnologia  não  apenas  otimize  processos,  mas  que  continue  a  servir  à  sociedade  e  a  aprimorar  os  princípios  mais  fundamentais do Direito.

A Editora OAB/PE Digital não se responsabiliza pelas opiniões e informações dos artigos, que são responsabilidade dos autores.

Envie seu artigo, a fim de que seja publicado em uma das várias seções do portal após conformidade editorial.

Gostou? Compartilhe esse Conteúdo.

Fale Conosco pelo WhatsApp
Ir para o Topo do Site