Augustus Scagliarini

A traição da máquina: O perigo oculto em suas conversas com o chatGPT pode ser usado como prova judicial no Brasil

Postado em 20 de agosto de 2025 Por Augustus Scagliarini Advogado. Cientista Político. Especialista em Direito Digital. Membro da Comissão de Privacidade e Proteção de Dados da OAB/PE. Mestrando em Administração e Desenvolvimento (UFRPE).

1.  Introdução: O Novo Cenário da Comunicação na Era da IA

A tecnologia, em sua evolução incessante, tem redefinido as fronteiras da comunicação humana. Se antes a troca de informações se dava predominantemente em canais físicos e, mais recentemente, em ambientes digitais como o e-mail e as redes sociais, a chegada da inteligência artificial generativa (IA GenAI) introduziu um novo ator nesse palco: a máquina dotada de capacidade de diálogo e raciocínio. Ferramentas como o ChatGPT, desenvolvidas pela OpenAI e outras empresas, não são mais meros repositórios de informação, mas interlocutores capazes de processar linguagem natural e fornecer respostas contextualizadas, gerando uma nova modalidade de interação que, à primeira vista, pode evocar a sensação de um diálogo privado e seguro.

No entanto, por trás dessa interface intuitiva e amigável, reside uma infraestrutura complexa que armazena e processa dados em escala massiva. Essa realidade impõe um questionamento fundamental: o que acontece com as informações que compartilhamos com a IA? As mensagens que enviamos ao ChatGPT gozam de alguma forma de sigilo ou confidencialidade? A resposta, como este artigo buscará demonstrar, é negativa e traz implicações profundas para a privacidade e a segurança jurídica. O próprio CEO da OpenAI, Sam Altman, já alertou para o fato de que as conversas com o ChatGPT podem ser usadas contra o usuário em processos judiciais, pois, até o momento, não existe um “privilégio” legal que as proteja (Altman, 2023).

Diante deste cenário, o presente artigo tem como objetivo analisar o status jurídico das mensagens trocadas com assistentes de IA no Brasil. Para isso, será examinada a ausência de um sigilo legal específico para essas interações, a luz das leis brasileiras de proteção de dados, como o Marco Civil da Internet e a Lei Geral de Proteção de Dados (LGPD). Adicionalmente, será discutida a admissibilidade da prova digital e as implicações práticas e teóricas do uso de diálogos com a IA em processos judiciais no país. O trabalho busca, em última análise, sensibilizar usuários e o sistema de justiça para a urgente necessidade de reflexão sobre os limites da privacidade em um mundo onde a nossa “conversa” pode ser com uma máquina.

2.  A Ausência de Confidencialidade Legal: Uma Lacuna no Direito Brasileiro

A legislação brasileira, assim como a de muitos países, protege de forma robusta a confidencialidade de certas comunicações em razão da natureza da relação entre as partes. Este é o caso do sigilo profissional, um privilégio legal que garante que informações confidenciais trocadas entre, por exemplo, um advogado e seu cliente ou um médico e seu paciente, não possam ser usadas contra o cliente em um tribunal. A confiança é a base dessas relações, e o sigilo é a ferramenta que a garante.

A questão central, no caso das interações com a inteligência artificial, é que essa base de confiança não existe sob a ótica legal. Quando um usuário se comunica com o ChatGPT, a relação não é com um profissional que possui um dever ético e legal de sigilo. A relação é, na verdade, com uma empresa de tecnologia que hospeda e opera o serviço. As mensagens, os prompts e as respostas são processados e armazenados em servidores de terceiros, sujeitos aos termos de serviço da empresa e, sobretudo, a ordens judiciais.

O próprio CEO da OpenAI, Sam Altman, reforça essa ideia, explicando que, se um tribunal assim determinar, a empresa pode ser obrigada a fornecer os registros desses diálogos. Isso significa que, em caso de litígio, o que foi conversado com a IA pode se tornar “descoberto” (discoverable), ou seja, passível de ser requisitado e utilizado como prova. Como bem resume a advogada Jessee Bundy, utilizar o ChatGPT para questões jurídicas “não é obter aconselhamento legal; é gerar evidência passível de descoberta, sem nenhum privilégio ou dever ético de sigilo para protegê-lo” (Bundy, 2023). A analogia com uma conversa privada em um ambiente digital não se sustenta juridicamente, pois, no fim das contas, a conversa não é entre duas pessoas, mas entre uma pessoa e um serviço.

3.  O Marco Civil da Internet e a LGPD: A Proteção de Dados no Limiar da IA

O Brasil possui um dos marcos legais mais avançados para a proteção de dados e privacidade na internet: o Marco Civil da Internet (Lei 12.965/14). A lei estabelece, em seu artigo 10, que “a guarda e o fornecimento dos registros de conexão e de acesso a aplicações de internet de que trata esta Lei, bem como de dados pessoais, deverão respeitar a inviolabilidade e o sigilo do fluxo de suas comunicações, salvo por ordem judicial”. O texto protege de forma explícita a privacidade das comunicações. A questão, no entanto, é se as interações com uma IA se encaixam na definição de “comunicação” protegida por este dispositivo.

A doutrina jurídica majoritária entende que o Marco Civil protege a comunicação entre indivíduos. Um diálogo com uma máquina, mesmo que sofisticado, não estabelece uma relação de comunicação privada no sentido de uma troca de mensagens entre duas pessoas. As informações inseridas no ChatGPT são, na verdade, dados de entrada (input) para um serviço de processamento, e o conteúdo gerado é o resultado (output). Assim, a menos que a conversa com a IA envolva a exposição de dados de terceiros em uma conversa privada com outro ser humano, a proteção irrestrita do artigo 10 pode não ser aplicável.

A Lei Geral de Proteção de Dados (LGPD – Lei 13.709/18), por sua vez, adiciona outra camada de complexidade. A LGPD regula o tratamento de dados pessoais, incluindo a coleta, o armazenamento e o compartilhamento, exigindo consentimento claro do titular e estabelecendo a finalidade para o uso dos dados. O usuário, ao concordar com os termos de serviço da OpenAI, geralmente concede o consentimento para que seus dados sejam usados para treinamento do modelo e melhoria do serviço. Essa concordância prévia é o que legalmente permite à empresa coletar e armazenar o histórico de diálogos, o que, por sua vez, facilita a sua entrega em resposta a uma ordem judicial. A LGPD, portanto, protege os dados contra o uso indevido e o vazamento, mas não impede seu uso como prova se houver uma base legal para tal, como um mandado judicial.

4.  A Admissibilidade da Prova Digital e a Questão da Autenticidade

A crescente digitalização da vida cotidiana tem levado o judiciário a lidar cada vez mais com provas digitais, como e-mails, capturas de tela (prints) de conversas e registros de chamadas. A jurisprudência brasileira já evoluiu para reconhecer a validade dessas provas, desde que sejam garantidas a sua autenticidade e a integridade da “cadeia de custódia” (o rastro documentado do manuseio da prova desde sua origem).

No caso das interações com o ChatGPT, a admissibilidade como prova judicial no Brasil pode enfrentar desafios particulares. A autenticidade da conversa, ou seja, a garantia de que ela não foi alterada ou fabricada, é um ponto sensível. Uma captura de tela de um diálogo é facilmente manipulável. A prova mais robusta, portanto, seria o registro do histórico fornecido diretamente pela OpenAI, mediante ordem judicial. No entanto, mesmo com o histórico, surgem questões:

  • Qual a responsabilidade do usuário por seu input? O usuário é o autor do texto que gerou a resposta da IA.
  • Qual a responsabilidade da IA por seu output? O conteúdo gerado pela IA pode conter informações falsas ou distorcidas, um fenômeno conhecido como “alucinação”. Como o sistema de justiça lidaria com uma prova que é, por sua natureza, passível de erro ou falsidade?
  • A cadeia de custódia: Como se garante que o histórico de diálogos não foi alterado nos servidores da empresa ou durante o processo de solicitação judicial?

Esses questionamentos mostram que, embora a prova digital seja admitida no Brasil, a especificidade da IA traz novas camadas de complexidade que o ordenamento jurídico ainda não está plenamente preparado para resolver.

5.  Riscos e Implicações: Um Alerta para Usuários e o Sistema Jurídico

A discussão sobre o uso de mensagens do ChatGPT como prova judicial não é meramente teórica; ela possui implicações diretas e tangíveis.

  • Para o Usuário: A principal lição é que não há sigilo. Qualquer informação pessoal, profissional ou sensível compartilhada com uma IA pode se tornar pública em um processo judicial. A cautela é, portanto, a regra. Assuntos de cunho jurídico, médico ou financeiro não devem ser tratados com a mesma liberdade com que se conversa com um profissional que possui dever de sigilo. A recomendação de especialistas, como a advogada Jessee Bundy, é uma advertência valiosa: o usuário está, sem perceber, criando uma trilha de evidências que pode ser usada contra ele.
  • Para o Sistema Jurídico: A ascensão da IA exige que o judiciário e a advocacia se adaptem rapidamente. Os juízes precisam de treinamento para entender a natureza e as limitações da tecnologia, especialmente o fenômeno da alucinação e a fragilidade de certas provas. A doutrina e a jurisprudência precisam evoluir para estabelecer critérios claros de admissibilidade e valoração da prova gerada por IA. Além disso, a possibilidade de uma empresa como a OpenAI ser obrigada a preservar dados por ordem judicial (como no caso mencionado nos EUA) exige uma reflexão sobre a necessidade de um marco regulatório mais específico que aborde a retenção de dados por plataformas de IA.

6.  Conclusão: Rumo a um Novo Paradigma de Privacidade

A análise da admissibilidade das mensagens do ChatGPT como prova judicial no Brasil revela uma lacuna significativa entre a tecnologia e a legislação. O conceito tradicional de sigilo e confidencialidade, atrelado a relações humanas e profissionais, não se aplica à interação com uma máquina. A legislação brasileira, embora avançada em proteção de dados, não prevê a especificidade desse tipo de comunicação.

O que se tem, no momento, é um cenário de ausência de garantias. As informações que os usuários confiam ao ChatGPT podem ser solicitadas e fornecidas à Justiça, com base em ordens judiciais, e o Marco Civil da Internet e a LGPD não impedem esse fluxo. A privacidade, nesse contexto, é um contrato, um termo de serviço, e não um direito absoluto.

É urgente que o debate sobre esse tema ganhe força no Brasil. A sociedade precisa de um novo paradigma de privacidade para a era da inteligência artificial. Isso pode envolver desde a criação de regulamentações específicas que protejam as comunicações com a IA em certos contextos, até a conscientização dos usuários sobre os riscos inerentes a essas interações. No fim das contas, a conversa com a máquina, por mais pessoal que pareça, não é uma conversa privada. É um registro, uma evidência em potencial, à espera de um processo judicial.

A Editora OAB/PE Digital não se responsabiliza pelas opiniões e informações dos artigos, que são responsabilidade dos autores.

Envie seu artigo, a fim de que seja publicado em uma das várias seções do portal após conformidade editorial.

Gostou? Compartilhe esse Conteúdo.

Fale Conosco pelo WhatsApp
Ir para o Topo do Site