A tecnologia, em sua evolução incessante, tem redefinido as fronteiras da comunicação humana. Se antes a troca de informações se dava predominantemente em canais físicos e, mais recentemente, em ambientes digitais como o e-mail e as redes sociais, a chegada da inteligência artificial generativa (IA GenAI) introduziu um novo ator nesse palco: a máquina dotada de capacidade de diálogo e raciocínio. Ferramentas como o ChatGPT, desenvolvidas pela OpenAI e outras empresas, não são mais meros repositórios de informação, mas interlocutores capazes de processar linguagem natural e fornecer respostas contextualizadas, gerando uma nova modalidade de interação que, à primeira vista, pode evocar a sensação de um diálogo privado e seguro.
No entanto, por trás dessa interface intuitiva e amigável, reside uma infraestrutura complexa que armazena e processa dados em escala massiva. Essa realidade impõe um questionamento fundamental: o que acontece com as informações que compartilhamos com a IA? As mensagens que enviamos ao ChatGPT gozam de alguma forma de sigilo ou confidencialidade? A resposta, como este artigo buscará demonstrar, é negativa e traz implicações profundas para a privacidade e a segurança jurídica. O próprio CEO da OpenAI, Sam Altman, já alertou para o fato de que as conversas com o ChatGPT podem ser usadas contra o usuário em processos judiciais, pois, até o momento, não existe um “privilégio” legal que as proteja (Altman, 2023).
Diante deste cenário, o presente artigo tem como objetivo analisar o status jurídico das mensagens trocadas com assistentes de IA no Brasil. Para isso, será examinada a ausência de um sigilo legal específico para essas interações, a luz das leis brasileiras de proteção de dados, como o Marco Civil da Internet e a Lei Geral de Proteção de Dados (LGPD). Adicionalmente, será discutida a admissibilidade da prova digital e as implicações práticas e teóricas do uso de diálogos com a IA em processos judiciais no país. O trabalho busca, em última análise, sensibilizar usuários e o sistema de justiça para a urgente necessidade de reflexão sobre os limites da privacidade em um mundo onde a nossa “conversa” pode ser com uma máquina.
A legislação brasileira, assim como a de muitos países, protege de forma robusta a confidencialidade de certas comunicações em razão da natureza da relação entre as partes. Este é o caso do sigilo profissional, um privilégio legal que garante que informações confidenciais trocadas entre, por exemplo, um advogado e seu cliente ou um médico e seu paciente, não possam ser usadas contra o cliente em um tribunal. A confiança é a base dessas relações, e o sigilo é a ferramenta que a garante.
A questão central, no caso das interações com a inteligência artificial, é que essa base de confiança não existe sob a ótica legal. Quando um usuário se comunica com o ChatGPT, a relação não é com um profissional que possui um dever ético e legal de sigilo. A relação é, na verdade, com uma empresa de tecnologia que hospeda e opera o serviço. As mensagens, os prompts e as respostas são processados e armazenados em servidores de terceiros, sujeitos aos termos de serviço da empresa e, sobretudo, a ordens judiciais.
O próprio CEO da OpenAI, Sam Altman, reforça essa ideia, explicando que, se um tribunal assim determinar, a empresa pode ser obrigada a fornecer os registros desses diálogos. Isso significa que, em caso de litígio, o que foi conversado com a IA pode se tornar “descoberto” (discoverable), ou seja, passível de ser requisitado e utilizado como prova. Como bem resume a advogada Jessee Bundy, utilizar o ChatGPT para questões jurídicas “não é obter aconselhamento legal; é gerar evidência passível de descoberta, sem nenhum privilégio ou dever ético de sigilo para protegê-lo” (Bundy, 2023). A analogia com uma conversa privada em um ambiente digital não se sustenta juridicamente, pois, no fim das contas, a conversa não é entre duas pessoas, mas entre uma pessoa e um serviço.
O Brasil possui um dos marcos legais mais avançados para a proteção de dados e privacidade na internet: o Marco Civil da Internet (Lei 12.965/14). A lei estabelece, em seu artigo 10, que “a guarda e o fornecimento dos registros de conexão e de acesso a aplicações de internet de que trata esta Lei, bem como de dados pessoais, deverão respeitar a inviolabilidade e o sigilo do fluxo de suas comunicações, salvo por ordem judicial”. O texto protege de forma explícita a privacidade das comunicações. A questão, no entanto, é se as interações com uma IA se encaixam na definição de “comunicação” protegida por este dispositivo.
A doutrina jurídica majoritária entende que o Marco Civil protege a comunicação entre indivíduos. Um diálogo com uma máquina, mesmo que sofisticado, não estabelece uma relação de comunicação privada no sentido de uma troca de mensagens entre duas pessoas. As informações inseridas no ChatGPT são, na verdade, dados de entrada (input) para um serviço de processamento, e o conteúdo gerado é o resultado (output). Assim, a menos que a conversa com a IA envolva a exposição de dados de terceiros em uma conversa privada com outro ser humano, a proteção irrestrita do artigo 10 pode não ser aplicável.
A Lei Geral de Proteção de Dados (LGPD – Lei 13.709/18), por sua vez, adiciona outra camada de complexidade. A LGPD regula o tratamento de dados pessoais, incluindo a coleta, o armazenamento e o compartilhamento, exigindo consentimento claro do titular e estabelecendo a finalidade para o uso dos dados. O usuário, ao concordar com os termos de serviço da OpenAI, geralmente concede o consentimento para que seus dados sejam usados para treinamento do modelo e melhoria do serviço. Essa concordância prévia é o que legalmente permite à empresa coletar e armazenar o histórico de diálogos, o que, por sua vez, facilita a sua entrega em resposta a uma ordem judicial. A LGPD, portanto, protege os dados contra o uso indevido e o vazamento, mas não impede seu uso como prova se houver uma base legal para tal, como um mandado judicial.
A crescente digitalização da vida cotidiana tem levado o judiciário a lidar cada vez mais com provas digitais, como e-mails, capturas de tela (prints) de conversas e registros de chamadas. A jurisprudência brasileira já evoluiu para reconhecer a validade dessas provas, desde que sejam garantidas a sua autenticidade e a integridade da “cadeia de custódia” (o rastro documentado do manuseio da prova desde sua origem).
No caso das interações com o ChatGPT, a admissibilidade como prova judicial no Brasil pode enfrentar desafios particulares. A autenticidade da conversa, ou seja, a garantia de que ela não foi alterada ou fabricada, é um ponto sensível. Uma captura de tela de um diálogo é facilmente manipulável. A prova mais robusta, portanto, seria o registro do histórico fornecido diretamente pela OpenAI, mediante ordem judicial. No entanto, mesmo com o histórico, surgem questões:
Esses questionamentos mostram que, embora a prova digital seja admitida no Brasil, a especificidade da IA traz novas camadas de complexidade que o ordenamento jurídico ainda não está plenamente preparado para resolver.
A discussão sobre o uso de mensagens do ChatGPT como prova judicial não é meramente teórica; ela possui implicações diretas e tangíveis.
A análise da admissibilidade das mensagens do ChatGPT como prova judicial no Brasil revela uma lacuna significativa entre a tecnologia e a legislação. O conceito tradicional de sigilo e confidencialidade, atrelado a relações humanas e profissionais, não se aplica à interação com uma máquina. A legislação brasileira, embora avançada em proteção de dados, não prevê a especificidade desse tipo de comunicação.
O que se tem, no momento, é um cenário de ausência de garantias. As informações que os usuários confiam ao ChatGPT podem ser solicitadas e fornecidas à Justiça, com base em ordens judiciais, e o Marco Civil da Internet e a LGPD não impedem esse fluxo. A privacidade, nesse contexto, é um contrato, um termo de serviço, e não um direito absoluto.
É urgente que o debate sobre esse tema ganhe força no Brasil. A sociedade precisa de um novo paradigma de privacidade para a era da inteligência artificial. Isso pode envolver desde a criação de regulamentações específicas que protejam as comunicações com a IA em certos contextos, até a conscientização dos usuários sobre os riscos inerentes a essas interações. No fim das contas, a conversa com a máquina, por mais pessoal que pareça, não é uma conversa privada. É um registro, uma evidência em potencial, à espera de um processo judicial.
A Editora OAB/PE Digital não se responsabiliza pelas opiniões e informações dos artigos, que são responsabilidade dos autores.
Envie seu artigo, a fim de que seja publicado em uma das várias seções do portal após conformidade editorial.