Usar IA pode te incriminar? O que a justiça diz sobre o ChatGPT

Usar IA pode te incriminar? Você sabia que suas conversas com o ChatGPT podem ser acessadas por autoridades? Leia agora e fique um passo à frente.

Marcos Vinícius Massaiti Akamine e Pedro Otávio Cavalcante Hirotuca

6/3/20256 min ler

Usar IA pode te incriminar?
O que a justiça diz sobre o ChatGPT

A era da inteligência artificial sob suspeita

A inteligência artificial deixou de ser ficção científica. Está nas redações escolares, nos escritórios de advocacia, nas estratégias empresariais — e, agora, nos tribunais e investigações policiais.

O crescimento abrupto do uso de IAs como ChatGPT, Gemini e Claude acendeu um alerta vermelho: onde está a linha entre inovação e invasão?
Com o uso cotidiano dessas ferramentas, surgem perguntas legítimas sobre privacidade, monitoramento e uso indevido de informações.

Se no passado a internet era terra sem lei, a IA pode se tornar uma terra de vigilância oculta, onde cada palavra digitada serve de insumo para empresas... ou para investigações.

ChatGPT guarda suas conversas? Entenda os bastidores

Sim, guarda — mas não do jeito que muitos pensam.

De acordo com a OpenAI, os dados das conversas podem ser utilizados para melhorar os modelos, treinar novas versões e identificar abusos. A empresa afirma que as informações não são vendidas a terceiros, mas também não garante criptografia ponta a ponta, o que torna o conteúdo vulnerável a requisições legais ou incidentes internos.

Você pode apagar uma conversa na interface, mas isso não significa que ela sumiu dos servidores.

Já o Gemini, do Google, mantém um histórico atrelado à conta do usuário, com integração profunda ao ecossistema da empresa — o que pode ser ainda mais sensível, considerando o volume de dados pessoais ali armazenados.

Autoridades podem acessar o histórico?

Sim — em determinadas circunstâncias legais.

Nos Estados Unidos, a OpenAI pode ser obrigada a entregar dados mediante mandado judicial ou ordem administrativa. No Brasil, a Lei Geral de Proteção de Dados Pessoais (LGPD) prevê exceções à regra do sigilo.

O artigo 7º, inciso III, da LGPD permite o tratamento de dados “para o cumprimento de obrigação legal ou regulatória pelo controlador”.
Já o art. 11, inciso II, alínea “a”, autoriza o uso de dados sensíveis “quando indispensável para o cumprimento de obrigação legal”.

Ou seja: se você cometeu um crime e usou a IA como ferramenta, ela pode ser rastreada.
A própria estrutura de cloud computing deixa rastros que podem ser utilizados por autoridades técnicas e jurídicas.

IA como cúmplice ou testemunha? Um dilema jurídico

A inteligência artificial não comete crimes — mas pode ser instrumento, cúmplice indireto ou até “testemunha” técnica.

Exemplo hipotético:
Um golpista usa o ChatGPT para redigir um falso aviso jurídico, aplicando golpes via e-mail. Uma vítima cai, fornece dados bancários e sofre um prejuízo de R$ 15 mil.

Durante a investigação, a polícia solicita à OpenAI o histórico do suspeito com a IA.
Resultado: a conversa com o ChatGPT se torna uma evidência técnica do crime.

Nesse cenário, a IA não é apenas ferramenta, mas fonte de prova. E esse tipo de uso começa a preocupar legisladores e operadores do direito.

É possível saber se um texto foi feito por IA?

Detectar um texto gerado por IA não é tão simples quanto parece.

Embora existam ferramentas como GPTZero, ZeroGPT e Turnitin AI Detector, nenhuma delas oferece precisão absoluta. Textos editados ou mesclados com conteúdo humano escapam facilmente dos algoritmos.

Além disso, não há lei brasileira que valide legalmente esses detectores como prova pericial.

A própria OpenAI descontinuou seu detector oficial por baixa eficácia.
Portanto, acusar alguém apenas com base em um “detector de IA” é juridicamente frágil.

ChatGPT, Gemini, Claude e DeepSeek: quem é mais sigiloso?

A disputa por privacidade entre as grandes IAs ainda está em aberto — e nenhuma é totalmente transparente.

  • ChatGPT (OpenAI): coleta dados e usa para treinamento. Sem criptografia ponta a ponta.

  • Gemini (Google): integrado ao ecossistema Google. Altamente rastreável.

  • Claude (Anthropic): não usa dados para treinar por padrão. Políticas mais restritivas.

  • DeepSeek (open source): roda localmente, sem envio de dados para servidores externos. Alta autonomia e privacidade real.

Quanto mais integrada a uma Big Tech, menor o seu controle sobre os dados.

Como proteger sua identidade ao usar IA?

Usar IA de forma segura não exige paranoia, mas sim consciência digital e estratégia:

  • Desative o histórico de conversas.

  • Não insira dados pessoais em prompts.

  • Use navegadores com bloqueio de rastreio.

  • Prefira ferramentas open source, como DeepSeek.

  • Considere usar a IA via API.

Mas afinal, o que é API?
API (Application Programming Interface) é uma ponte entre sistemas.
Ao usar o ChatGPT via API, seus dados não ficam salvos por padrão, e o controle sobre o conteúdo é maior — ideal para quem busca privacidade real.

Privacidade é como senha: só funciona se for individual e bem protegida.

O futuro da privacidade digital no uso de IAs

A IA não é uma ameaça — mas também não é neutra.

A União Europeia avança com o AI Act. No Brasil, o debate sobre uma lei específica para IA já começou, mas ainda engatinha.
Até lá, o usuário precisa ser o próprio guardião da sua privacidade.

O que você escreve hoje no ChatGPT pode ser lido por um juiz amanhã.

Privacidade não é automático — é atitude.

FAQ – Perguntas frequentes

Quem tem acesso às conversas do ChatGPT?
A OpenAI e, com ordem judicial, autoridades competentes.

É possível descobrir se um trabalho foi feito pelo ChatGPT?
Sim, com detectores — mas são imprecisos e juridicamente frágeis.

O ChatGPT tem histórico de conversas?
Sim, a menos que seja desativado manualmente ou usado via API.

O ChatGPT é sigiloso/confidencial?
Não. Os dados podem ser usados para treinamento e acessados internamente.

Como ver conversas apagadas do ChatGPT?
Não é possível, a menos que não tenham sido excluídas dos servidores.

O ChatGPT é privado?
Parcialmente. Depende da configuração e da forma de uso.

Como evitar que descubram que usei IA?
Edite o conteúdo, evite cópias literais e use a API quando possível.

Quais os perigos do ChatGPT?
Exposição de dados, rastreamento, uso como prova e dependência excessiva.

Tem detector de ChatGPT?
Sim, mas não são 100% confiáveis e ainda carecem de respaldo legal.

Referências

OPENAI. Terms of Use. Disponível em: https://openai.com/policies/row-terms-of-use/. Acesso em: 3 jun. 2025.

OPENAI. Privacy Policy. Disponível em: https://openai.com/policies/row-privacy-policy/. Acesso em: 3 jun. 2025.

BRASIL. Lei nº 13.709, de 14 de agosto de 2018. Lei Geral de Proteção de Dados Pessoais (LGPD). Disponível em: https://www.planalto.gov.br/ccivil_03/_ato2015-2018/2018/lei/l13709.htm. Acesso em: 3 jun. 2025.

EUROPEAN UNION. Artificial Intelligence Act – Official Draft Regulation. Disponível em: https://artificialintelligenceact.eu/the-act/. Acesso em: 3 jun. 2025.

ANTHROPIC. How does Anthropic protect the personal data of Claude.ai users? Disponível em: https://privacy.anthropic.com/en/articles/10458704-how-does-anthropic-protect-the-personal-data-of-claude-ai-users. Acesso em: 3 jun. 2025.

GOOGLE. Product Privacy Guide – Gemini e serviços conectados. Disponível em: https://policies.google.com/technologies/product-privacy?hl=pt-BR. Acesso em: 3 jun. 2025.

DEEPSEEK AI. Repositório oficial no GitHub. Disponível em: https://github.com/deepseek-ai. Acesso em: 3 jun. 2025.

KASPERSKY. O que sabemos sobre a segurança online na América Latina? Disponível em: https://www.kaspersky.com.br/blog/estudo-linguagem-digital-2024/23642/. Acesso em: 3 jun. 2025.

ECONOMIC TIMES. ChatGPT crosses 365 billion annual searches in 2024: Report. Disponível em: https://economictimes.indiatimes.com/tech/artificial-intelligence/chatgpt-crosses-365-billion-annual-searches-in-2024-report/articleshow/121574978.cms. Acesso em: 3 jun. 2025.

WIRED. Students Are Likely Writing Millions of Papers With AI. Disponível em: https://www.wired.com/story/student-papers-generative-ai-turnitin/. Acesso em: 3 jun. 2025.

Pedro Otávio Cavalcante Hirotuca

Graduado em Direito pela UFMS-CPTL (2017) e pós-graduado em Direito Público pela Escola de Direito da Associação Sul-Mato-Grossense dos Membros do Ministério Público (EDAMP). Advogado.

Marcos Vinícius Massaiti Akamine

Graduado em Direito pela UFMS-CPTL (2007-2012) e mestre em Direito pela UNIVEM (2014-2016). Advogado inscrito na OAB/MS desde 2012, com atuação em Direito Penal, Civil e Administrativo. Vice-Presidente da 2ª Subseção da OAB/MS (2022-2027) e Professor Universitário.