Buscar jurisprudência no ChatGPT parece prático. Você digita o tema, pede decisões do STJ ou STF e recebe uma resposta organizada em segundos.
O problema é que esse resultado pode ser completamente fictício — e ter aparência de verdadeiro.
Por que o ChatGPT não é uma fonte confiável de jurisprudência
Modelos de linguagem como o ChatGPT não consultam tribunais em tempo real. Eles geram texto com base em padrões estatísticos aprendidos durante o treinamento — e isso inclui padrões jurídicos.
Na prática, quando você pede um precedente do STJ sobre determinado tema, o modelo monta uma resposta que parece uma ementa real: número de processo, relator, turma, data e tese. O texto é plausível. Mas pode ser inteiramente inventado.
Esse fenômeno tem nome: alucinação de IA. E no contexto jurídico, ele pode ter consequências graves.
O que é jurisprudência GPT
Jurisprudência GPT é o uso de modelos de linguagem para sugerir precedentes judiciais, ementas, números de processo ou entendimentos de tribunais.
Na teoria, parece uma pesquisa rápida. Na prática, é uma geração de texto sobre o que “provavelmente seria” um precedente — não uma consulta ao que realmente existe.
O ChatGPT não tem acesso direto a bases oficiais de jurisprudência. Ele não acessa o site do STJ, do STF ou de qualquer tribunal. Ele funciona como modelo preditivo de linguagem.
Riscos reais de usar ChatGPT para pesquisa jurisprudencial
Os riscos não são teóricos. Casos reais já foram documentados:
- Número de processo inexistente citado em peça
- Ementa fictícia com redação convincente
- Relator incorreto ou combinação de decisões de tribunais diferentes
- Tese jurídica plausível que nunca foi objeto de julgamento
Uma citação jurisprudencial inventada em uma peça processual é uma falha técnica séria — e toda a responsabilidade é do advogado que assinou, não da ferramenta que gerou.
Como usar IA para pesquisa jurídica com segurança
Isso não significa que IA não pode ajudar na pesquisa jurídica. Significa que o método precisa ser diferente.
Use IA para estruturar a pesquisa, não para fornecê-la: pergunte ao ChatGPT quais teses são mais discutidas em determinada matéria, quais são os argumentos típicos em cada posição, qual é a linha de raciocínio predominante. Use isso como mapa — não como fonte.
Valide sempre na fonte oficial: qualquer precedente relevante precisa ser verificado diretamente no site do tribunal, no sistema do STJ ou no Jusbrasil. Sem essa verificação, você está assinando um risco.
Prefira ferramentas com acesso real a bases jurídicas: existem soluções que integram IA com acesso direto a bases de jurisprudência — como o Juris AI do EasyJur, treinado com mais de 4 milhões de peças e conectado ao contexto real dos processos. Essa diferença é estrutural, não cosmética.
O ponto central
ChatGPT é uma ferramenta excelente para organizar argumentos, estruturar peças e revisar textos. Não é uma base de dados jurídicos.
Usar ChatGPT para pesquisar jurisprudência sem validação é o equivalente a citar um artigo da Wikipédia como fonte em um tribunal: o conteúdo pode estar certo, mas o método está errado.
Produtividade real com IA vem de usar cada ferramenta para o que ela foi feita.