No contexto jurídico, a discussão sobre a inverdade mediada por sistemas de inteligência artificial exige precisão conceitual desde a introdução do tema. A literatura técnica contemporânea tem demonstrado que a expressão “alucinação da IA”, amplamente difundida no senso comum, é inadequada do ponto de vista científico, por pressupor percepção sensorial e consciência, atributos inexistentes em modelos computacionais. A alucinação, no sentido clássico da psicopatologia, refere-se a uma percepção subjetiva sem objeto correspondente no mundo real, o que não se aplica à operação estatístico-probabilística dos modelos de linguagem.
Mais adequado, portanto, é compreender a inverdade produzida por IA sob a noção de confabulação. A confabulação descreve a construção de narrativas plausíveis, porém falsas, geradas para preencher lacunas informacionais sem intenção de enganar e sem consciência do erro. No ambiente jurídico, essa distinção não é meramente terminológica: ela delimita a natureza do risco informacional, afasta o antropomorfismo tecnológico e permite tratar o erro da IA como um problema de governança, validação e uso responsável da informação, e não como um desvio cognitivo dotado de intencionalidade.
Essa leitura é compatível, inclusive, com a formulação adotada pela própria OpenAI, segundo a qual “uma alucinação é uma mentira plausível e excessivamente confiante”. A afirmação evidencia que o problema não reside em uma suposta percepção distorcida da realidade, mas na produção confiante de conteúdos não verdadeiros, cuja aparência de coerência e assertividade pode ocultar a ausência de lastro fático ou normativo. No campo jurídico, essa característica torna o fenômeno particularmente sensível, pois a confiança indevida no texto gerado pode substituir, de modo silencioso, a verificação técnica e a análise crítica próprias da atividade jurídica.
A partir dessa compreensão, torna-se possível analisar as consequências não intencionais do uso da inteligência artificial na prática jurídica. Uma primeira consequência relevante é a tendência à superconfiança técnica, pela qual operadores do Direito atribuem às respostas da IA um grau de autoridade incompatível com sua arquitetura. A fluência textual e a coerência formal induzem o usuário a presumir correção substancial, reduzindo o exercício do juízo crítico que é essencial à atividade jurídica.
Outra consequência não intencional está relacionada à assimetria de conhecimento entre usuários. Profissionais com menor familiaridade tecnológica tendem a utilizar a IA como substituto do raciocínio jurídico, e não como ferramenta de apoio, o que pode gerar decisões, pareceres ou peças processuais baseadas em informações imprecisas. Essa dependência acrítica potencializa erros sistêmicos e dificulta a identificação da origem da inverdade quando ela se materializa no processo.
Uma terceira consequência consiste na difusão ampliada do erro. Diferentemente de equívocos humanos individuais, a confabulação gerada por IA pode ser rapidamente replicada, reutilizada e disseminada em múltiplos documentos, pareceres e manifestações processuais. No ambiente judicial, isso gera risco de contaminação argumentativa, em que a informação falsa passa a circular como se fosse consenso, agravando seus efeitos institucionais.
Entre as causas mais frequentes desses erros jurídicos está o treinamento inadequado da base de dados utilizada pelo modelo. Uma IA treinada com fontes desatualizadas, não oficiais ou de baixa confiabilidade tende a reproduzir entendimentos superados, normas revogadas ou interpretações minoritárias como se fossem direito vigente. No campo jurídico, essa fragilidade pode levar à citação de jurisprudência inexistente ou à atribuição de efeitos normativos a atos que não possuem tal natureza.
Outra situação crítica decorre da elaboração deficiente do prompt. Solicitações genéricas, ambíguas ou excessivamente abertas estimulam o modelo a completar padrões linguísticos sem amarras normativas ou fáticas. Nesses casos, a IA pode fabricar precedentes judiciais, criar números de processos inexistentes ou atribuir decisões a tribunais que jamais se pronunciaram sobre determinado tema, configurando erro grave na fundamentação jurídica.
A imprecisão também se manifesta quando o usuário desconhece os limites epistemológicos da plataforma utilizada, seja ela Gemini, Copilot, ChatGPT ou Claude. Cada sistema possui recortes específicos de treinamento, janelas temporais e modos distintos de lidar com fontes. Ignorar essas limitações pode gerar, por exemplo, a apresentação de legislação falsa, como artigos inexistentes ou leis que nunca foram promulgadas, especialmente em respostas que simulam linguagem legislativa formal.
Há ainda riscos associados à geração de resumos jurídicos imprecisos. Ao condensar decisões judiciais complexas, a IA pode suprimir condicionantes relevantes, inverter a ratio decidendi ou generalizar conclusões que eram restritas ao caso concreto. O resultado é um resumo formalmente correto, mas materialmente enganoso, capaz de induzir o operador do Direito a erro interpretativo relevante.
Por fim, a fabricação de fatos representa uma das manifestações mais sensíveis da confabulação em ambiente jurídico. Ao redigir narrativas processuais, pareceres ou relatórios, a IA pode preencher lacunas fáticas com informações verossímeis, porém inexistentes, como datas, valores ou circunstâncias nunca comprovadas nos autos. Nesse cenário, a responsabilidade profissional impõe que a IA seja tratada como instrumento auxiliar e jamais como fonte autônoma de verdade, reafirmando que o controle humano não é opcional, mas condição de legitimidade do uso da tecnologia no Direito.
Referências
ALVES, Fabrício da Mota. Confabulação, não alucinação: por que a precisão terminológica importa na governança da IA. Migalhas, São Paulo, 16 abr. 2026.
NATIONAL INSTITUTE OF STANDARDS AND TECHNOLOGY. Generative Artificial Intelligence Profile (AI 600-1). Gaithersburg: NIST, 2024.
OPENAI. Hallucinations and reliability in large language models. San Francisco, set. 2025.
SMITH, M.; GREAVES, F.; PANCH, T. Human–AI interaction and the problem of hallucinations and confabulations. PLOS Digital Health, v. 2, n. 5, 2023.
Tiago Carneiro Rabelo
Analista do TJDFT. Especialista em Direito Digital.
Rede social: @prof.tiagorabelo
![[Pricing do mês] AI PRO – Cabeçalho](https://blog-static.infra.grancursosonline.com.br/wp-content/uploads/2026/05/08162015/assinatura-ilimitada-pro-cabecalho.webp)
![[Pricing do mês] AI PRO – Post](https://blog-static.infra.grancursosonline.com.br/wp-content/uploads/2026/05/08162329/assinatura-ilimitada-pro-post.webp)


