Confabulação algorítmica no Direito

Por
Publicado em
3 min. de leitura

No contexto jurídico, a discussão sobre a inverdade mediada por sistemas de inteligência artificial exige precisão conceitual desde a introdução do tema. A literatura técnica contemporânea tem demonstrado que a expressão “alucinação da IA”, amplamente difundida no senso comum, é inadequada do ponto de vista científico, por pressupor percepção sensorial e consciência, atributos inexistentes em modelos computacionais. A alucinação, no sentido clássico da psicopatologia, refere-se a uma percepção subjetiva sem objeto correspondente no mundo real, o que não se aplica à operação estatístico-probabilística dos modelos de linguagem.

Mais adequado, portanto, é compreender a inverdade produzida por IA sob a noção de confabulação. A confabulação descreve a construção de narrativas plausíveis, porém falsas, geradas para preencher lacunas informacionais sem intenção de enganar e sem consciência do erro. No ambiente jurídico, essa distinção não é meramente terminológica: ela delimita a natureza do risco informacional, afasta o antropomorfismo tecnológico e permite tratar o erro da IA como um problema de governança, validação e uso responsável da informação, e não como um desvio cognitivo dotado de intencionalidade.

Essa leitura é compatível, inclusive, com a formulação adotada pela própria OpenAI, segundo a qual “uma alucinação é uma mentira plausível e excessivamente confiante”. A afirmação evidencia que o problema não reside em uma suposta percepção distorcida da realidade, mas na produção confiante de conteúdos não verdadeiros, cuja aparência de coerência e assertividade pode ocultar a ausência de lastro fático ou normativo. No campo jurídico, essa característica torna o fenômeno particularmente sensível, pois a confiança indevida no texto gerado pode substituir, de modo silencioso, a verificação técnica e a análise crítica próprias da atividade jurídica.

A partir dessa compreensão, torna-se possível analisar as consequências não intencionais do uso da inteligência artificial na prática jurídica. Uma primeira consequência relevante é a tendência à superconfiança técnica, pela qual operadores do Direito atribuem às respostas da IA um grau de autoridade incompatível com sua arquitetura. A fluência textual e a coerência formal induzem o usuário a presumir correção substancial, reduzindo o exercício do juízo crítico que é essencial à atividade jurídica.

Outra consequência não intencional está relacionada à assimetria de conhecimento entre usuários. Profissionais com menor familiaridade tecnológica tendem a utilizar a IA como substituto do raciocínio jurídico, e não como ferramenta de apoio, o que pode gerar decisões, pareceres ou peças processuais baseadas em informações imprecisas. Essa dependência acrítica potencializa erros sistêmicos e dificulta a identificação da origem da inverdade quando ela se materializa no processo.

Uma terceira consequência consiste na difusão ampliada do erro. Diferentemente de equívocos humanos individuais, a confabulação gerada por IA pode ser rapidamente replicada, reutilizada e disseminada em múltiplos documentos, pareceres e manifestações processuais. No ambiente judicial, isso gera risco de contaminação argumentativa, em que a informação falsa passa a circular como se fosse consenso, agravando seus efeitos institucionais.

Entre as causas mais frequentes desses erros jurídicos está o treinamento inadequado da base de dados utilizada pelo modelo. Uma IA treinada com fontes desatualizadas, não oficiais ou de baixa confiabilidade tende a reproduzir entendimentos superados, normas revogadas ou interpretações minoritárias como se fossem direito vigente. No campo jurídico, essa fragilidade pode levar à citação de jurisprudência inexistente ou à atribuição de efeitos normativos a atos que não possuem tal natureza.

Outra situação crítica decorre da elaboração deficiente do prompt. Solicitações genéricas, ambíguas ou excessivamente abertas estimulam o modelo a completar padrões linguísticos sem amarras normativas ou fáticas. Nesses casos, a IA pode fabricar precedentes judiciais, criar números de processos inexistentes ou atribuir decisões a tribunais que jamais se pronunciaram sobre determinado tema, configurando erro grave na fundamentação jurídica.

A imprecisão também se manifesta quando o usuário desconhece os limites epistemológicos da plataforma utilizada, seja ela Gemini, Copilot, ChatGPT ou Claude. Cada sistema possui recortes específicos de treinamento, janelas temporais e modos distintos de lidar com fontes. Ignorar essas limitações pode gerar, por exemplo, a apresentação de legislação falsa, como artigos inexistentes ou leis que nunca foram promulgadas, especialmente em respostas que simulam linguagem legislativa formal.

Há ainda riscos associados à geração de resumos jurídicos imprecisos. Ao condensar decisões judiciais complexas, a IA pode suprimir condicionantes relevantes, inverter a ratio decidendi ou generalizar conclusões que eram restritas ao caso concreto. O resultado é um resumo formalmente correto, mas materialmente enganoso, capaz de induzir o operador do Direito a erro interpretativo relevante.

Por fim, a fabricação de fatos representa uma das manifestações mais sensíveis da confabulação em ambiente jurídico. Ao redigir narrativas processuais, pareceres ou relatórios, a IA pode preencher lacunas fáticas com informações verossímeis, porém inexistentes, como datas, valores ou circunstâncias nunca comprovadas nos autos. Nesse cenário, a responsabilidade profissional impõe que a IA seja tratada como instrumento auxiliar e jamais como fonte autônoma de verdade, reafirmando que o controle humano não é opcional, mas condição de legitimidade do uso da tecnologia no Direito.


Referências

ALVES, Fabrício da Mota. Confabulação, não alucinação: por que a precisão terminológica importa na governança da IA. Migalhas, São Paulo, 16 abr. 2026.

NATIONAL INSTITUTE OF STANDARDS AND TECHNOLOGY. Generative Artificial Intelligence Profile (AI 600-1). Gaithersburg: NIST, 2024.

OPENAI. Hallucinations and reliability in large language models. San Francisco, set. 2025.

SMITH, M.; GREAVES, F.; PANCH, T. Human–AI interaction and the problem of hallucinations and confabulations. PLOS Digital Health, v. 2, n. 5, 2023.


Tiago Carneiro Rabelo
Analista do TJDFT. Especialista em Direito Digital.
Rede social: @prof.tiagorabelo

Por
Publicado em
3 min. de leitura