Inteligência Artificial no Poder Judiciário: Supervisão Humana e Classificação de Riscos

Por
3 min. de leitura

Se você estuda para fazer o ENAM ou sonha em seguir a carreira da magistratura, precisa entender como a inteligência artificial está transformando o trabalho dos juízes. O novo ato normativo proposto pelo CNJ traz regras importantes, inspiradas nas melhores experiências internacionais, para garantir que essa tecnologia seja usada de forma responsável em nossos tribunais.

Dada a relevância do tema, este texto faz parte de uma série de três artigos, nos quais serão abordadas as principais mudanças introduzidas pelo novo regulamento. Nesta primeira parte, destacam-se a obrigatoriedade da supervisão humana e a classificação de riscos dos sistemas de IA, elementos centrais para a implementação segura dessa tecnologia.

O ponto mais importante é que a IA não veio para substituir o juiz, mas para ser uma ferramenta de apoio. Pense na IA como um assistente muito eficiente: ela pode ajudar com pesquisas, organizar informações e identificar padrões, mas a decisão final sempre será do magistrado. A norma enfatiza que os sistemas de IA devem servir como ferramentas de apoio à decisão, contribuindo para a eficiência e a qualidade da prestação jurisdicional, sem subverter o papel central do operador humano ou criar uma dependência indesejável dos algoritmos no processo decisório. 

Desse modo, vamos falar sobre a obrigatoriedade da supervisão humana e a classificação de riscos dos sistemas de IA, que são fundamentais para a implementação segura dessa tecnologia.

Supervisão humana

Um dos pilares da nova regulamentação é a obrigatoriedade da supervisão humana na utilização de ferramentas de inteligência artificial. Reconhecendo que os sistemas de IA devem atuar como auxiliares na atividade jurisdicional, a norma enfatiza que a decisão final deve sempre permanecer sob a responsabilidade do magistrado. Esse princípio visa evitar a dependência excessiva de algoritmos e assegurar que as decisões judiciais sejam fundamentadas na análise crítica e na experiência do juiz, reduzindo o risco de automação inadequada da atividade-fim do Judiciário.

Gestão de Riscos

O sistema de classificação de riscos da IA judicial funciona de maneira simples e objetiva: divide as aplicações em dois níveis – baixo e alto risco. 

As ferramentas de baixo risco são aquelas que desempenham funções meramente acessórias, como extração de informações e organização processual. 

Por outro lado, sistemas classificados como de alto risco são aqueles que podem influenciar diretamente o julgamento de um caso, como os que analisam padrões de comportamento ou fazem valoração de provas. Para esses últimos, a regulamentação determina a implementação de auditorias rigorosas e mecanismos de mitigação, prevenindo vieses discriminatórios e garantindo a transparência na tomada de decisões.

Esta abordagem segue padrões internacionais reconhecidos, como o modelo europeu de regulação da IA, os princípios da OCDE e as diretrizes éticas da UNESCO. Na prática, quanto maior o risco identificado, mais rigorosas são as medidas de controle. 

Além disso, existe um processo contínuo de validação, semelhante a um “check-up” regular, para garantir que tudo funcione corretamente. Um ponto fundamental é a supervisão humana reforçada – isso significa que profissionais qualificados acompanham de perto o trabalho da IA, especialmente para evitar dois tipos de problemas: falhas técnicas e “alucinações” (quando a IA gera informações incorretas ou sem fundamento). Essas medidas são especialmente importantes porque protegem a qualidade das decisões judiciais.

A Resolução também estabelece diretrizes para a governança e segurança cibernética, determinando que o uso da IA no Judiciário seja auditável e rastreável. O monitoramento contínuo dessas ferramentas, aliado à obrigatoriedade da transparência nos processos decisórios, reforça a necessidade de responsabilidade institucional no desenvolvimento e na adoção dessas tecnologias. 

Além disso, a criação do Comitê Nacional de Inteligência Artificial assegura uma supervisão constante, promovendo a atualização das normas de acordo com as inovações tecnológicas e os desafios emergentes. Características:

  • i) monitorar e atualizar as diretrizes de uso da inteligência artificial, assegurando que as soluções adotadas estejam em conformidade com padrões éticos e legais.
  • ii) composto por membros de diversas áreas, incluindo magistrados, especialistas em tecnologia e representantes da sociedade civil.
  • iii) o comitê atuará na mitigação de vieses e na promoção de uma utilização responsável e eficiente das tecnologias de IA, sempre com supervisão humana.

A atualização da Resolução nº 332/2020 representa um avanço significativo na regulamentação da inteligência artificial no Poder Judiciário, estabelecendo limites claros para o uso dessas ferramentas e preservando a autonomia e a responsabilidade dos magistrados. 

A norma garante que a IA seja utilizada de forma ética, segura e transparente, modernizando a gestão dos tribunais e fortalecendo a confiança da sociedade na adoção dessas tecnologias. Nos próximos textos da série, exploraremos outras inovações da Resolução, incluindo o desenvolvimento de soluções corporativas de IA e as diretrizes para o uso de modelos de linguagem de larga escala (LLMs). Não percam!


Tiago Carneiro Rabelo – Graduando CST em Inteligência Artificial, Analista Judiciário (TJDFT), Especialista em Direito Digital e Processo Civil e Professor da Lei n. 11.419/2006 – Processo Judicial Eletrônico, Direito Digital e Resoluções tecnológicas do CNJ no GRAN.

Rede social – Instagram: @prof.tiagorabelo


Quer ficar por dentro dos concursos públicos abertos e previstos pelo Brasil? Clique nos links abaixo:

CNU 2025 (CONCURSOS NACIONAL UNIFICADO 2)

CONCURSOS 2025

CONCURSOS 2026

CONCURSOS ABERTOS

QUESTÕES DE CONCURSOS

Receba gratuitamente no seu celular as principais notícias do mundo dos concursos. Clique no link abaixo e inscreva-se:

WHATSAPP

TELEGRAM

Por
3 min. de leitura