Inteligência Artificial no Poder Judiciário: Supervisão Humana e Classificação de Riscos

Por
3 min. de leitura

Se você estuda para fazer o ENAM ou sonha em seguir a carreira da magistratura, precisa entender como a inteligência artificial está transformando o trabalho dos juízes. O novo ato normativo proposto pelo CNJ traz regras importantes, inspiradas nas melhores experiências internacionais, para garantir que essa tecnologia seja usada de forma responsável em nossos tribunais.

Dada a relevância do tema, este texto faz parte de uma série de três artigos, nos quais serão abordadas as principais mudanças introduzidas pelo novo regulamento. Nesta primeira parte, destacam-se a obrigatoriedade da supervisão humana e a classificação de riscos dos sistemas de IA, elementos centrais para a implementação segura dessa tecnologia.

O ponto mais importante é que a IA não veio para substituir o juiz, mas para ser uma ferramenta de apoio. Pense na IA como um assistente muito eficiente: ela pode ajudar com pesquisas, organizar informações e identificar padrões, mas a decisão final sempre será do magistrado. A norma enfatiza que os sistemas de IA devem servir como ferramentas de apoio à decisão, contribuindo para a eficiência e a qualidade da prestação jurisdicional, sem subverter o papel central do operador humano ou criar uma dependência indesejável dos algoritmos no processo decisório. 

Desse modo, vamos falar sobre a obrigatoriedade da supervisão humana e a classificação de riscos dos sistemas de IA, que são fundamentais para a implementação segura dessa tecnologia.

Supervisão humana

Um dos pilares da nova regulamentação é a obrigatoriedade da supervisão humana na utilização de ferramentas de inteligência artificial. Reconhecendo que os sistemas de IA devem atuar como auxiliares na atividade jurisdicional, a norma enfatiza que a decisão final deve sempre permanecer sob a responsabilidade do magistrado. Esse princípio visa evitar a dependência excessiva de algoritmos e assegurar que as decisões judiciais sejam fundamentadas na análise crítica e na experiência do juiz, reduzindo o risco de automação inadequada da atividade-fim do Judiciário.

Gestão de Riscos

O sistema de classificação de riscos da IA judicial funciona de maneira simples e objetiva: divide as aplicações em dois níveis – baixo e alto risco. 

As ferramentas de baixo risco são aquelas que desempenham funções meramente acessórias, como extração de informações e organização processual. 

Por outro lado, sistemas classificados como de alto risco são aqueles que podem influenciar diretamente o julgamento de um caso, como os que analisam padrões de comportamento ou fazem valoração de provas. Para esses últimos, a regulamentação determina a implementação de auditorias rigorosas e mecanismos de mitigação, prevenindo vieses discriminatórios e garantindo a transparência na tomada de decisões.

Esta abordagem segue padrões internacionais reconhecidos, como o modelo europeu de regulação da IA, os princípios da OCDE e as diretrizes éticas da UNESCO. Na prática, quanto maior o risco identificado, mais rigorosas são as medidas de controle. 

Além disso, existe um processo contínuo de validação, semelhante a um “check-up” regular, para garantir que tudo funcione corretamente. Um ponto fundamental é a supervisão humana reforçada – isso significa que profissionais qualificados acompanham de perto o trabalho da IA, especialmente para evitar dois tipos de problemas: falhas técnicas e “alucinações” (quando a IA gera informações incorretas ou sem fundamento). Essas medidas são especialmente importantes porque protegem a qualidade das decisões judiciais.

A Resolução também estabelece diretrizes para a governança e segurança cibernética, determinando que o uso da IA no Judiciário seja auditável e rastreável. O monitoramento contínuo dessas ferramentas, aliado à obrigatoriedade da transparência nos processos decisórios, reforça a necessidade de responsabilidade institucional no desenvolvimento e na adoção dessas tecnologias. 

Além disso, a criação do Comitê Nacional de Inteligência Artificial assegura uma supervisão constante, promovendo a atualização das normas de acordo com as inovações tecnológicas e os desafios emergentes. Características:

  • i) monitorar e atualizar as diretrizes de uso da inteligência artificial, assegurando que as soluções adotadas estejam em conformidade com padrões éticos e legais.
  • ii) composto por membros de diversas áreas, incluindo magistrados, especialistas em tecnologia e representantes da sociedade civil.
  • iii) o comitê atuará na mitigação de vieses e na promoção de uma utilização responsável e eficiente das tecnologias de IA, sempre com supervisão humana.

A atualização da Resolução nº 332/2020 representa um avanço significativo na regulamentação da inteligência artificial no Poder Judiciário, estabelecendo limites claros para o uso dessas ferramentas e preservando a autonomia e a responsabilidade dos magistrados. 

A norma garante que a IA seja utilizada de forma ética, segura e transparente, modernizando a gestão dos tribunais e fortalecendo a confiança da sociedade na adoção dessas tecnologias. Nos próximos textos da série, exploraremos outras inovações da Resolução, incluindo o desenvolvimento de soluções corporativas de IA e as diretrizes para o uso de modelos de linguagem de larga escala (LLMs). Não percam!


Tiago Carneiro Rabelo – Graduando CST em Inteligência Artificial, Analista Judiciário (TJDFT), Especialista em Direito Digital e Processo Civil e Professor da Lei n. 11.419/2006 – Processo Judicial Eletrônico, Direito Digital e Resoluções tecnológicas do CNJ no GRAN.

Rede social – Instagram: @prof.tiagorabelo


Quer ficar por dentro dos concursos públicos abertos e previstos pelo Brasil? Clique nos links abaixo:

CONCURSOS 2025

CONCURSOS ABERTOS

QUESTÕES DE CONCURSOS

Receba gratuitamente no seu celular as principais notícias do mundo dos concursos. Clique no link abaixo e inscreva-se:

WHATSAPP

TELEGRAM

Por
3 min. de leitura