Se você estuda para fazer o ENAM ou sonha em seguir a carreira da magistratura, precisa entender como a inteligência artificial está transformando o trabalho dos juízes. O novo ato normativo proposto pelo CNJ traz regras importantes, inspiradas nas melhores experiências internacionais, para garantir que essa tecnologia seja usada de forma responsável em nossos tribunais.
Dada a relevância do tema, este texto faz parte de uma série de três artigos, nos quais serão abordadas as principais mudanças introduzidas pelo novo regulamento. Nesta primeira parte, destacam-se a obrigatoriedade da supervisão humana e a classificação de riscos dos sistemas de IA, elementos centrais para a implementação segura dessa tecnologia.
O ponto mais importante é que a IA não veio para substituir o juiz, mas para ser uma ferramenta de apoio. Pense na IA como um assistente muito eficiente: ela pode ajudar com pesquisas, organizar informações e identificar padrões, mas a decisão final sempre será do magistrado. A norma enfatiza que os sistemas de IA devem servir como ferramentas de apoio à decisão, contribuindo para a eficiência e a qualidade da prestação jurisdicional, sem subverter o papel central do operador humano ou criar uma dependência indesejável dos algoritmos no processo decisório.
Desse modo, vamos falar sobre a obrigatoriedade da supervisão humana e a classificação de riscos dos sistemas de IA, que são fundamentais para a implementação segura dessa tecnologia.
Supervisão humana
Um dos pilares da nova regulamentação é a obrigatoriedade da supervisão humana na utilização de ferramentas de inteligência artificial. Reconhecendo que os sistemas de IA devem atuar como auxiliares na atividade jurisdicional, a norma enfatiza que a decisão final deve sempre permanecer sob a responsabilidade do magistrado. Esse princípio visa evitar a dependência excessiva de algoritmos e assegurar que as decisões judiciais sejam fundamentadas na análise crítica e na experiência do juiz, reduzindo o risco de automação inadequada da atividade-fim do Judiciário.
Gestão de Riscos
O sistema de classificação de riscos da IA judicial funciona de maneira simples e objetiva: divide as aplicações em dois níveis – baixo e alto risco.
As ferramentas de baixo risco são aquelas que desempenham funções meramente acessórias, como extração de informações e organização processual.
Por outro lado, sistemas classificados como de alto risco são aqueles que podem influenciar diretamente o julgamento de um caso, como os que analisam padrões de comportamento ou fazem valoração de provas. Para esses últimos, a regulamentação determina a implementação de auditorias rigorosas e mecanismos de mitigação, prevenindo vieses discriminatórios e garantindo a transparência na tomada de decisões.
Esta abordagem segue padrões internacionais reconhecidos, como o modelo europeu de regulação da IA, os princípios da OCDE e as diretrizes éticas da UNESCO. Na prática, quanto maior o risco identificado, mais rigorosas são as medidas de controle.
Além disso, existe um processo contínuo de validação, semelhante a um “check-up” regular, para garantir que tudo funcione corretamente. Um ponto fundamental é a supervisão humana reforçada – isso significa que profissionais qualificados acompanham de perto o trabalho da IA, especialmente para evitar dois tipos de problemas: falhas técnicas e “alucinações” (quando a IA gera informações incorretas ou sem fundamento). Essas medidas são especialmente importantes porque protegem a qualidade das decisões judiciais.
A Resolução também estabelece diretrizes para a governança e segurança cibernética, determinando que o uso da IA no Judiciário seja auditável e rastreável. O monitoramento contínuo dessas ferramentas, aliado à obrigatoriedade da transparência nos processos decisórios, reforça a necessidade de responsabilidade institucional no desenvolvimento e na adoção dessas tecnologias.
Além disso, a criação do Comitê Nacional de Inteligência Artificial assegura uma supervisão constante, promovendo a atualização das normas de acordo com as inovações tecnológicas e os desafios emergentes. Características:
- i) monitorar e atualizar as diretrizes de uso da inteligência artificial, assegurando que as soluções adotadas estejam em conformidade com padrões éticos e legais.
- ii) composto por membros de diversas áreas, incluindo magistrados, especialistas em tecnologia e representantes da sociedade civil.
- iii) o comitê atuará na mitigação de vieses e na promoção de uma utilização responsável e eficiente das tecnologias de IA, sempre com supervisão humana.
A atualização da Resolução nº 332/2020 representa um avanço significativo na regulamentação da inteligência artificial no Poder Judiciário, estabelecendo limites claros para o uso dessas ferramentas e preservando a autonomia e a responsabilidade dos magistrados.
A norma garante que a IA seja utilizada de forma ética, segura e transparente, modernizando a gestão dos tribunais e fortalecendo a confiança da sociedade na adoção dessas tecnologias. Nos próximos textos da série, exploraremos outras inovações da Resolução, incluindo o desenvolvimento de soluções corporativas de IA e as diretrizes para o uso de modelos de linguagem de larga escala (LLMs). Não percam!
Tiago Carneiro Rabelo – Graduando CST em Inteligência Artificial, Analista Judiciário (TJDFT), Especialista em Direito Digital e Processo Civil e Professor da Lei n. 11.419/2006 – Processo Judicial Eletrônico, Direito Digital e Resoluções tecnológicas do CNJ no GRAN.
Rede social – Instagram: @prof.tiagorabelo
Quer ficar por dentro dos concursos públicos abertos e previstos pelo Brasil? Clique nos links abaixo:
Receba gratuitamente no seu celular as principais notícias do mundo dos concursos. Clique no link abaixo e inscreva-se:
Participe da conversa