O debate sobre a inteligência artificial no sistema de justiça brasileiro deixou de ser apenas uma projeção futura para se tornar uma questão prática, institucionalmente urgente. O crescimento expressivo de iniciativas e projetos já implementados nos tribunais confirma uma mudança significativa, tanto na forma como se exerce a jurisdição quanto na lógica interna de organização do trabalho jurídico.
Com mais de 80 milhões de processos em tramitação e uma das maiores bases de dados judiciais do mundo, o Brasil consolidou-se como referência global na aplicação de tecnologias ao Judiciário, transformando-se num verdadeiro ambiente de ebulição tecnológica. Essa dimensão de escala, aliada à complexidade normativa e à elevada litigiosidade, favorece o protagonismo nacional em soluções digitais, exigindo das instituições uma responsabilidade proporcional quanto à ética e segurança no uso dessas ferramentas.
“O Brasil é um ambiente de ebulição para o desenvolvimento de tecnologias no ecossistema de Justiça.” – Dr. Luís Vale
Neste contexto, o Conselho Nacional de Justiça editou recentemente a Resolução nº 615/2025,atualizando a normativa anterior (Resolução nº 332/2020) e consolidando as diretrizes fundamentais para a atuação automatizada no Judiciário, especialmente em relação à inteligência artificial generativa. Este artigo não pretende esgotar todas as questões trazidas pela nova resolução, mas apresentar pontos relevantes sobre confiança institucional, letramento digital, proteção de dados e cooperação institucional.
Confiança institucional
A Resolução nº 615 institui um modelo robusto de governança, estabelecendo parâmetros mínimos de confiança institucional no uso da IA pelo Judiciário. Inspirada em modelos internacionais como o AI Act europeu e alinhada às discussões nacionais presentes no PL nº 2.338/2023,a norma adota uma abordagem de mensuração de riscos. Ela classifica os sistemas conforme o potencial impacto sobre a integridade do processo judicial, impondo controles proporcionais e exigências de transparência e supervisão.
Entre os pontos mais delicados está a regulamentação específica das IAs generativas privadas utilizadas por magistrados. O CNJ autorizou esse uso sob condições objetivas que envolvem responsabilidade funcional, proteção rigorosa de dados pessoais e supervisão humana contínua.
Este último requisito, particularmente decisivo, reforça a noção de que a legitimidade democrática das decisões judiciais exige controle humano permanente. Assim, a IA atua como um suporte, nunca como substituto da racionalidade humana essencial à jurisdição.
Letramento digital
Dentre os diversos dispositivos da Resolução nº 615, destaca-se a exigência estratégica do letramento digital como condição prévia para o uso seguro e legítimo da inteligência artificial no Judiciário. Mais do que treinamento técnico pontual, trata-se de construir uma cultura institucional de compreensão profunda das tecnologias antes da sua efetiva implementação.
“O problema não é a tecnologia. O problema é o uso não letrado da tecnologia.” – Dr. Luís Vale
Capacitar magistrados, procuradores, defensores e servidores significa dotá-los da capacidade de identificar riscos, compreender limitações algorítmicas e manter controle humano efetivo sobre decisões automatizadas. Durante a audiência pública sobre a Resolução nº 615, este foi um dos temas mais enfatizados.
Foi ressaltado ainda a necessidade de o letramento digital abranger também o cidadão. Garantir a efetiva compreensão pública sobre a utilização dessas tecnologias é um dos pontos trazidos pela resolução, inclusive exigindo linguagem acessível.
A introdução apressada de tecnologias acompanhadas por treinamentos reativos compromete a legitimidade institucional e amplifica os riscos éticos e reputacionais. O letramento digital precisa ser anterior à adoção da tecnologia. Treinar após o uso é inverter a lógica correta de implementação tecnológica.
Assim, as escolas judiciais, ministérios públicos e demais instituições devem assumir papel permanente e estruturado nessa capacitação, consolidando o letramento digital como infraestrutura institucional essencial à justiça segura e compreensível.
Proteção de dados e sistemas de IA
No contexto institucional, a qualidade dos dados e sua forma de tratamento não constituem meramente uma questão técnica, mas antes uma obrigação jurídica. Com a Lei Geral de Proteção de Dados (LGPD) em vigor e o direito à proteção de dados pessoais consolidado pela Emenda Constitucional nº 115/2022, o uso institucional da IA deve observar rigorosamente esses marcos legais.
A Resolução nº 615 estabelece explicitamente a exigência de anonimização dos dados desde a concepção dos sistemas, avaliações de impacto obrigatórias para aplicações relevantes e conformidade aos princípios de privacy by design e privacy by default. Além disso, define padrões rigorosos para segurança informacional e transparência dos modelos utilizados.
Treinar algoritmos com dados sigilosos ou sensíveis sem essas cautelas configura grave violação jurídica, comprometendo diretamente a confiança pública no sistema judiciário.
Cooperação institucional e desafios da assimetria
Reconhecer as assimetrias existentes entre os diversos órgãos judiciais e instituições jurídicas é essencial para superá-las. Tribunais, ministérios públicos, procuradorias apresentam diferentes graus de maturidade tecnológica, com discrepâncias em termos de capacidades técnicas, financeiras e estruturais. Nesse cenário, a cooperação institucional surge como alternativa.
O Comitê Nacional de Inteligência Artificial previsto na Resolução, assim como os laboratórios de inovação contemplados pela Lei nº 14.129/2021, são instrumentos fundamentais para reduzir essas assimetrias. O objetivo é promover o compartilhamento tecnológico, protocolos institucionais padronizados e ambientes de experimentação regulada (sandboxes).
Dessa forma, a lógica adotada é de um ecossistema integrado e colaborativo, onde o desenvolvimento é compartilhado, a regulação é orientadora e os usuários são responsáveis pela mitigação de riscos.
Conclusão
A Resolução nº 615/2025, embora não esgote todos os dilemas associados à aplicação da IA no Judiciário, constitui um marco regulatório sólido e alinhado aos princípios constitucionais da função jurisdicional, da ética pública e da proteção de direitos fundamentais.
Seu valor central reside justamente em permitir o avanço tecnológico com responsabilidade institucional, assegurando que a inovação tecnológica não comprometa os fundamentos democráticos. Uma boa regulação é aquela que garante que o progresso aconteça sem prejuízo aos valores fundamentais da sociedade.
Portanto, não basta olhar para o estado atual das tecnologias. É necessário projetar-se estrategicamente, antecipando futuros desafios, fortalecendo o letramento técnico, promovendo uma cultura institucional sólida e atuando colaborativamente em rede. Este é o papel das instituições públicas, e esse é o compromisso que assumimos perante a sociedade.
Procurador do Estado de Alagoas, Presidente da Comissão de Inteligência Artificial aplicada à Advocacia Pública. Ex-Advogado da Petrobras e Procurador Federal nomeado, integra a Comissão Nacional de Advocacia Pública do Conselho Federal da OAB. Doutorando em Direito pela UnB, Mestre em Direito Processual pela UFAL e especialista pela Ohio University. Professor de Direito Processual Civil em diversas instituições, incluindo ESMAL, UERJ e EAGU. Membro da IAPP, IBDP e ANNEP, é revisor da Revista Eletrônica de Direito Processual e autor de diversas obras jurídicas, incluindo Teoria Geral do Processo Tecnológico (indicada ao Prêmio Jabuti 2024) e LGPD na Administração Pública.