Portal O Dia - Notícias do Piauí, Teresina, Brasil e mundo

WhatsApp Facebook x Telegram Messenger LinkedIn E-mail Gmail

Shadow AI no Judiciário: um risco silencioso ao Estado de Direito

O "Shadow AI" é o uso não declarado de ferramentas privadas de IAG para atividades-fim sem conhecimento, autorização ou supervisão formal das instituições.

23/01/2026 às 12h08

23/01/2026 às 12h08

A quarta edição da pesquisa “Inteligência Artificial no Poder Judiciário Brasileiro”, realizada pela FGV Justiça com análise atualizada até março de 2025, indica que mais de 60% dos tribunais já utilizam algum tipo de IA, mas apenas cerca de 30% possuem mecanismos formais de governança, auditoria e prestação de contas. A mesma pesquisa traz dados de um relatório do CNJ em que revela a preocupação com o uso individual de Inteligência Artificial Generativa (IAG) e o fenômeno do "Shadow AI" - uso não declarado de ferramentas privadas de IAG para atividades-fim sem conhecimento, autorização ou supervisão formal das instituições.

"É preocupante que a maioria dos(as) respondentes indique não revelar o uso da IAG entre os pares ou a seu superior hierárquico, o que dificulta processos internos de revisão dos documentos e pode levar a imprecisões e erros", destaca o relatório do CNJ, que entrevistou 1.681 magistrados e 16.844 servidores e traz dados sobre o uso individual de ferramentas de IAG.

Esse descompasso cria um ambiente propício ao uso informal, individualizado e não auditável da tecnologia. E considerando o contexto judicial, isso representa um risco grave, pois decisões influenciadas por IA impactam diretamente direitos fundamentais e a confiança no sistema de justiça. Preocupação que encontra eco na Resolução nº 615/2025 do CNJ. Ela atualiza a disciplina anterior (Resolução nº 332/2020) e reafirma a centralidade do letramento digital, transparência e supervisão humana, deslocando o foco para uma "política de uso responsável e auditável, com rastreabilidade e accountability".

É nesse cenário que nasce as “Diretrizes da Unesco para o Uso de Sistemas de IA em Cortes e Tribunais”, publicado em dezembro. O documento é considerado o primeiro marco ético e operacional global voltado especificamente ao contexto judicial e está fundamentado em 15 princípios universais, entre eles transparência, auditabilidade, supervisão humana, contestabilidade e governança multissetorial, deixando claro que a IA deve ser sempre assistiva, jamais substitutiva do julgamento humano.

O Shadow AI viola esses princípios. Ele é invisível, não auditável e incompatível com qualquer noção de responsabilidade institucional. Por isso, seu enfrentamento não é apenas uma questão tecnológica, mas uma exigência democrática. Há, portanto, convergência entre o marco global da Unesco e o esforço regulatório nacional: o problema não é a tecnologia, mas a forma como ela é incorporada, sem diretrizes claras e muitas vezes sem governança, transparência ou controle institucional.

Fontes consultadas:

Inteligência Artificial no Poder Judiciário - FGV Justiça

Diretrizes da Unesco para Uso de Sistemas de IA no Judiciário - UNESCO