
Filtros invisíveis: a inteligência artificial como interlocutora silenciosa no STF
Como ferramentas como Victor, RAFA, VitórIA e MarIA estão reconfigurando a relação entre linguagem jurídica e acesso à jurisdição constitucional.
Por Núbia S, Henrique Fehr e João Guilherme Monteiro Petroni
A inteligência artificial (IA) tem transformado não apenas a gestão processual no Judiciário, mas também a forma como a advocacia se comunica com os tribunais. No Supremo Tribunal Federal (STF), o uso de sistemas baseados em IA já é uma realidade consolidada. Ferramentas como o Projeto Victor, RAFA 2030, VitórIA e, mais recentemente, MARIA, atuam como filtros prévios entre advogados e ministros da Corte, influenciando diretamente a triagem e o fluxo dos processos.
O Projeto Victor, por exemplo, realiza desde 2017 a triagem de recursos extraordinários com base em critérios de similaridade textual. Recursos que não dialogam com os temas de repercussão geral reconhecidos podem ser classificados como não aderentes, comprometendo sua análise posterior. Isso impõe aos advogados o desafio de estruturar petições em sintonia com padrões algorítmicos, aproximando sua redação dos precedentes já consolidados. O risco de não “passar no filtro” é real e crescente.
Outras ferramentas operam com finalidades semelhantes. A VitórIA, lançada em 2023, utiliza IA generativa para agrupar processos com base em similitudes textuais. Já a RAFA 2030 identifica, por meio de metadados e conteúdo processual, quais ações estão alinhadas com os Objetivos de Desenvolvimento Sustentável (ODS). Embora voltadas ao aprimoramento da gestão judicial, a forma como essas classificações influenciam a priorização dos casos ainda carece de transparência. Não há indicadores públicos claros sobre seus critérios técnicos, o que levanta dúvidas quanto ao risco de desvio de finalidade institucional.
Em 2024, foi lançada a MARIA (Módulo de Apoio para Redação com Inteligência Artificial), primeira ferramenta generativa da Corte voltada à produção de peças. Ela analisa demandas, redige minutas de relatórios e ementas, e realiza triagens preliminares de reclamações constitucionais. Representa um avanço tecnológico importante, mas seu uso intensivo traz questionamentos legítimos, especialmente sobre o impacto na escolha de precedentes, na organização temática dos casos e, em última instância, na construção do conteúdo decisório.
Um dos efeitos mais relevantes e pouco discutidos da adoção de IA no STF é sua influência na formação de precedentes. Ao agrupar e filtrar casos com base em padrões linguísticos, essas ferramentas podem, ainda que indiretamente, direcionar o recorte temático dos julgados. Isso tende a reforçar teses já consolidadas e limitar a visibilidade de argumentos dissidentes ou inovadores, reduzindo a diversidade interpretativa. Para o contencioso estratégico, esse cenário exige atenção constante aos fundamentos que estão sendo reiterados ou descartados pelas decisões produzidas sob mediação algorítmica.
Esse fenômeno tem sido descrito como “institucionalismo algorítmico”, ou seja, a delegação de funções estruturantes a sistemas automatizados, que passam a participar da produção do sentido jurídico. O resultado pode ser a formação de uma espécie de “jurisprudência invisível”, com decisões orientadas por padrões técnicos não públicos, que reduzem a previsibilidade e dificultam a contestação.
Casos internacionais ilustram esses riscos. Nos Estados Unidos, o sistema COMPAS, usado para prever reincidência criminal, foi criticado por viés racial e opacidade. Mesmo sem substituir o juiz, suas análises influenciavam diretamente as sentenças com base em critérios tecnicamente questionáveis.
No Brasil, o desafio é a ausência de uma política nacional de governança algorítmica unificada. Diversos tribunais desenvolvem soluções próprias, sem diretrizes padronizadas ou mecanismos consistentes de avaliação de impacto. Essa fragmentação compromete a transparência, dificulta a interoperabilidade dos sistemas e fragiliza a prestação de contas. Iniciativas como o SINAPSES, plataforma nacional de compartilhamento de modelos de IA, e o INOVA-PJe, laboratório de inovação colaborativa do sistema processual eletrônico, representam avanços importantes, mas ainda carecem de articulação nacional robusta.
Enquanto isso, a União Europeia avança com o Artificial Intelligence Act, uma proposta que impõe exigências rigorosas para o uso de IA em setores sensíveis, como o Judiciário. No Brasil, além da Resolução CNJ nº 332/2020, que estabelece que as decisões devem ser tomadas por pessoas, ainda que com apoio de sistemas, tramita o Projeto de Lei nº 2.338/2023, conhecido como Marco Legal da Inteligência Artificial. Embora ainda em debate, sua aprovação pode representar um passo relevante na construção de parâmetros de responsabilidade, transparência e controle sobre o uso de IA no setor público.
A transparência é, nesse contexto, elemento indispensável. Mais do que abrir códigos-fonte, é necessário garantir clareza sobre os critérios, parâmetros e fontes de dados utilizados. Só assim será possível compreender e, se necessário, contestar a lógica aplicada por essas ferramentas.
A advocacia, diante desse cenário, não pode se limitar a adaptar sua linguagem aos filtros algorítmicos. É preciso compreender que a forma como os argumentos são estruturados, os precedentes destacados e os temas constitucionais articulados passaram a ser decisivos para garantir o avanço de recursos dentro do Supremo. Redações vagas, genéricas ou desconectadas da lógica de repercussão geral podem simplesmente ser invisibilizadas pelos sistemas. Nesse contexto, petições juridicamente robustas e estrategicamente calibradas tornam-se não apenas uma ferramenta de convencimento, mas também uma forma concreta de resistência técnica ao silenciamento automático.
Este boletim tem propósito meramente informativo e não deve ser considerado a fim de se obter aconselhamento jurídico sobre qualquer um dos temas aqui tratados. Para informações adicionais, contate os líderes do Time de Contencioso e Arbitragem. CGM Advogados. Todos os direitos reservados.