Por Camila Maria Foltran Lopes –
A presença da Inteligência Artificial (IA) no Judiciário deixou de ser uma especulação futurista para se tornar uma realidade em expansão. Segundo o CNJ¹, o uso da IA no Judiciário cresceu 26% de 2022 para 2024, e continua a se expandir. O objetivo primário com a utilização da ferramenta era a busca pela eficiência e celeridade na prestação jurisdicional, especialmente com atividades cotidianas, tendo em vista a alta demanda de trabalho. As atividades mais realizadas com as ferramentas de IA eram a busca por casos similares, a classificação e automação de documentos, a consulta e padronização de legislação, a identificação de litigância predatória, entre outras. Com isso, a utilização da IA pode otimizar a análise de processos, acelerar julgamentos e oferecer mais previsibilidade às decisões.
Mas, e quando a pauta passa a ser de julgamentos realizados com utilização de ferramenta de IA? Quais seriam os limites para a utilização da IA em decisões? Como garantir os direitos fundamentais do jurisdicionado nos processos cujas decisões utilizam-se de IA de alguma forma? Quais os riscos e benefícios de se delegar parte da lógica jurídica a uma máquina?
A promessa da utilização da IA cada vez mais no Direito é sedutora: mais agilidade, redução de custos e decisões mais uniformes. Algoritmos podem revisar milhares de documentos, identificar padrões e sugerir entendimentos com base em jurisprudência consolidada — tudo em segundos. No entanto, o entusiasmo com o uso dessa tecnologia precisa vir acompanhado de um olhar crítico.
Um dos principais desafios do uso da IA em decisões judiciais é a opacidade algorítmica — ou seja, o “caminho invisível” percorrido pela máquina até chegar a uma conclusão. Muitos sistemas utilizam modelos complexos de aprendizado de máquina (machine learning) que, por natureza, operam como uma espécie de “caixa-preta”. Isso significa que nem sempre é possível entender claramente como e por que uma decisão foi sugerida ou tomada por um sistema automatizado.
Transparência, portanto, deve ser um pilar inegociável. A sociedade tem o direito de saber quais critérios foram considerados, quais dados foram utilizados e qual o exato grau de influência que a IA teve em uma decisão judicial.
A qualidade das decisões da IA está diretamente relacionada à qualidade dos dados com os quais ela foi treinada. Se os dados forem incompletos, desatualizados ou tendenciosos, a IA produzirá uma decisão inservível ou enviesada.
Viés não é, necessariamente, uma falha técnica. Muitas vezes, ele reflete a própria realidade social e histórica contida nos dados. Por exemplo, se um sistema é alimentado com jurisprudência marcada por julgamentos mais severos contra certos grupos sociais, ele tenderá a repetir essa prática. Isso se chama viés negativo. Por outro lado, um viés positivo pode ocorrer quando o algoritmo favorece determinados padrões de decisões por considerá-los mais “eficientes”, mesmo que isso limite o espaço para interpretações jurídicas mais humanizadas ou inovadoras.
Ainda é possível advogar que a decisão final deve sempre caber ao ser humano? A evolução tecnológica poderá fundamentadamente nos contestar, trazendo estatísticas de acertos e segurança jurídica, sendo esta eternamente almejada pelo direito. Ou, ainda, será possível concluir que nenhuma máquina é capaz de captar plenamente: o contexto, a subjetividade, a justiça material. Só o tempo nos dirá.
Independente do que se revelará, certo é que a grande pedra de toque quanto a utilização da IA em decisões judiciais, em maior ou menor escala, será a transparência.
Cabe ao Estado, ao Judiciário e à sociedade civil estabelecerem normas claras, garantir auditorias constantes nos sistemas de IA e promover debates interdisciplinares sobre sua aplicação. É necessário envolver juristas, cientistas de dados, engenheiros, filósofos e a população em geral para que a tecnologia esteja a serviço da justiça — e não o contrário. Devemos sempre lembrar que a IA é uma ferramenta de apoio e não um fim em si mesma.
Caminho sem volta, mas com escolhas
A Inteligência Artificial é uma ferramenta poderosa, mas não é neutra nem infalível. Seu uso no Judiciário pode, sim, trazer avanços significativos, mas exige transparência, responsabilidade e vigilância constante.
Fonte: https://www.cnj.jus.br/uso-de-ia-no-judiciario-cresceu-26-em-relacao-a-2022-aponta-pesquisa/

Dra. Camila Maria Foltran Lopes
Graduanda em Tecnologia em Gestão de Tecnologia da Informação, pela Faculdade de Tecnologia de Tatuí; Mestre em Direito, Justiça e Desenvolvimento, pelo Instituto Brasileiro de Ensino, Desenvolvimento e Pesquisa (IDP) (2021); Pós-graduada em Direito da Seguridade Social pela Faculdade Legale (2013). Pós-graduada em Direito do Trabalho e Processo do Trabalho pela Faculdade Toledo de Ensino (2011). Pós-graduada em Direito Público pela Escola Paulista de Direito – EPD (2007). Graduada em Direito pela Faculdade de Direito de Itu (2003). Advogada com experiência em Direito Público, com ênfase em Licitações e Contratos Públicos; em Direito do Trabalho, especialmente consultivo, preventivo e contencioso; Advogada do escritório Rocha Calderon e Advogados Associados.
**Este texto é de responsabilidade do autor e não reflete, necessariamente, a opinião deste veículo de comunicação.
- O Movimento Advocacia Independente (MAI) é uma associação privada sediada em São Paulo, Brasil. Seu foco principal é a defesa de direitos sociais, atuando como uma organização voltada para a advocacia e questões jurídicas.
Últimas publicações
Artigos6 de abril de 2026Reformar para Preservar: O Brasil Precisa Corrigir o Judiciário — Não Destruí-lo
Artigos1 de abril de 2026Que Trata Da Misoginia Como Crime E A Equipara Ao Crime De Racismo. Pasme: Não Fizeram Estudo De Impacto Dessa Lei. Entenda.
Artigos27 de março de 2026Quando O Excesso Vira Ameaça: Um Alerta Urgente À Câmara Dos Deputados
Artigos13 de março de 2026O Que Você Deve Enxergar Ao Ver Erika Hilton Eleita Presidente Da Comissão De Direitos Humanos Da Mulher No Brasil Da Câmara Dos Deputados

























