Home / Artigos / A Inteligência Artificial nas Decisões Judiciais: Transparência, Dados e Desafios Éticos

A Inteligência Artificial nas Decisões Judiciais: Transparência, Dados e Desafios Éticos

Por Camila Maria Foltran Lopes

A presença da Inteligência Artificial (IA) no Judiciário deixou de ser uma especulação futurista para se tornar uma realidade em expansão. Segundo o CNJ¹, o uso da IA no Judiciário cresceu 26% de 2022 para 2024, e continua a se expandir.  O objetivo primário com a utilização da ferramenta era a busca pela eficiência e celeridade na prestação jurisdicional, especialmente com atividades cotidianas, tendo em vista a alta demanda de trabalho. As atividades mais realizadas com as ferramentas de IA eram a busca por casos similares, a classificação e automação de documentos, a consulta e padronização de legislação, a identificação de litigância predatória, entre outras. Com isso, a utilização da IA pode otimizar a análise de processos, acelerar julgamentos e oferecer mais previsibilidade às decisões.

Mas, e quando a pauta passa a ser de julgamentos realizados com utilização de ferramenta de IA? Quais seriam os limites para a utilização da IA em decisões? Como garantir os direitos fundamentais do jurisdicionado nos processos cujas decisões utilizam-se de IA de alguma forma? Quais os riscos e benefícios de se delegar parte da lógica jurídica a uma máquina?

A promessa da utilização da IA cada vez mais no Direito é sedutora: mais agilidade, redução de custos e decisões mais uniformes. Algoritmos podem revisar milhares de documentos, identificar padrões e sugerir entendimentos com base em jurisprudência consolidada — tudo em segundos. No entanto, o entusiasmo com o uso dessa tecnologia precisa vir acompanhado de um olhar crítico.

Um dos principais desafios do uso da IA em decisões judiciais é a opacidade algorítmica — ou seja, o “caminho invisível” percorrido pela máquina até chegar a uma conclusão. Muitos sistemas utilizam modelos complexos de aprendizado de máquina (machine learning) que, por natureza, operam como uma espécie de “caixa-preta”. Isso significa que nem sempre é possível entender claramente como e por que uma decisão foi sugerida ou tomada por um sistema automatizado.

Transparência, portanto, deve ser um pilar inegociável. A sociedade tem o direito de saber quais critérios foram considerados, quais dados foram utilizados e qual o exato grau de influência que a IA teve em uma decisão judicial.

A qualidade das decisões da IA está diretamente relacionada à qualidade dos dados com os quais ela foi treinada. Se os dados forem incompletos, desatualizados ou tendenciosos, a IA produzirá uma decisão inservível ou enviesada.

Viés não é, necessariamente, uma falha técnica. Muitas vezes, ele reflete a própria realidade social e histórica contida nos dados. Por exemplo, se um sistema é alimentado com jurisprudência marcada por julgamentos mais severos contra certos grupos sociais, ele tenderá a repetir essa prática. Isso se chama viés negativo. Por outro lado, um viés positivo pode ocorrer quando o algoritmo favorece determinados padrões de decisões por considerá-los mais “eficientes”, mesmo que isso limite o espaço para interpretações jurídicas mais humanizadas ou inovadoras.

Ainda é possível advogar que a decisão final deve sempre caber ao ser humano? A evolução tecnológica poderá fundamentadamente nos contestar, trazendo estatísticas de acertos e segurança jurídica, sendo esta eternamente almejada pelo direito. Ou, ainda,  será possível concluir que nenhuma máquina é capaz de captar plenamente: o contexto, a subjetividade, a justiça material. Só o tempo nos dirá.

Independente do que se revelará, certo é que a grande pedra de toque quanto a utilização da IA em decisões judiciais, em maior ou menor escala, será a transparência.

Cabe ao Estado, ao Judiciário e à sociedade civil estabelecerem normas claras, garantir auditorias constantes nos sistemas de IA e promover debates interdisciplinares sobre sua aplicação. É necessário envolver juristas, cientistas de dados, engenheiros, filósofos e a população em geral para que a tecnologia esteja a serviço da justiça — e não o contrário. Devemos sempre lembrar que a IA é uma ferramenta de apoio e não um fim em si mesma.

Caminho sem volta, mas com escolhas

A Inteligência Artificial é uma ferramenta poderosa, mas não é neutra nem infalível. Seu uso no Judiciário pode, sim, trazer avanços significativos, mas exige transparência, responsabilidade e vigilância constante.

Fonte: https://www.cnj.jus.br/uso-de-ia-no-judiciario-cresceu-26-em-relacao-a-2022-aponta-pesquisa/


Dra. Camila Maria Foltran Lopes

Graduanda em Tecnologia em Gestão de Tecnologia da Informação, pela Faculdade de Tecnologia de Tatuí; Mestre em Direito, Justiça e Desenvolvimento, pelo Instituto Brasileiro de Ensino, Desenvolvimento e Pesquisa (IDP) (2021); Pós-graduada em Direito da Seguridade Social pela Faculdade Legale (2013). Pós-graduada em Direito do Trabalho e Processo do Trabalho pela Faculdade Toledo de Ensino (2011). Pós-graduada em Direito Público pela Escola Paulista de Direito – EPD (2007). Graduada em Direito pela Faculdade de Direito de Itu (2003). Advogada com experiência em Direito Público, com ênfase em Licitações e Contratos Públicos; em Direito do Trabalho, especialmente consultivo, preventivo e contencioso; Advogada do escritório Rocha Calderon e Advogados Associados.

Ver todos artigos do autor

**Este texto é de responsabilidade do autor e não reflete, necessariamente, a opinião deste veículo de comunicação.

Assessoria de Comunicação MAI
Avatar
MAI
O Movimento Advocacia Independente (MAI) é uma associação privada sediada em São Paulo, Brasil. Seu foco principal é a defesa de direitos sociais, atuando como uma organização voltada para a advocacia e questões jurídicas.
Marcado:

Deixe um Comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *