Home / Notícias / Responsabilidade de IA por agentes públicos: impactos legais

Responsabilidade de IA por agentes públicos: impactos legais

Responsabilidade de IA por agentes públicos: impactos legais

A Constituição da República Federativa do Brasil de 1988 estabelece os alicerces da responsabilidade estatal. Com o avanço da inteligência artificial (IA), surgem novas questões sobre a responsabilidade dos agentes públicos e privados que desenvolvem ou utilizam essas tecnologias. A Lei nº 13.709, de 14 de agosto de 2018 (LGPD), e a Lei nº 12.850, de 2 de agosto de 2013 (organizações criminosas), são alguns dos diplomas que dialogam com o tema.

Marco normativo brasileiro e a LGPD

A LGPD estabelece regras para o tratamento de dados pessoais, inclusive por agentes públicos. Ela impõe responsabilidade objetiva em caso de danos decorrentes do tratamento inadequado de dados, o que se aplica diretamente a sistemas de IA que processam informações pessoais. A Lei nº 12.850/2013, por sua vez, pode ser relevante quando a IA é utilizada para identificar ou monitorar organizações criminosas. A fonte não detalhou, mas é possível que haja intersecção entre essas normas e o uso de IA por órgãos de segurança pública.

ADPF 1143 e o controle judicial da IA

A ADPF 1143, relatada pelo Ministro Alexandre de Moraes, foi julgada pelo Supremo Tribunal Federal em 2024. Embora o teor exato da decisão não tenha sido detalhado, a ação evidencia a preocupação do STF com o uso de tecnologias que possam afetar direitos fundamentais. O julgamento pode estabelecer parâmetros para a responsabilidade de agentes públicos na implementação de sistemas de IA, especialmente no que tange à transparência e ao devido processo legal.

Regulamentação europeia como referência

O Regulamento (UE) 2024/1689, conhecido como Artificial Intelligence Act, foi publicado pelo Parlamento Europeu em 2024. Esse diploma classifica os sistemas de IA conforme o risco, impondo obrigações mais rigorosas para aplicações de alto risco, como as usadas em segurança pública. Embora não seja vinculante no Brasil, serve como paradigma para futuras regulamentações e para a interpretação de normas existentes, como a LGPD.

Ferramentas de IA: Palantir e PredPol

Palantir Gotham

O documento ‘Palantir Gotham: Platform Overview’ (2023) descreve uma plataforma de análise de dados usada por agências governamentais. A ferramenta levanta questões sobre responsabilidade: quem responde por erros ou vieses algorítmicos? A LGPD e a legislação consumerista podem ser aplicadas, mas a fonte não detalhou decisões judiciais específicas sobre esse sistema no Brasil.

PredPol

O ‘Crime Prediction Software — Technical White Paper’ (2022) detalha um software de predição criminal. Similarmente, a responsabilidade por danos causados por predições incorretas ou discriminatórias ainda carece de definição jurisprudencial no Brasil.

Doutrina e perspectivas futuras

A obra ‘Ministério Público: organização, atribuições e regime jurídico’, de Emerson Garcia (7ª ed., Saraiva, 2020), aborda as funções do Ministério Público, que pode atuar na fiscalização do uso de IA. O livro ‘El derecho como obstáculo al cambio social’, de Eduardo Novoa Monreal (15ª ed., Siglo XXI, 2010), oferece uma reflexão crítica sobre como o direito pode tanto facilitar quanto obstruir inovações. O artigo ‘Bancos de dados jurídicos, inteligência artificial e o direito fundamental à compreensão’, de Fábio Medina Osório (Revista dos Tribunais, v. 1070, 2025), discute o direito à compreensão das decisões automatizadas, essencial para a responsabilização. A convergência dessas fontes indica que a responsabilidade de agentes públicos e privados no uso de IA será um campo em expansão, exigindo adaptação legislativa e judicial.

Fonte

Assessoria de Comunicação MAI
Avatar

Inscreva-se para receber o boletim informativo periodicamente

Fique por dentro das novidades com nossa newsletter semanal. Assine agora para não perder nenhuma atualização!

Deixe um Comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *