A Constituição da República Federativa do Brasil de 1988 estabelece os alicerces da responsabilidade estatal. Com o avanço da inteligência artificial (IA), surgem novas questões sobre a responsabilidade dos agentes públicos e privados que desenvolvem ou utilizam essas tecnologias. A Lei nº 13.709, de 14 de agosto de 2018 (LGPD), e a Lei nº 12.850, de 2 de agosto de 2013 (organizações criminosas), são alguns dos diplomas que dialogam com o tema.
Marco normativo brasileiro e a LGPD
A LGPD estabelece regras para o tratamento de dados pessoais, inclusive por agentes públicos. Ela impõe responsabilidade objetiva em caso de danos decorrentes do tratamento inadequado de dados, o que se aplica diretamente a sistemas de IA que processam informações pessoais. A Lei nº 12.850/2013, por sua vez, pode ser relevante quando a IA é utilizada para identificar ou monitorar organizações criminosas. A fonte não detalhou, mas é possível que haja intersecção entre essas normas e o uso de IA por órgãos de segurança pública.
ADPF 1143 e o controle judicial da IA
A ADPF 1143, relatada pelo Ministro Alexandre de Moraes, foi julgada pelo Supremo Tribunal Federal em 2024. Embora o teor exato da decisão não tenha sido detalhado, a ação evidencia a preocupação do STF com o uso de tecnologias que possam afetar direitos fundamentais. O julgamento pode estabelecer parâmetros para a responsabilidade de agentes públicos na implementação de sistemas de IA, especialmente no que tange à transparência e ao devido processo legal.
Regulamentação europeia como referência
O Regulamento (UE) 2024/1689, conhecido como Artificial Intelligence Act, foi publicado pelo Parlamento Europeu em 2024. Esse diploma classifica os sistemas de IA conforme o risco, impondo obrigações mais rigorosas para aplicações de alto risco, como as usadas em segurança pública. Embora não seja vinculante no Brasil, serve como paradigma para futuras regulamentações e para a interpretação de normas existentes, como a LGPD.
Ferramentas de IA: Palantir e PredPol
Palantir Gotham
O documento ‘Palantir Gotham: Platform Overview’ (2023) descreve uma plataforma de análise de dados usada por agências governamentais. A ferramenta levanta questões sobre responsabilidade: quem responde por erros ou vieses algorítmicos? A LGPD e a legislação consumerista podem ser aplicadas, mas a fonte não detalhou decisões judiciais específicas sobre esse sistema no Brasil.
PredPol
O ‘Crime Prediction Software — Technical White Paper’ (2022) detalha um software de predição criminal. Similarmente, a responsabilidade por danos causados por predições incorretas ou discriminatórias ainda carece de definição jurisprudencial no Brasil.
Doutrina e perspectivas futuras
A obra ‘Ministério Público: organização, atribuições e regime jurídico’, de Emerson Garcia (7ª ed., Saraiva, 2020), aborda as funções do Ministério Público, que pode atuar na fiscalização do uso de IA. O livro ‘El derecho como obstáculo al cambio social’, de Eduardo Novoa Monreal (15ª ed., Siglo XXI, 2010), oferece uma reflexão crítica sobre como o direito pode tanto facilitar quanto obstruir inovações. O artigo ‘Bancos de dados jurídicos, inteligência artificial e o direito fundamental à compreensão’, de Fábio Medina Osório (Revista dos Tribunais, v. 1070, 2025), discute o direito à compreensão das decisões automatizadas, essencial para a responsabilização. A convergência dessas fontes indica que a responsabilidade de agentes públicos e privados no uso de IA será um campo em expansão, exigindo adaptação legislativa e judicial.
Fonte
- www.jota.info
- FAQ (inteligencia.jota.info)
- Contato (portal.jota.info)
- Trabalhe Conosco (carreira.inhire.com.br)
Últimas publicações
Notícias29 de abril de 2026Reforma tributária e verbas comerciais no varejo
Notícias29 de abril de 2026Responsabilidade de IA por agentes públicos: impactos legais
Notícias29 de abril de 2026Cisão da denúncia no ANPP: violência de um delito contamina os demais?
Notícias28 de abril de 2026Desindexar buscas não fere tese do STF sobre esquecimento
























