Regulación de la inteligencia artificial en el Poder Judicial brasileño
análisis del objeto y definiciones de la Resolución CNJ n.º 615/2025
DOI:
https://doi.org/10.65674/rev-trf3.v36i162.742Palabras clave:
Resolución n.º 615/202, inteligencia artificial, Poder Judicial, gobernanza, privacy by design, AI Act, categorización de riesgoResumen
El presente artículo examina la Resolución n.º 615/2025 del Consejo Nacional de Justicia (CNJ), que deroga la Resolución n.º 332/2020 y establece normas para el desarrollo, gobernanza, auditoría, monitorización y uso responsable de soluciones de inteligencia artificial (IA) en el Poder Judicial brasileño, con la excepción del Supremo Tribunal Federal (STF). El objetivo central es explorar y comentar, de forma no exhaustiva, las disposiciones de la Resolución que tratan específicamente de su objeto, fundamentos, principios y definiciones, evaluando su alcance y pertinencia. Así, mediante el empleo de la metodología hipotético-deductiva, el estudio propone el análisis y la descomposición del documento normativo, cotejando sus previsiones para permitir una visión integral del tema. En este recorrido, se constata que la Resolución adopta fundamentos y principios consagrados internacionalmente, tales como transparencia, supervisión humana, proporcionalidad, mitigación de riesgos y protección de derechos fundamentales, además de innovaciones normativas, como la categorización estructurada de riesgos, la regulación específica de la inteligencia artificial generativa, la obligatoriedad de evaluaciones de impacto y la incorporación expresa de privacy by design y privacy by default. Al final, se verifica que la normativa brasileña, además de estar alineada con las mejores prácticas internacionales, presenta novedades regulatorias que refuerzan el beneficio al justiciable como vector central de la adopción tecnológica en el Poder Judicial.
Citas
ABNT NBR ISO/IEC 27701:2019. Técnicas de segurança — Extensão da ABNT NBR ISO/IEC 27001 e ABNT NBR ISO/IEC 27002 para gestão da privacidade da informação — Requisitos e diretrizes. Versão corrigida 2020. Rio de Janeiro: ABNT, 2019.
ÁVILA, Humberto. Teoria dos princípios: da definição à aplicação dos princípios jurídicos. 15. ed. rev., atual. e ampl. São Paulo: Malheiros, 2014.
BOOTH, Harold et al. Secure software development practices for generative ai and dual use foundation models: an SSDF community profile. Gaithersburg, MD: National Institute of Standards and Technology, july 2024. (NIST Special Publication (SP) 800 218A). Disponível em: https://doi.org/10.6028/NIST.SP.800-218A. Acesso em: 26 set. 2025.
CAVOUKIAN, Ann. Privacy by design: the 7 foundational principles – implementation and mapping of fair information practices. [S.l.]: Information & Privacy Commissioner of Ontario, Canada, 2011. Disponível em: https://gpsbydesigncentre.com/wp-content/uploads/2022/02/301946.pdf. Acesso em: 26 set. 2025.
COLLINGRIDGE, David. The social control of technology. New York: St. Martin’s Press, 1980.
CONSELHO DA EUROPA. European Commission for the Efficiency of Justice (CEPEJ). European ethical charter on the use of artificial intelligence in judicial systems and their environment. Estrasburgo: CEPEJ, 3–4 dez. 2018. Disponível em: https://rm.coe.int/ethical-charter-en-for-publication-4-december-2018/16808f699c. Acesso em: 26 set. 2025.
CONSELHO NACIONAL DE JUSTIÇA (CNJ). Resolução nº 615, de 11 de março de 2025. Estabelece diretrizes para o desenvolvimento, utilização e governança de soluções desenvolvidas com recursos de inteligência artificial no Poder Judiciário. Disponível em: https://atos.cnj.jus.br/atos/detalhar/6001. Acesso em: 26 set. 2025.
ISO 31700 1:2023. Consumer protection — privacy by design for consumer goods and services — part 1: high level requirements. Geneva: International Organization for Standardization, 2023.
KATSH, Ethan; RABINOVICH-EINY, Orna. Digital justice: technology and the internet of disputes. Oxford : University Express, 2017.
ORGANIZAÇÃO PARA A COOPERAÇÃO E DESENVOLVIMENTO ECONÔMICO (OECD). Principles on artificial intelligence. Paris: OECD, 2019. Disponível em: https://oecd.ai/en/ai-principles. Acesso em: 26 set. 2025.
SOLOVE, Daniel J. Data is what data does: regulating based on harm and risk instead of sensitive data. 118 Northwestern University Law Review (Forthcoming), GWU Legal Studies Research Paper No. 2023-22, GWU Law School Public Law Research Paper No. 2023-22. Disponível em: https://ssrn.com/abstract=4322198. Acesso em: 31 mar. 2024.
SUSSKIND, Richard. Online courts and the future of justice, Oxford : University Express, 2019, Edição Kindle.
UNIÃO EUROPEIA. AI Act. Regulamento 2024/1689 do Parlamento Europeu e do Conselho, de 13 de junho de 2024. Disponível em: https://bo.digital.gov.pt/api/assets/etic/0e56a7ce-59df-4bf2-8142-205d83d9cafc/. Acesso em: 26 set. 2025.
UNIÃO EUROPEIA. European Commission. Ethics guidelines for trustworthy AI. Bruxelas: High-Level Expert Group on Artificial Intelligence, 2019. Disponível em: https://digital-strategy.ec.europa.eu/en/library/ethics-guidelines-trustworthy-ai. Acesso em: 26 set. 2025.
Descargas
Publicado
Cómo citar
Número
Sección
Licencia
Derechos de autor 2025 Maurício Antonio Tamer

Esta obra está bajo una licencia internacional Creative Commons Atribución 4.0.
Al someter el texto académico a la Revista del Tribunal Regional Federal de la 3ª Región (Revista do Tribunal Regional Federal da 3ª Região), los autores declaran ser titulares de los derechos de autor, respondiendo exclusivamente por cualesquiera reclamaciones relacionadas con dichos derechos; así como garantizan la inexistencia de cualquier infracción a la ética académica.
Los autores mantienen los derechos de autor y conceden a la Revista del Tribunal Regional Federal de la 3ª Región el derecho de publicación, sin gravamen y sin limitaciones en cuanto al plazo, al territorio o a cualquier otra.
Los conceptos y las opiniones expresadas en los trabajos firmados son de responsabilidad exclusiva de sus autores, no reflejando, necesariamente, el posicionamiento de esta Revista, ni del Tribunal Regional Federal de la 3ª Región.





