Empresa en el ranking

NORMA LEGAL OFICIAL DEL DÍA 09 DE SEPTIEMBRE DEL AÑO 2025 (09/09/2025)

CANTIDAD DE PAGINAS: 56

TEXTO PAGINA: 10

10 NORMAS LEGALES Martes 9 de setiembre de 2025 El Peruano / b) Generar capacidad letal autónoma, que comprenda la toma de decisiones sin supervisión humana y que pueda generar daño físico o afectar la vida y la integridad de las personas o grupos poblacionales en el ámbito civil. c) Realizar vigilancia masiva sin base legal o cuando genere o pueda generar un impacto desproporcionado en el ejercicio de derechos fundamentales. d) Analizar, clasi fi car o inferir datos sensibles de las personas, sobre la base de sus datos biométricos, para deducir o inferir su origen racial o étnico, opiniones políticas, a fi liación sindical, convicciones religiosas o fi losó fi cas, vida sexual u orientación sexual. Asimismo, para evaluar o clasi fi car a personas naturales o a colectivos, independientemente del tipo de dato de entrada, cuando dicha evaluación o clasi fi cación genere, cause o contribuya a resultados discriminatorios o desproporcionados que vulneren derechos fundamentales. e) Realizar identi fi cación biométrica en tiempo real para la categorización de personas naturales en espacios públicos . Salvo en los siguientes escenarios: i) Realizar una veri fi cación biométrica que tenga como fi n único la autenticación de la identidad digital; y, ii) Realizar investigación preliminar de los siguientes delitos graves: contra la vida, el cuerpo y la salud (tales como homicidio cali fi cado, sicariato, lesiones graves y feminicidio); contra la libertad (incluida la búsqueda de personas desaparecidas para apoyar en la investigación de delitos graves como el secuestro, trata de personas o la explotación sexual); contra el patrimonio (tales como robo agravado y extorsión); contra la administración pública; de lavado de activos; de trá fi co ilícito de drogas; de minería ilegal; y, aquellos comprendidos en el Título XIII (Delitos contra la Dignidad Humana) y el Título XIV (Delitos contra la Libertad Sexual) del Código Penal, así como los delitos previstos en la Ley N° 30077, Ley contra el Crimen Organizado. f) Predecir que una persona física cometa un delito, basándose en la elaboración del per fi l de la persona física o en la evaluación de los rasgos y características de su personalidad. 23.2 La SGTD, establece los mecanismos para monitorear el uso de los sistemas basados en IA, que puedan considerarse de uso indebido en el territorio nacional. 23.3 Todo desarrollador o implementador, en caso lo considere necesario, puede solicitar a la SGTD, una consulta para determinar si el sistema basado en IA se encuentra dentro de los supuestos señalados en el numeral 23.1. 23.4 Sin perjuicio de lo señalado en el literal e) del numeral 23.1, los sistemas basados en IA utilizados para apoyar la evaluación humana sobre la implicación de una persona física en una actividad delictiva no se considera indebido, siempre que se basen en hechos objetivos y verifi cables directamente relacionados con una actividad delictiva ya existente, y cuenten con mecanismos de supervisión humana, transparencia y auditabilidad para garantizar la no discriminación y la protección de los derechos fundamentales. Artículo 24. Uso de sistemas basados en IA de riesgo alto 24.1 El uso de un sistema basado en IA, se considera de riesgo alto cuando: a) Se usa para gestionar activos críticos nacionales que brindan soporte a servicios esenciales (energía, telecomunicaciones, salud, transporte, agua y banca, entre otros). b) Realizar evaluación en los procesos de niños, niñas y adolescentes (NNA), en el sector educativo, tales como: i) acceso a un centro de educación, ii) evaluación de resultados de aprendizaje, iii) evaluación del nivel de educación que recibe una persona, iv) identi fi cación de comportamientos prohibidos durante un examen y/o actividad educativa; salvo que el sistema integre una función complementaria y no reemplace la evaluación pedagógica humana. e) Determinar procesos de selección, evaluación, contratación y cese de trabajadores o postulantes a un puesto de trabajo; así como, establecer condiciones laborales. f) Determinar el acceso, evaluación, orden de priorización y/o cese de la prestación de programas sociales y/o focalización de hogares. g) Determinar la evaluación crediticia de personas; salvo si el uso de la IA, es para la detección de fraude fi nanciero. h) Determinar el acceso a servicios de salud y servicios complementarios que afectan la vida y bienestar de las personas. i) Orienta el tamizaje, la evaluación, sugerencia de diagnóstico, manejo o pronóstico del estado de salud de personas que pueda tener un impacto signi fi cativo en su bienestar físico o mental, orden de priorización del daño en emergencias de las prestaciones de salud, y evaluación de datos personales sensibles de personas naturales incluyendo los registrados en las historias clínicas electrónicas (HCE).Se in fi ere las emociones de una persona física en los entornos de trabajo y en los centros educativos, excepto cuando el sistema basado en IA esté destinado a ser instalado o introducido en el mercado por motivos médicos o de seguridad. j) Todo uso que supone un riesgo para la vida humana, la seguridad física, los derechos fundamentales, la libertad y dignidad de las personas, y a su vez, su desempeño implique i) elevada probabilidad de generar estigmatización, discriminación, sesgo cultural, o ii) elevada complejidad para la supervisión humana. 24.2 Todo desarrollador o implementador, en caso se considere necesario, puede solicitar a la SGTD, una consulta para determinar si el sistema basado en IA, se encuentra dentro de los usos considerado de riesgo alto. CAPÍTULO II. MEDIDAS PARA GARANTIZAR LA TRANSPARENCIA Y LA PRIVACIDAD Artículo 25. Transparencia Algorítmica25.1 El desarrollador o implementador de un sistema basado en IA de riesgo alto debe establecer mecanismos para garantizar la transparencia algorítmica, permitiendo informar al usuario, de forma previa, clara y sencilla, sobre la fi nalidad o uso del sistema basado en IA, sus funcionalidades principales y el tipo de decisiones que puede tomar, con el objetivo de que el usuario comprenda cómo interactúa con él o con el servicio o producto que utiliza el sistema basado en IA como uno de sus componentes, respetando el secreto industrial y comercial. 25.2 Entre los mecanismos se puede incluir, cuando sea relevante para la toma de decisión o interacción con el usuario, el etiquetado visible del sistema basado en IA, que informe a los usuarios con antelación, que el producto, servicio o contenido generado se opera con base en IA; salvo los casos en que la IA apoye procesos administrativos internos sin impacto directo en la toma de decisiones que afecten derechos o servicios a las personas. Asimismo, dicho etiquetado debe ser su fi ciente para permitir al público comprender de manera general las principales capacidades y limitaciones funcionales del sistema basado en IA. 25.3 En caso de que, el sistema tome decisiones que impacten en derechos humanos, debe garantizarse la explicación de sus resultados a los usuarios afectados, mediante mecanismos que permitan la comprensión de los criterios y factores clave utilizados en la toma de decisiones automatizadas, en un lenguaje accesible para el usuario. 25.4 La SGTD aprueba los lineamientos sobre Transparencia Algorítmica en concertación, cuando corresponda, con las entidades competentes del SNTD. Artículo 26. Protección de la privacidad de datos en el desarrollo, implementación y uso de la IA 26.1 En el desarrollo, implementación y uso de los sistemas basados en IA, se debe cumplir con la normativa vigente sobre privacidad y protección de datos personales, de acuerdo con lo que establezca la Autoridad Nacional de Protección de Datos Personales (ANPDP) del Ministerio de Justicia y Derechos Humanos (MINJUSDH).