El país ha dado un paso más en su recorrido para impulsar el uso adecuado de la IA. En julio del 2023 se promulgó en el Perú la Ley Nº 31814, Ley que promueve el uso de la inteligencia artificial (IA) en favor del desarrollo económico y social del país.
Y esta semana se ha publicado para comentarios el reglamento de la citada norma. Los interesados en aportar al texto propuesto tendrán un mes (30 días calendario) para remitir sus comentarios al correo electrónico rinfante@pcm.gob.pe.
El texto propone que sea la Secretaría de Gobierno y Transformación Digital de la Presidencia del Consejo de Ministros (PCM), la autoridad técnico-normativa a nivel nacional encargada de dirigir, evaluar y supervisar el uso y la promoción del desarrollo de la IA. Ello incluye proponer normas legales, guías y reglamentos para el adecuado uso y desarrollo de la inteligencia artificial.
La norma propuesta incluye los principios rectores para el uso y desarrollo de la IA. Se establece que deben ser seguros para garantizar la finalidad prevista y minimizar los riesgos vinculados a dichos sistemas a través de un enfoque de riesgos. También se indica que debe incorporar medidas de transparencia algorítmica y de trazabilidad.
En cuanto a la responsabilidad generada por el uso y desarrollo de sistemas basados en IA, esta recae en la persona humana. Eso quiere decir que en el país serán los humanos quienes deberán asumir las consecuencias éticas, civiles, administrativas y penales. Además, los sistemas deberán contar con mecanismos para la rendición de cuentas y la debida supervisión humana, si así lo amerita.
El texto ofrece una clasificación de la IA que incluye riesgos inaceptables, altos, medios y bajos. Quien implemente un sistema basado en IA debe tomar las medidas de gestión adecuadas en función a su nivel de riesgo.
La norma propuesta incluye los principios rectores para el uso y desarrollo de la IA. Se establece que deben ser seguros para garantizar la finalidad prevista y minimizar los riesgos vinculados a dichos sistemas a través de un enfoque de riesgos.
Cuando el riesgo es alto se deberá implementar medidas para gestionarlo de forma adecuada. Se prohíbe el riesgo inaceptable, que es cuando, por ejemplo, se usa para modificar el comportamiento de una persona mediante técnicas subliminales.
En Europa, valga recordar, se ha establecido también un nivel variado de riesgos en su respectivo reglamento, pero existen distintos tipos de sanciones y disposiciones para aplicar si es que no se cumple con la normativa. A mayor riesgo, más exigencias y mayores sanciones.
La propuesta de la PCM incluye también la disposición de informar a los ciudadanos de forma previa y clara sobre cómo funciona el sistema que usa IA, quien es el responsable del sistema y los derechos que protegen al usuario, incluyendo un canal para quejarse si se incumple lo normado. También se debe garantizar el cumplimiento de los derechos de autor y propiedad intelectual.