El Reglamento de la Ley de Inteligencia Artificial Nº 31814 marca un hito en el Perú al establecer principios de transparencia, explicabilidad y una clasificación de riesgos inspirada en estándares internacionales. Reconoce usos prohibidos, regula estrictamente los de alto riesgo y fomenta centros nacionales de innovación, datos y cómputo. Sin embargo, carece de presupuesto específico y de una estrategia clara para formación de talento, investigación e inversión, lo que limita su impacto real. En este reportaje, América Sistemas compendia las opiniones de sus lectores y analiza los retos prácticos para convertir esta norma en motor de desarrollo.
Reglamento de la Ley de IA: buenas intenciones, retos prácticos
El Reglamento establece un marco técnico-jurídico claro: incorpora transparencia y explicabilidad, crea centros nacionales (innovación, datos y cómputo), y adopta una clasificación de riesgos (inaceptable/alto/medio/bajo). Sin embargo, deja la financiación y la formación al arbitrio de las entidades, con riesgo de elevar costos y frenar adopciones en PYMES y sectores rurales.
(americasistemas.com.pe. Lima, Perú – 17 de setiembre 2025) Casi una decena de lectores a nuestra solicitud nos hacen llegar diferentes puntos de vista acerca del reglamento recientemente publicado, a continuación, y gracias a ellos presentamos un análisis detallado y compendio de posturas que esperamos sean de utilidad:
- Qué trae el Reglamento (resumen objetivo)
El Reglamento desarrolla y operacionaliza la Ley Nº 31814: define términos técnicos (modelo fundacional, ciclo de vida, sesgo, etc.), incorpora el principio de transparencia y explicabilidad, y crea instrumentos institucionales (Centro Nacional de Innovación Digital e IA; Centro Nacional de Computación de Alto Rendimiento; Centro Nacional de Datos). Asimismo establece una clasificación por riesgo (inaceptable, alto, medio, bajo) y detalla obligaciones para sistemas de riesgo alto y los usos prohibidos.
Puntos normativos clave:
- Transparencia y exigencia de explicación en decisiones con impacto significativo (art. 19).
- Prohibición de usos de riesgo inaceptable (p. ej. técnicas subliminales, perfiles sociales punitivos) (art. 15).
- Obligaciones estrictas para riesgo alto: evaluación de riesgo, auditoría por tercero independiente, trazabilidad, registro de uso (6 meses), informes de validación, control humano intervenible.
- Instrumentos de fomento: publicación de modelos/algoritmos financiados por el Estado (art. 30), sandbox para pruebas controladas (art. 38), acceso a HPC y recursos en la nube para entidades públicas y estudiantes (arts. 13 y 29).
- Lo positivo — ¿qué aporta de valor?
- Claridad regulatoria: al definir obligaciones y plazos, reduce incertidumbre legal para usuarios públicos y privados.
- Protección de derechos: pone énfasis en dignidad humana, no discriminación, privacidad y mecanismos para canales de reclamo.
- Infraestructura y apertura: la obligación de publicar modelos/datos de proyectos estatales y la creación de centros e HPC favorecen replicabilidad y experimentación pública.
- Limitaciones y riesgos reales (aplicación práctica)
Aunque el Reglamento apunta en la dirección correcta, hay brechas entre la letra y la realidad operativa:
- No hay presupuesto central asignado. Las entidades deben incluir recursos en su Plan Operativo y presupuesto de apertura (art. 8.2.b), lo que significa dependencia de partidas internas ya tensionadas y ninguna garantía de inversión nacional específica. Esto dificulta la implementación efectiva de los centros y servicios anunciados.
- Costos y carga administrativa especialmente para PYMES/startups. Las exigencias de auditoría externa, trazabilidad, registro y supervisión humana elevan costos operativos (art. 16). En sectores con grandes volúmenes (p. ej. 10k solicitudes diarias de crédito), la revisión humana obligatoria puede ser inviable sin automatizaciones complementarias y mayor presupuesto.
- Escasez de talento. El Reglamento demanda equipos multidisciplinares, oficiales de gobierno de datos y auditores de modelos — perfiles aún limitados en Perú. Sin una estrategia de formación e incentivos robusta, la supervisión humana y la auditoría técnica será difícil de sostener.
- Tensión explicabilidad vs. rendimiento. El énfasis en “IA explicable” (art. 4.i y art. 19) es legítimo para la protección de derechos, pero técnicamente los modelos más interpretables (regresión, árboles simples) a menudo rinden menos que redes profundas o modelos de gran escala. Para aplicaciones críticas (diagnóstico médico urgente, scoring en zonas rurales), exigir explicabilidad absoluta puede ralentizar decisiones o encarecer soluciones. Esta tensión exige soluciones técnicas matizadas (contratos de explicación, auditable por proxy, uso de explicadores post-hoc).
- Riesgo de regulación prematura. Varias voces lectoras apuntan que regular fuertemente antes de consolidar capacidades (infraestructura humana, investigación y aulas fortalecidas) puede frenar la adopción y desplazar innovación hacia jurisdicciones con regulación menos gravosa.
- Lo que dijeron nuestros lectores (síntesis de posiciones)
Hicimos un compendio de los comentarios recibidos en AS y encontramos cinco temas recurrentes:
- Aprecio por la intención protectora y la alineación con estándares internacionales.
- Preocupación por la ausencia de financiamiento y plan de formación.
- Observación técnica: los LLMs no son la panacea para sectores como minería/petróleo; son una capa de razonamiento — los modelos especializados (RN, XGBoost, RL) siguen siendo clave.
- Petición de una Estrategia Nacional de IA (ENIA) que convierta reglas en políticas públicas con metas, financiamiento e indicadores.
- Voluntad de colaborar desde el sector privado y la academia en mesas de trabajo y sandboxes.
(Esta síntesis resume las contribuciones ciudadanas recibidas y su tratamiento por la redacción de AS.)
- Recomendaciones prácticas (para que el reglamento no quede en letra muerta)
- Crear un fondo público-privado para IA que cofinancie infraestructura (HPC, datos) y subvenciones a PYMES/startups que necesiten cumplir obligaciones de riesgo alto (vinculado a art. 13 y 30).
- Plan nacional de formación (rápido y escalable): becas, diplomaturas, programas técnicos focalizados en auditoría de modelos y controles humanos (aprovechar art. 32 y 33).
- Enfoque proporcional: definir requisitos diferenciados para micro/pequeñas empresas y para pruebas piloto en sandboxes (usar art. 38 para flexibilizar exigencias en entornos controlados).
- Promover estándares técnicos locales en coordinación con INACAL y la academia para que las auditorías y certificaciones sean asequibles y contextualizadas.
- Medir impacto: la Secretaría debe publicar indicadores anuales (adopción, brecha de talento, costos) y ajustar la regulación con base en evidencia (la disposición a revisar categorías de riesgo ya está contemplada; artículo 6.f).
El Reglamento es un paso indispensable: protege derechos, introduce gobernanza y abre instrumentos de apoyo. Pero su éxito dependerá de recursos, capacitación y gobernanza operacional. Si la política pública que sigue (ENIA y presupuestos vinculados) articula formación, financiamiento y entornos experimentales, el Perú podrá convertir la regulación en motor de desarrollo; de lo contrario, corre el riesgo de convertirse en un candado prematuro que frene la innovación en un país con brechas digitales aún altas.