DMA IA Administración Pública
La implementación de la inteligencia artificial en una entidad moderna constituye un vector de transformación que ya no puede aislarse de la arquitectura regulatoria y de inversión definida por la Unión Europea. El Reglamento de IA (AI Act), en vigor desde el 1 de agosto de 2024 y de aplicación gradual hasta 2027, configura un mercado único para sistemas de IA seguros y respetuosos con los derechos fundamentales mediante un enfoque basado en el riesgo; a su alrededor gravita el nuevo AI Continent Action Plan, presentado por la Comisión el 9 de abril de 2025, que articula la ambición de convertir a Europa en un “continente de la IA” mediante cinco palancas estratégicas: infraestructuras de cómputo, disponibilidad de datos, adopción sectorial, talento y cumplimiento normativo. Esta doble base —normativa y programática— obliga a que cualquier estrategia corporativa de IA se diseñe con criterios de diligencia debida, de conformidad técnica y de alineación con los instrumentos financieros europeos, garantizando así que la disrupción tecnológica genere ventajas competitivas y legitimidad social a partes iguales.
Desde esta perspectiva continental, una estrategia de implantación rigurosa dentro de la organización debe armonizar seis dimensiones críticas con el ciclo de madurez digital, de modo que cada fase evolucione en consonancia con las exigencias regulatorias y las directrices del Plan Coordinado, en ese sentido las 6 dimensiones identificadas son las siguientes:
- Liderazgo y estrategia corporativa: el AI Act obliga a la alta dirección a identificar los sistemas de IA clasificados como “alto riesgo”, asignar responsables y adoptar políticas internas que demuestren diligencia debida y coherencia con la estrategia definida.
- Datos y tecnología: establece requisitos estrictos de calidad, trazabilidad y documentación de los datos, además de evaluar la robustez y ciberseguridad de los modelos; todo sistema de alto riesgo debe superar una evaluación de conformidad antes de su puesta en el mercado.
- Talento y cultura organizativa: exige capacitación específica para los equipos que diseñen, desplieguen o supervisen IA, con el fin de que comprendan sesgos, limitaciones y responsabilidades legales, alineándose con la dimensión de competencias digitales promovida en el Plan Coordinado sobre IA.
- Gobernanza y ética: impone obligaciones de transparencia, explicabilidad y supervisión humana proporcionada, además de un sistema de gestión de riesgos que incluya auditorías internas y, cuando proceda, informes públicos sobre impacto en derechos fundamentales.
- Operaciones y procesos: demanda la implantación de mecanismos de vigilancia, registro de incidentes y, si es necesario, la capacidad de suspensión o retirada inmediata de sistemas cuando se identifiquen riesgos graves para la salud, la seguridad o los derechos.
- Ecosistema y alianzas: fomenta la participación en sandboxes regulatorios y consorcios paneuropeos, promovidos por la Comisión, para ensayar innovaciones con supervisión temprana y compartir buenas prácticas de cumplimiento, reforzando al mismo tiempo la competitividad y la interoperabilidad en el mercado único digital.
Con este estudio se pretende establecer un primer análisis del grado de implementación de la IA con algunas recomendaciones que permitan orientar el desarrollo de la entidad.