AI Act
En 2024, la Unión Europea se comprometió a regular el uso de la inteligencia artificial mediante el AI Act. Esta iniciativa pionera pretende establecer un marco jurídico para el uso general de la IA.
El AI Act en pocas palabras
El AI Act, propuesto por la Comisión Europea, es una iniciativa ambiciosa. ¿Su objetivo? Crear un entorno en el que la innovación en IA pueda florecer al tiempo que se protege a los ciudadanos. Nada menos.
En otras palabras, se trata de garantizar que los sistemas de IA respeten valores fundamentales de la UE como la privacidad, la transparencia y la no discriminación.
Clasificación de riesgos y obligaciones
El AI Act clasifica los sistemas de IA en cuatro categorías de riesgo: inaceptable, alto, limitado y mínimo.
- Están prohibidos los sistemas inaceptablemente arriesgados, como los que utilizan técnicas de manipulación subliminal.
- Los sistemas de alto riesgo, como los utilizados en infraestructuras críticas o servicios públicos, están sujetos a obligaciones estrictas, que incluyen evaluaciones de conformidad y auditorías periódicas.
- Los sistemas de riesgo limitado (como los sistemas de IA para generar o manipular imágenes) deben informar a los usuarios de que están interactuando con un sistema de IA.
- Los sistemas de riesgo mínimo son similares a los utilizados para videojuegos o filtros de spam. No están sujetos a ninguna obligación específica, pero se recomienda encarecidamente a los proveedores que sigan un código de conducta definido (centrado sobre todo en la sostenibilidad medioambiental y la accesibilidad para personas con discapacidad).
Estas medidas están diseñadas no sólo para prevenir posibles abusos, sino también para reforzar la confianza pública en la IA.
¿Cuándo se aplicará el AI Act?
El proyecto legislativo, presentado originalmente en abril de 2021, ha evolucionado a través de varias fases de consulta y revisión. Estos debates aclararon los requisitos para los sistemas de IA de propósito general y definieron categorías de riesgo para las aplicaciones de IA. Todo este proceso culminó el 1 de agosto de 2024, cuando el AI Act entró en vigor en la Unión Europea.
Se aplicará gradualmente.
- Febrero de 2025: aplicación de los capítulos I (disposiciones generales) y II (prácticas prohibidas en materia de IA)
- Agosto de 2025: aplicación de los capítulos III (autoridades de notificación), V (modelos de IA de propósito general), VII (cuestiones de gobernanza) y XII (sanciones aplicables).
- Agosto de 2026: aplicación del resto del reglamento, a excepción de las obligaciones relativas a los sistemas de IA de alto riesgo.
- Agosto de 2027: aplicación de todo el Reglamento.
¿Cuáles son las consecuencias del AI Act?
Impacto en la innovación y la competitividad
¿Uno de los principales retos del AI Act? Encontrar el equilibrio entre regulación e innovación. Porque si bien la IA presenta peligros, también es un auténtico caldo de cultivo de oportunidades e innovación. Por ello, los agentes del sector se preguntan cómo podría afectar esta normativa a la competitividad de la UE en la escena mundial.
Sin embargo, si pensamos a largo plazo, un marco regulador claro podría, por el contrario, atraer inversiones y reforzar la posición de la UE como líder en IA ética. Le mantendremos informado…
Reacciones diversas
El AI Act no fue aprobado por unanimidad.
- Por un lado, los defensores de los derechos humanos y los grupos de protección de los consumidores celebran los esfuerzos de la UE por proteger a los ciudadanos de los riesgos potenciales de la IA.
- Por otra parte, algunas empresas tecnológicas manifiestan su preocupación por la complejidad y el coste de cumplir la nueva normativa.
En cualquier caso, la Comisión Europea sigue siendo optimista en cuanto a que el AI Act creará un entorno propicio para una IA responsable y centrada en el ser humano. Al establecer normas estrictas, la UE espera no sólo proteger a sus ciudadanos, sino también influir en la regulación mundial de la IA. Un gran proyecto.
Aplicación compleja
La aplicación del AI Act no estará exenta de dificultades:
- Habrá que formar y equipar a las autoridades nacionales para que controlen y hagan cumplir las nuevas normas;
- Será crucial mantener la coherencia en la aplicación de la normativa en los distintos Estados miembros de la UE;
- La cooperación internacional será esencial, ya que muchas empresas tecnológicas operan a escala mundial.
Por último, pero no por ello menos importante, el reto consiste en garantizar que la normativa siga siendo pertinente ante la rápida evolución de la tecnología. La IA es un campo en constante evolución, y las leyes deben ser lo suficientemente flexibles como para adaptarse a las innovaciones futuras, manteniendo al mismo tiempo un alto nivel de protección.
¿Y en otras partes del mundo?
Terminemos dando un paso atrás: el enfoque de la IA adoptado por la Unión Europea sigue siendo muy diferente del de otras regiones del mundo. En Estados Unidos, por ejemplo, la regulación de la IA está más fragmentada y a menudo se deja a la iniciativa de las empresas. En China, se hace hincapié en la innovación rápida, a veces en detrimento de la protección de la privacidad.
El planteamiento de la UE, basado en la protección de los derechos fundamentales, podría convertirse en un modelo para otros países que busquen un equilibrio entre innovación y ética…
Conclusión
En última instancia, el AI Act no es sólo una cuestión de cumplimiento legal: es también una oportunidad para que Europa dé forma al futuro de la tecnología de una manera que refleje sus valores y prioridades. Si está a la altura de los retos y aprovecha las oportunidades que ofrece esta normativa, la UE puede desempeñar un papel destacado en la definición de la IA del futuro.
Y si te interesa la inteligencia artificial en la ciberseguridad, echa un vistazo a estos dos artículos:
- Una definición completa de la norma ISO/IEC 42001
- Una lista de mensajes ChatGPT que, como experto ciber, puedes utilizar para simplificar tu vida diaria… ¡con seguridad, por supuesto!