Sobre la ley de IA
Acerca del Reglamento de IA de la UE
El Reglamento de IA de la UE (Reglamento (UE) 2024/1689) es el primer marco jurídico integral del mundo para la inteligencia artificial. Adoptado por el Parlamento Europeo y el Consejo en 2024, establece normas armonizadas para el desarrollo, la introducción en el mercado, la puesta en servicio y el uso de sistemas de IA en la Unión Europea.
Esto no es una directriz de derecho indicativo ni un conjunto de principios voluntarios. Es un reglamento vinculante con efecto directo en los 27 Estados miembros de la UE, que cuenta con mecanismos de aplicación que incluyen multas de hasta 35 millones de EUR o el 7 % del volumen de negocios anual global.
Qué es el Reglamento de IA de la UE
El Reglamento de IA de la UE es un reglamento — la forma más fuerte de legislación de la UE. A diferencia de una directiva, que debe transponerse al derecho nacional por cada Estado miembro, un reglamento se aplica directa y uniformemente en toda la UE desde el momento en que entra en vigor.
La citación formal del reglamento es Reglamento (UE) 2024/1689 del Parlamento Europeo y del Consejo de 13 de junio de 2024 por el que se establecen normas armonizadas en materia de inteligencia artificial y se modifican los Reglamentos (CE) n.o 300/2008, (UE) n.o 167/2013, (UE) n.o 168/2013, (UE) 2018/858, (UE) 2018/1139 y (UE) 2018/1725 y las Directivas 2000/14/CE, (UE) 2006/42/CE y (UE) 2011/65/UE (Reglamento de Inteligencia Artificial).
Fue publicado en el Diario Oficial de la Unión Europea el 12 de julio de 2024 y entró en vigor el 1 de agosto de 2024. Sus obligaciones se aplican de forma escalonada durante un período de tres años, con plena aplicación de la mayoría de las disposiciones para el 2 de agosto de 2027.
Historia y proceso legislativo
El Reglamento de IA tiene su origen en la estrategia más amplia de la Comisión Europea sobre IA, que comenzó a tomar forma en 2018.
Abril de 2018 — La Comisión publica su Comunicación sobre "Inteligencia Artificial para Europa", estableciendo el enfoque de la UE respecto a la IA.
Abril de 2019 — El Grupo de Expertos de Alto Nivel sobre IA publica sus Directrices Éticas para una IA Fiable.
Febrero de 2020 — La Comisión publica el Libro Blanco sobre IA, lanzando una consulta pública sobre el marco regulatorio para la IA.
21 de abril de 2021 — La Comisión adopta su propuesta legislativa para el Reglamento de IA (COM/2021/206).
Diciembre de 2022 — El Consejo de la UE adopta su enfoque general, introduciendo enmiendas significativas.
14 de junio de 2023 — El Parlamento Europeo adopta su posición negociadora.
8 de diciembre de 2023 — Tras negociaciones maratonianas de trílogo, se alcanza un acuerdo político sobre el texto final. Las negociaciones duraron más de 36 horas en la sesión final.
13 de marzo de 2024 — El Parlamento Europeo adopta formalmente el Reglamento de IA con 523 votos a favor, 46 en contra y 49 abstenciones.
21 de mayo de 2024 — El Consejo adopta formalmente el Reglamento de IA.
12 de julio de 2024 — Se publica en el Diario Oficial de la Unión Europea.
1 de agosto de 2024 — Entra en vigor.
Propósito y objetivos
El Reglamento de IA persigue varios objetivos interconectados: proteger los derechos fundamentales, garantizar la seguridad, fomentar la innovación, establecer un mercado único y generar confianza.
Ámbito de aplicación y aplicación territorial
A quién se aplica
El Reglamento de IA se aplica a los proveedores que introducen sistemas de IA en el mercado de la UE, los operadores ubicados en la UE, los proveedores y operadores de terceros países cuando los resultados se utilizan en la UE, los importadores y distribuidores, y los fabricantes de productos que introducen sistemas de IA como parte de sus productos.
El alcance extraterritorial es significativo. Una empresa con sede en Estados Unidos, China o cualquier otro lugar que introduzca un sistema de IA en el mercado de la UE o cuyo sistema produzca resultados utilizados en la UE está sujeta al reglamento.
Qué queda excluido
El Reglamento de IA no se aplica a los sistemas de IA utilizados exclusivamente para fines militares, de defensa o de seguridad nacional; a las actividades de investigación y desarrollo antes de la introducción en el mercado; a las personas que utilizan IA con fines personales no profesionales; y a los sistemas publicados bajo licencias libres y de código abierto, a menos que sean de alto riesgo o estén prohibidos.
Definiciones clave
Sistema de IA (Artículo 3(1)): Un sistema basado en máquinas diseñado para operar con distintos niveles de autonomía que puede presentar adaptabilidad tras su despliegue y que, para objetivos explícitos o implícitos, infiere, a partir de la entrada que recibe, cómo generar resultados como predicciones, contenido, recomendaciones o decisiones.
Proveedor (Artículo 3(3)): Una persona física o jurídica que desarrolla un sistema de IA o un modelo de IA de uso general y lo introduce en el mercado o lo pone en servicio bajo su propio nombre o marca.
Operador (Artículo 3(4)): Una persona física o jurídica que utiliza un sistema de IA bajo su autoridad, excepto cuando se utiliza en el curso de una actividad personal no profesional.
El enfoque basado en riesgos
Riesgo inaceptable (Prácticas prohibidas — Artículo 5)
Determinadas prácticas de IA están completamente prohibidas porque representan un riesgo inaceptable para los derechos fundamentales, incluyendo la manipulación subliminal, la explotación de vulnerabilidades, la puntuación social, la policía predictiva individual, la recopilación no selectiva de imágenes faciales, el reconocimiento de emociones en el trabajo y la educación, la categorización biométrica de atributos sensibles y la identificación biométrica remota en tiempo real para las fuerzas del orden.
Alto riesgo (Artículos 6-49)
Los sistemas de IA de alto riesgo enfrentan las obligaciones más integrales, incluyendo sistemas de gestión de riesgos, gobernanza de datos, documentación técnica, registro de actividades, transparencia, supervisión humana y evaluación de la conformidad.
Riesgo limitado (Artículo 50 — Obligaciones de transparencia)
Los chatbots deben revelar que la persona interactúa con IA, el contenido generado por IA debe etiquetarse, y los sistemas de reconocimiento de emociones deben informar a las personas.
Riesgo mínimo
Sin obligaciones obligatorias del Reglamento de IA. Se fomentan códigos de conducta voluntarios.
Comprenda su clasificación de riesgo de IA
Ctrl AI ayuda a las organizaciones a mapear sus sistemas de IA con las categorías de riesgo del Reglamento de IA de la UE — con documentación automatizada, trazas de ejecución y resultados con etiquetas de confianza que demuestran el cumplimiento.
Learn About Ctrl AIEstructura de gobernanza
La Oficina de IA
Ubicada dentro de la DG CNECT de la Comisión Europea, la Oficina de IA tiene un papel central en la aplicación de las normas para los modelos GPAI, el desarrollo de directrices, la coordinación con las autoridades nacionales y la supervisión de la implementación.
El Comité Europeo de Inteligencia Artificial
Compuesto por un representante de cada Estado miembro, asesora y asiste a la Comisión y a los Estados miembros.
Autoridades nacionales competentes
Cada Estado miembro debe designar al menos una autoridad notificadora y una autoridad de vigilancia del mercado para la vigilancia y aplicación a nivel nacional.
Relación con otras regulaciones
El Reglamento de IA interactúa con el RGPD, la legislación de seguridad de productos, la Ley de Servicios Digitales, la Ley de Mercados Digitales y la regulación sectorial, siendo complementario a todos ellos.
Contexto global
La UE es la primera en adoptar una regulación integral de IA, pero existe dentro de un panorama global más amplio que incluye los enfoques de Estados Unidos (fragmentado, sector por sector), el Reino Unido (pro-innovación, sectorial), China (regulaciones específicas para algoritmos, deepfakes y IA generativa) y Canadá (Ley de Inteligencia Artificial y Datos propuesta).
El "efecto Bruselas" — la tendencia de la regulación de la UE a establecer estándares globales — ya es visible en la gobernanza de la IA. Muchas empresas multinacionales están utilizando el Reglamento de IA de la UE como su estándar de cumplimiento de referencia a nivel mundial.
Aplicación y sanciones
El Reglamento de IA establece una estructura de sanciones escalonada:
- Hasta 35 millones de EUR o el 7 % del volumen de negocios anual global por infracciones de prácticas prohibidas (Artículo 5)
- Hasta 15 millones de EUR o el 3 % del volumen de negocios anual global por infracciones de la mayoría de las demás obligaciones
- Hasta 7,5 millones de EUR o el 1 % del volumen de negocios anual global por suministrar información incorrecta, incompleta o engañosa a las autoridades
Por qué es importante
El Reglamento de IA de la UE representa un cambio fundamental en la forma en que las sociedades gobiernan la inteligencia artificial. Para las organizaciones que desarrollan o despliegan sistemas de IA, el reglamento crea tanto obligaciones como oportunidades. El cumplimiento es obligatorio, pero la disciplina de la gestión de riesgos, la transparencia y la supervisión humana que exige el reglamento también construye mejores sistemas de IA.
Las organizaciones que se involucren seriamente con el Reglamento de IA estarán mejor posicionadas en un mundo donde la confianza en la IA se está convirtiendo en una ventaja competitiva.
Comience su camino de cumplimiento del Reglamento de IA de la UE
Ctrl AI hace que la toma de decisiones de IA sea transparente, auditable y conforme — ayudando a las organizaciones a cumplir los requisitos del Reglamento de IA de la UE con trazas de ejecución automatizadas y resultados con etiquetas de confianza.
Learn About Ctrl AIMake Your AI Auditable and Compliant
Ctrl AI provides expert-verified reasoning units with full execution traces — the infrastructure you need for EU AI Act compliance.
Explore Ctrl AI