El Parlamento Europeo ha aprobado la Ley de Inteligencia Artificial de la UE (Ley de IA de la UE) para garantizar la seguridad de los derechos de los ciudadanos de la UE.
El miércoles 14 de marzo, el Parlamento aprobó formalmente la Ley de Inteligencia Artificial, una legislación diseñada para salvaguardar la seguridad pública y los derechos fundamentales, al mismo tiempo que fomenta la innovación. La Ley fue finalizada en negociaciones con los Estados miembro en diciembre de 2023, donde recibió un gran apoyo de los eurodiputados, con 523 votos a favor, 46 en contra y 49 abstenciones. Esta legislación tiene como objetivo proteger los derechos fundamentales, la democracia, el Estado de derecho y la sostenibilidad ambiental del posible daño de las tecnologías de IA de alto riesgo. Además, busca catalizar la innovación y posicionar a Europa como pionera mundial en inteligencia artificial.
La Ley de IA de la UE impone estrictas regulaciones sobre las tecnologías de IA consideradas perjudiciales para los derechos de los ciudadanos, prohibiendo varias aplicaciones específicas.
La Ley de IA de la UE introduce regulaciones estrictas frente a ciertas aplicaciones de IA consideradas una amenaza para los derechos de los ciudadanos. También se prohíben varias tecnologías en su totalidad, según el nivel de riesgo que presentan para los derechos y libertades individuales. Entre las tecnologías prohibidas se encuentran los sistemas de categorización biométrica que identifican características sensibles, el raspado indiscriminado de imágenes faciales para crear bases de datos de reconocimiento facial, el reconocimiento de emociones en lugares de trabajo y escuelas, la puntuación social y la vigilancia policial basada únicamente en el perfilado. También se prohíben estrictamente las IA que manipulan comportamientos humanos o explotan vulnerabilidades.
La identificación biométrica en tiempo real por parte de las fuerzas y cuerpos de seguridad solo está permitida en casos específicos con una supervisión estricta y aprobación judicial.
Aunque el uso de sistemas de identificación biométrica en tiempo real por parte de las fuerzas y cuerpos de seguridad generalmente está prohibido, bajo la Ley de IA de la UE existen excepciones para situaciones específicas y muy definidas, donde se mantienen salvaguardias estrictas. Por ejemplo, dichos sistemas pueden ser utilizados en situaciones críticas y con ciertas restricciones. Se requerirá autorización judicial o administrativa previa en casos en los que las fuerzas y cuerpos de seguridad puedan necesitar localizar personas desaparecidas o prevenir actividades terroristas. El uso posterior de estos sistemas para investigar delitos también precisará aprobación judicial.
La ley exige a los desarrolladores de IA de alto riesgo minimizar riesgos, mantener transparencia y garantizar supervisión.
La Ley de IA de la UE especifica deberes claros para los desarrolladores de sistemas de IA de alto riesgo, reconociendo su potencial impacto significativo para la salud, la seguridad, los derechos fundamentales y el medio ambiente. Las aplicaciones de alto riesgo abarcan diversos sectores, incluidos infraestructuras críticas, educación, aplicación de la ley y procesos democráticos. Estas aplicaciones deberán, según la Ley de IA, mitigar riesgos, mantener transparencia y garantizar supervisión humana, otorgando a los ciudadanos el derecho a impugnar y solicitar explicaciones sobre las decisiones de la IA que les afecten.
La legislación exige transparencia, evaluación de riesgos y divulgación para los sistemas de IA.
Los sistemas de IA de propósito general deben adherirse a pautas específicas de transparencia, incluido el cumplimiento de los estándares de copyright de la UE y la provisión de resúmenes detallados de la base de datos empleada para entrenamiento. Para mitigar riesgos sistémicos, los modelos de IA avanzados serán sometidos a evaluaciones exhaustivas e informes de incidentes. Además, la legislación exige una divulgación clara de contenido artificial o manipulado, como los «deepfakes». Para fomentar la innovación, la Ley de IA fomenta la implementación de espacios de pruebas regulatorias y entornos de pruebas del mundo real, beneficiando especialmente a las PyMEs y startups, para facilitar el desarrollo de tecnologías de IA innovadoras.
La Ley de IA está a la espera de aprobación final y entrará en vigor 20 días después de su publicación, con implementación escalonada durante 24 a 36 meses.
La regulación está a la espera de una revisión final y se espera que sea aprobada oficialmente antes del final del período legislativo actual a través del procedimiento de corrección. Además, se requiere la aprobación formal del Consejo. Tras su publicación en el Diario Oficial, la ley entrará en vigor veinte días después y será completamente ejecutable 24 meses después de que entre en vigor la legislación, con algunas excepciones: las prohibiciones de ciertas prácticas serán aplicables seis meses después; los códigos de conducta entrarán en vigor nueve meses después; las regulaciones de IA de propósito general, incluida la gobernanza, comenzarán doce meses después; y las disposiciones para sistemas de alto riesgo serán aplicables 36 meses después de que entre en vigor la legislación.
En Aphaia nos comprometemos a guiarte en todo el proceso para reforzar tus prácticas y cumplimiento, y te proporcionamos la tranquilidad que necesitas. Da el primer paso hoy hacia una IA confiable. Contacta con nosotros para descubrir más.