Libro Blanco de la UE sobre Inteligencia Artificial

Libro Blanco de UE sobre IA

El Libro Blanco de la UE sobre Inteligencia Artificial contiene una serie de propuestas para desarrollar una estrategia europea en esta tecnología.

Como recogimos en nuestro blog, el Libro Blanco de la UE filtrado y obtenido por Euractiv propone varias opciones para una regulación de la IA en el futuro. En el artículo de hoy analizamos algunos de los elementos más relevantes de las mismas.

La estrategia europea se centra en el desarrollo de la IA en los diferentes Estados Miembros con respeto a los valores y principios europeos. Una de las mayores metas es alcanzar una cooperación con China y EEUU, como dos de los jugadores más importantes en IA, pero siempre con protección de los intereses europeos, incluidos los estándares comunitarios y la creación de un campo de juego equilibrado.

El Libro Blanco de la UE señala tres pilares en la estrategia europea en IA:

  • Apoyo a la capacidad tecnológica e industrial europea.

  • Preparación ante los cambios socioeconómicos que presenta la IA.

  • Existencia de un marco ético y legal apropiado.

¿Cómo se define la IA?

La definición que ofrece el Libro Blanco de IA se centra en la naturaleza y funciones de la misma. Así, se concibe como “software (bien integrado en hardware, bien de manera autónoma) que desarrolla las siguientes funciones:

  • Simulación de los procesos de inteligencia del ser humano.

  • Desarrollo de algunas tareas específicas complejas.

  • Recogida, tratamiento y análisis lógico o razonado”.

Posición de Europa en IA

¿Cuál es el papel de Europa en lo que concierne a la IA? A pesar de las estrictas normas en privacidad y protección de datos, Europa también cuenta con algunas fortalezas que pueden ayudar a tomar ventaja en la “carrera por IA” frente a otros mercados como China o EEUU:

  • Centros de investigación de excelencia con una gran cantidad de publicaciones y artículos científicos relacionados con IA.

  • Posición dominante a nivel mundial en robótica y mercados B2B.

  • Grandes cantidades de datos públicos y de industria.

  • Programas de financiación europeos.

En la parte negativa, hay una necesidad urgente de incrementar los niveles de inversión en IA y maximizarlos a través de cooperación entre los Estados Miembro, Noruega y Suiza. Europa tiene también una posición débil en aplicaciones y plataformas online de consumidores, lo cual resulta en una desventaja en lo que al acceso a los datos se refiere.

El Libro Blanco de la UE recoge algunas propuestas para reforzar la situación Europea en IA:

  • Establecimiento de infraestructuras computacionales y de datos líderes a nivel mundial en IA, con utilización de centros de alto rendimiento como base.

  • Crear conocimiento y alcanzar la excelencia a través de la comunidad científica y los centros de investigación europeos, con impulso de la colaboración entre ellos y el establecimiento de una red de contactos.

  • Apoyo a la investigación e innovación con la creación de un “Grupo de líderes” compuesto por representantes de alto nivel de los principales agentes interesados.

  • Impulsar la adopción de IA a través de Digital Innovation Hubs y el Programa Digital Europe.

  • Asegurar acceso a financiación para los innovadores en IA.

¿Cuáles son los prerrequisitos para alcanzar las metas europeas en IA?

Acceso a los datos

Proporcionar acceso a los datos a empresas europeas y al sector público es esencial para el desarrollo de IA. Una de las medidas clave que valora la Comisión a estos efectos es el desarrollo de espacios de datos comunes que combinen infraestructura técnica con mecanismos de gobierno de datos, organizados por sector o área específica.

Marco regulatorio

Las medidas arriba mencionadas pueden incorporarse en el marco legal actual, que incluye el RGPD, el Reglamento de Libre Circulación de los Datos y la Directiva de Datos abiertos. Esta última puede de hecho jugar un papel esencial porque, conforme a su última revisión, la Comisión pretender adoptar a principios de 2021 una norma en torno a los conjuntos de datos públicos de alto valor, que estarían disponibles de manera gratuita y en un formato legible por máquinas.

A pesar de que la IA ya está sujeta a una amplia normativa europea incluidos derechos fundamentales, ley de consumidores y seguridad y responsabilidad de los productos, también presenta grandes desafíos derivados de la dependencia de los datos y la conectividad con ecosistemas tecnológicos. Existe por tanto una necesidad de desarrollar un marco normativo que cubra todos los riesgos específicos generados por la IA. A fin de lograr este objetivo, el Libro Blanco de la UE destaca la importancia de desarrollar las bases legales para asegurar continuidad y evitar incertidumbre.

Algunos de los principales riesgos que enfrenta la IA en su implementación en la sociedad son los siguientes:

  • Derechos fundamentales, incluidos sesgos y discriminación.

  • Privacidad y protección de datos.

  • Seguridad y responsabilidad.

Es importante destacar que estos riesgos pueden resultar de defectos en el diseño de la IA, problemas con la disponibilidad y calidad de los datos o alteraciones que provengan del propio sistema de machine learning.

Se detallan a continuación las debilidades identificadas por la Comisión en relación al marco legislativo europeo:

  • Limitaciones en el alcance de los derechos fundamentales.

  • Limitaciones de alcance en relación a los productos: por ejemplo, los requisitos de seguridad impuestos a los productos no se aplican a los servicios de IA.

  • Incertidumbre en cuanto al reparto de responsabilidades entre los diferentes operadores en la cadena de suministro.

  • Naturaleza cambiante de los productos.

  • Nuevos riesgos.

  • Dificultades de ejecución dada la opacidad de la IA.

¿Cómo se deberían atribuir los roles y responsabilidades vinculados con la IA?

La Comisión considera que, considerando la cantidad de agentes involucrados en el ciclo de vida de los sistemas de IA, el principio que debería gobernar la atribución de responsabilidades en el futuro marco regulatorio es el hecho de que la responsabilidad reside en el actor, que es el mejor para abordarlo. Así por tanto, se espera que el futuro marco regulatorio recoja una serie de obligaciones tanto para desarrolladores como para usuarios de IA, junto a otros grupos como proveedores de servicios. Esta aproximación aseguraría que los riesgos son afrontados de manera íntegra y viable.

¿Cuáles son los requisitos legales que deberían imponerse a los agentes involucrados?

Se deriva del Libro Blanco de la UE que la Comisión es propicia al establecimiento de requisitos legales de carácter ex ante, más que aquellos otros de naturaleza ex post, aunque estos también se mencionan.

  • Requisitos de responsabilidad, transparencia e información para divulgar los parámetros del sistema de IA.

  • Principios de diseño generales.

  • Requisitos en relación a la calidad y diversidad de los datos.

  • Obligación a los desarrolladores de efectuar una evaluación de riesgos a fin de minimizarlos.

  • Requisitos de supervisión humana.

  • Requisitos adicionales de seguridad.

Entre los requisitos ex post se encuentran la responsabilidad y los posibles remedios por daño causado por un servicio relacionado con la IA.

¿Cuáles son las alternativas de regulación que está valorando la Comisión?

  1. Adhesión voluntaria.

Esta alternativa se desarrollaría en un marco voluntario para desarrolladores y usuarios de la IA. Los requisitos serían vinculantes sólo después de que los sujetos hayan optado por ellos.

  1. Requisitos sectoriales para la administración pública y el reconocimiento facial.

Esta opción se centraría en el uso que de la IA hacen las autoridades públicas. Con este objetivo, la Comisión propone un modelo basado en la Directiva canadiense sobre decisiones auotmatizadas, a fin de complementar las provisiones del RGPD.

La Comisión propone también un veto temporal (“por ejemplo, de entre 3 y 5 años”) en el uso de tecnologías de reconocimiento facial en espacios públicos, a los efectos de identificar y desarrollar una metodología para evaluar el impacto de estos sistemas y alcanzar medidas de mitigación del riesgo.

  1. Requisitos obligatorios para aplicaciones de alto riesgo.

Esta opción impondría requisitos legales vinculantes para desarrolladores y usuarios de IA, desarrollado sobre la legislación europea existente. Dada la necesidad de asegurar proporcionalidad, parece que estos requisitos se aplicarían sólo a aplicaciones de alto riesgo, lo que a su vez conduce a la necesidad de definir dicho concepto. Así, la Comisión ofrece la siguiente definición “aplicaciones de IA que pueden producir efectos legales para la persona física o jurídica o suponer riesgo de lesión, muerte o daño material grave para el sujeto o la entidad legal” y señala la necesidad de considerarla en conjunto con el sector donde el sistema se va a desarrollar y usar.

  1. Seguridad y responsabilidad.

Modificaciones puntuales a la legislación de responsabilidad y seguridad se considerarían para abordar riesgos específicos de IA.

  1. Gobierno.

Un sistema efectivo de ejecución se considera un componente esencial en el futuro marco regulatorio, que requerirá un sistema público de supervisión muy sólido.

¿Empleas sistemas de IA? Podrías verte afectado por el futuro marco regulatorio en IA de la UE. Aphaia ofrece servicios de consultoría para el RGPD y la LOPDGDD, y también evaluaciones de impacto, evaluaciones de la ética de la IA y subcontratación del Delegado de Protección de Datos. Infórmate aquí.

Leave a Comment

(0 Comentarios)

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *