Propuesta de Reglamento de la UE sobre IA

La propuesta de Reglamento de la UE sobre IA se centra principalmente en el nivel de riesgo asociado al sistema de IA. 

 

En abril de este año, la UE se convirtió en la primera institución internacional en crear un marco legal para regular los sistemas de Inteligencia Artificial (IA). La propuesta sienta las bases y mecanismos para identificar los riesgos asociados a la IA y ofrecer soluciones factibles a los mismos. Con esta iniciativa, la UE da un giro a su tradicional enfoque sobre IA y robótica, que hasta ahora había estado marcado por el “soft-law”. Así, la propuesta de Reglamento contiene normas para el desarrollo y uso de sistemas de IA en la UE, prohibiciones, requisitos y obligaciones específicos para operadores de sistemas de IA de “alto riesgo”, normas sobre transparencia y normas sobre control y vigilancia del mercado.

 

Los sistemas de IA se evalúan y clasifican en cuatro grupos conforme al nivel de riesgo percibido. 

 

El Reglamento distingue los sistemas de IA según el riesgo percibido, y los clasifica en cuatro categorías: riesgo inaceptable (sistemas completamente prohibidos), alto riesgo (sistemas sujetos a unas determinadas normas), riesgo limitado y riesgo mínimo (sujetos a códigos de conducta, fuera del Reglamento). Mientras que otras áreas quedan más claras, este no es el caso con los sistemas de IA de alto riesgo, que requerirán un control estricto, evaluaciones de riesgo detalladas y supervisión humana. Ejemplos de sistemas de IA de alto riesgo son aquellos empleados en infraestructuras críticas como transporte, cumplimiento de la ley, administración de justicia y control de fronteras, entre otros. 

 

La propuesta de Reglamento introduce normas y responsabilidades para los proveedores de sistemas de IA, incluso después de que éste haya sido vendido. 

 

La propuesta de Reglamento va más allá de la mera definición de los sistemas que precisan regulación y establece responsabilidad civil en ciertos casos, como aquella que puede recaer sobre los proveedores que ponen el sistema en el mercado. Estos deberán asegurar que se observan y respetan las prácticas de gobierno y gestión del dato y que se cumple con las normas, incluso después de la venta del sistema de IA, en relación a lo cual el proveedor tendrá que implementar un control postventa que le permita confirmar que se aplica la normativa y tomar medidas en caso de no ser así.

 

La propuesta también hace obligatorio para los proveedores ofrecer a los usuarios la posibilidad de supervisar los sistemas de IA de alto riesgo a fin de prevenir cualquier riesgo potencial. 

 

En caso de incumplimiento se prevén multas que pueden alcanzar el 6% del beneficio anual de la empresa. A pesar de que aún hay algún tiempo hasta que el Reglamento comenzase a aplicarse, pues ocurriría 24 meses después de la adopción de la propuesta, es recomendable que las empresas y operadores que pueden verse sujetos al mismo comiencen a revisar sus sistemas de IA y las prácticas asociadas a los mismos. 

 

Mientras que el Reglamento se aplicaría en el contexto de la Unión Europea, la UNESCO está también trabajando en una Recomendación sobre la Ética de la IA, lo cual tomaría un alcance global. 

¿Quieres explorar estas novedades en detalle? No te pierdas nuestro último vlog:

 

https://youtu.be/XqaMkkcP3i8

 

Para aprender más sobre IA y Regulación, visita nuestro Canal de Youtube. 

 

¿Utilizas IA en tu empresa y necesitas ayuda para cumplir con la normativa aplicable? Podemos ayudarte. Realizamos Evaluaciones de Impacto de Protección de DatosEvaluaciones de la Ética de la IA, implementación del RGPD, la LOPDGDD y la LSSI y ofrecemos subcontratación del Delegado de Protección de Datos, entre otros servicios. Podemos ayudarte. Infórmate aquí.

Recomendación de la UNESCO sobre la ética de la IA

Los Estados Miembro han alcanzado un acuerdo sobre la Recomendación de la UNESCO sobre la ética de la IA. 

 

La Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (UNESCO) han alcanzado un acuerdo en relación a la Recomendación sobre la ética de la Inteligencia Artificial (IA). La primera versión del documento fue enviada a los representantes de los Estados Mimbro en septiembre de 2020. Después, representantes del Comité especial intergubernamental de técnicos y expertos legales se reunieron en abril y junio de este año para examinarla. La Recomendación sería así la primera en establecer un marco global para la ética de la IA. El borrador final será presentado a los Estados Miembro para su adopción en la 41º sesión de la Conferencia General de la UNESCO en noviembre.

 

La Recomendación aborda las cuestiones éticas de la IA de la forma en que indica la UNESCO. Se ha tomado un enfoque holístico, comprensivo, multicultural y evolutivo y el objetivo es afrontar la responsabilidad derivada de las tecnologías de IA, tanto sus aspectos conocidos como los desconocidos. El documento define la IA como “tecnologías de procesamiento de información que integran modelos y algoritmos que generan capacidad de aprendizaje y desarrollo de tareas cognitivas que conducen a resultados como predicción y toma automatizada de decisiones en entornos materiales y virtuales”. La Recomendación se centra en las implicaciones éticas de la IA desde una perspectiva amplia vinculada con las funciones de la UNESCO, que incluye educación, ciencia, cultura, comunicación e información.  

 

La Recomendación de la UNESCO sobre ética de la IA pretende establecer un marco para guiar las diferentes etapas del ciclo de vida de los sistemas de IA a fin de promover los derechos humanos.  

 

El objetivo de la Recomendación de la UNESCO sobre la ética de la IA es influir en las acciones de los individuos, grupos, comunidades, compañías privadas e instituciones para asegurar que la ética reside en el centro de los sistemas de IA, y busca impulsar el diálogo y el consenso a través de generar comunicación en las materias relacionadas con la ética de la IA a un nivel multidisciplinar y con participación de varias partes interesadas. Este marco universal de valores, principios y acciones se orienta a proteger, promover y respetar los derechos y libertades humanos, igualdad, dignidad, diversidad y preservación del medioambiente, en cada etapa del ciclo de vida del sistema de IA. La Recomendación incluye un conjunto de valores y principios que deberán respetar todos los actores en el campo de la IA durante todo el proceso de desarrollo y utilización de la misma. Los valores juegan un papel esencial como ideales motivadores en el establecimiento de políticas, normas legales y acciones y se basan en el reconocimiento de que la confiabilidad e integridad de la IA es determinante para asegurar que esta tecnología actuará por el bien de la humanidad. 

 

La Recomendación incluye una compilación de valores considerados aptos para cumplir con el estándar ético de IA definido por la UNESCO. 

 

La Recomendación de la UNESCO sobre la ética de la IA se erige sobre los valores de respeto, protección y promoción de los derechos humanos y libertades fundamentales en torno a la dignidad inherente de cada ser humano, independientemente de la raza, el color, descendencia, edad, género, idioma, condición socioeconómica, discapacidad o cualquier otro factor. También defiende que debería apoyarse el desarrollo de los ecosistemas y el medio ambiente, para promoverlos y protegerlos a lo largo de todo el ciclo de vida de los sistemas de IA. La Recomendación pretende asegurar que la diversidad y la inclusión convivan en sociedades pacíficas, justas e interconectadas.  

 

El documento también recoge varios principios que deberían regir la tecnología que incorpore IA, en todas las etapas de su ciclo de vida. 

 

De manera similar a las Directrices Éticas para una IA Fiable del Alto Grupo de Expertos en IA (AI HLEG), la UNESCO ha destacado los principios clave sobre los que debería operar una IA fiable, entre los que cabe destacar la proporcionalidad, la seguridad, la sostenibilidad y el derecho a la privacidad y protección de datos, los cuales se explican en detalle. La Recomendación afirma claramente que deberá ser siempre posible atribuir responsabilidad ética y legal a cualquier etapa del ciclo de vida del sistema de IA. Los principios de transparencia, explicabilidad, responsabilidad, rendición de cuentas y supervisión y determinación humanas se encuentran en la base de la Recomendación, con una mención específica a la participación de los actores interesados y gobernanza y colaboración adaptativas, para asegurar que los Estado cumplen con la normativa internacional mientras que regulan los datos que atraviesan su territorio.

 

La Recomendación de la UNESCO sobre la ética de la IA determina diferentes áreas con el objetivo de operacionalizar los valores y principios que subraya. 

 

La Recomendación anima a los Estado Miembro a establecer medidas efectivas para asegurar que otros actores interesados incorporan los valores y principios de una tecnología IA ética. La UNESCO reconoce que los diversos Estados Miembro se encontrarán en varias fases de preparación para implementar la Recomendación, de forma que se desarrollará un informe de evaluación para determinar la situación de cada Estado Miembro. La Recomendación sugiere que todos los Estados Miembro deberían introducir marcos de evaluación de impacto para identificar y medir beneficios, preocupaciones y riesgos en torno a los sistemas de IA. Además, los Estado Miembro deberían asegurar que los procedimientos de gobernanza de IA son inclusivos, transparentes, multidisciplinarios, multilaterales y multiparte. La gobernanza debería garantizar que cualquier daño generado a través de sistemas de IA es investigado y rectificado, mediante la promulgación de mecanismos sólidos de aplicación y medidas coercitivas. Las políticas de datos y la cooperación internacional son también extremadamente importantes en este marco global. La Recomendación incluye una serie de sugerencias sobre cómo los Estados Miembro deberían evaluar el impacto directo e indirecto de los sistemas de IA, en cada punto de su ciclo de vida y sobre el medio ambiente y los ecosistemas. También defiende que las políticas que rodean las tecnologías digitales y la IA deberían contribuir a alcanzar de manera plena la igualdad de género, la preservación de la cultura, la educación y la investigación, así como el acceso a información y conocimiento. Asimismo, la Recomendación realiza una mención específica sobre cómo los Estados Miembro deberían velar por la preservación de la salud y el bienestar a través del uso y prácticas éticas de IA.  

Cristina Contero Almagro, Socia de Aphaia, señala que “La Propuesta de Reglamento para la regulación de IA publicada por la Comisión Europea en abril de 2021 y esta Recomendación sobre la ética de la IA presentada por la UNESCO muestra el interés de las instituciones en regular la IA, tanto a nivel europeo como a nivel global. Las empresas que utilicen IA tienen ahora su oportunidad para adaptar sus sistemas y practices a fin de estar preparadas antes de que elm arco normative se haga obligatorio”.  

 

¿Utilizas IA y necesitas ayuda para cumplir con la normativa? Podemos ayudarte. Nuestros servicios integrales abarcan tanto Evaluaciones de Impacto de Protección de Datos como Evaluaciones de la Ética de la IA, junto con la implementación del RGPD y la LOPDGDD y subcontratación del Delegado de Protección de DatosInfórmate aquí.