Recomendación de la UNESCO sobre la ética de la IA

Los Estados Miembro han alcanzado un acuerdo sobre la Recomendación de la UNESCO sobre la ética de la IA. 

 

La Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (UNESCO) han alcanzado un acuerdo en relación a la Recomendación sobre la ética de la Inteligencia Artificial (IA). La primera versión del documento fue enviada a los representantes de los Estados Mimbro en septiembre de 2020. Después, representantes del Comité especial intergubernamental de técnicos y expertos legales se reunieron en abril y junio de este año para examinarla. La Recomendación sería así la primera en establecer un marco global para la ética de la IA. El borrador final será presentado a los Estados Miembro para su adopción en la 41º sesión de la Conferencia General de la UNESCO en noviembre.

 

La Recomendación aborda las cuestiones éticas de la IA de la forma en que indica la UNESCO. Se ha tomado un enfoque holístico, comprensivo, multicultural y evolutivo y el objetivo es afrontar la responsabilidad derivada de las tecnologías de IA, tanto sus aspectos conocidos como los desconocidos. El documento define la IA como “tecnologías de procesamiento de información que integran modelos y algoritmos que generan capacidad de aprendizaje y desarrollo de tareas cognitivas que conducen a resultados como predicción y toma automatizada de decisiones en entornos materiales y virtuales”. La Recomendación se centra en las implicaciones éticas de la IA desde una perspectiva amplia vinculada con las funciones de la UNESCO, que incluye educación, ciencia, cultura, comunicación e información.  

 

La Recomendación de la UNESCO sobre ética de la IA pretende establecer un marco para guiar las diferentes etapas del ciclo de vida de los sistemas de IA a fin de promover los derechos humanos.  

 

El objetivo de la Recomendación de la UNESCO sobre la ética de la IA es influir en las acciones de los individuos, grupos, comunidades, compañías privadas e instituciones para asegurar que la ética reside en el centro de los sistemas de IA, y busca impulsar el diálogo y el consenso a través de generar comunicación en las materias relacionadas con la ética de la IA a un nivel multidisciplinar y con participación de varias partes interesadas. Este marco universal de valores, principios y acciones se orienta a proteger, promover y respetar los derechos y libertades humanos, igualdad, dignidad, diversidad y preservación del medioambiente, en cada etapa del ciclo de vida del sistema de IA. La Recomendación incluye un conjunto de valores y principios que deberán respetar todos los actores en el campo de la IA durante todo el proceso de desarrollo y utilización de la misma. Los valores juegan un papel esencial como ideales motivadores en el establecimiento de políticas, normas legales y acciones y se basan en el reconocimiento de que la confiabilidad e integridad de la IA es determinante para asegurar que esta tecnología actuará por el bien de la humanidad. 

 

La Recomendación incluye una compilación de valores considerados aptos para cumplir con el estándar ético de IA definido por la UNESCO. 

 

La Recomendación de la UNESCO sobre la ética de la IA se erige sobre los valores de respeto, protección y promoción de los derechos humanos y libertades fundamentales en torno a la dignidad inherente de cada ser humano, independientemente de la raza, el color, descendencia, edad, género, idioma, condición socioeconómica, discapacidad o cualquier otro factor. También defiende que debería apoyarse el desarrollo de los ecosistemas y el medio ambiente, para promoverlos y protegerlos a lo largo de todo el ciclo de vida de los sistemas de IA. La Recomendación pretende asegurar que la diversidad y la inclusión convivan en sociedades pacíficas, justas e interconectadas.  

 

El documento también recoge varios principios que deberían regir la tecnología que incorpore IA, en todas las etapas de su ciclo de vida. 

 

De manera similar a las Directrices Éticas para una IA Fiable del Alto Grupo de Expertos en IA (AI HLEG), la UNESCO ha destacado los principios clave sobre los que debería operar una IA fiable, entre los que cabe destacar la proporcionalidad, la seguridad, la sostenibilidad y el derecho a la privacidad y protección de datos, los cuales se explican en detalle. La Recomendación afirma claramente que deberá ser siempre posible atribuir responsabilidad ética y legal a cualquier etapa del ciclo de vida del sistema de IA. Los principios de transparencia, explicabilidad, responsabilidad, rendición de cuentas y supervisión y determinación humanas se encuentran en la base de la Recomendación, con una mención específica a la participación de los actores interesados y gobernanza y colaboración adaptativas, para asegurar que los Estado cumplen con la normativa internacional mientras que regulan los datos que atraviesan su territorio.

 

La Recomendación de la UNESCO sobre la ética de la IA determina diferentes áreas con el objetivo de operacionalizar los valores y principios que subraya. 

 

La Recomendación anima a los Estado Miembro a establecer medidas efectivas para asegurar que otros actores interesados incorporan los valores y principios de una tecnología IA ética. La UNESCO reconoce que los diversos Estados Miembro se encontrarán en varias fases de preparación para implementar la Recomendación, de forma que se desarrollará un informe de evaluación para determinar la situación de cada Estado Miembro. La Recomendación sugiere que todos los Estados Miembro deberían introducir marcos de evaluación de impacto para identificar y medir beneficios, preocupaciones y riesgos en torno a los sistemas de IA. Además, los Estado Miembro deberían asegurar que los procedimientos de gobernanza de IA son inclusivos, transparentes, multidisciplinarios, multilaterales y multiparte. La gobernanza debería garantizar que cualquier daño generado a través de sistemas de IA es investigado y rectificado, mediante la promulgación de mecanismos sólidos de aplicación y medidas coercitivas. Las políticas de datos y la cooperación internacional son también extremadamente importantes en este marco global. La Recomendación incluye una serie de sugerencias sobre cómo los Estados Miembro deberían evaluar el impacto directo e indirecto de los sistemas de IA, en cada punto de su ciclo de vida y sobre el medio ambiente y los ecosistemas. También defiende que las políticas que rodean las tecnologías digitales y la IA deberían contribuir a alcanzar de manera plena la igualdad de género, la preservación de la cultura, la educación y la investigación, así como el acceso a información y conocimiento. Asimismo, la Recomendación realiza una mención específica sobre cómo los Estados Miembro deberían velar por la preservación de la salud y el bienestar a través del uso y prácticas éticas de IA.  

Cristina Contero Almagro, Socia de Aphaia, señala que “La Propuesta de Reglamento para la regulación de IA publicada por la Comisión Europea en abril de 2021 y esta Recomendación sobre la ética de la IA presentada por la UNESCO muestra el interés de las instituciones en regular la IA, tanto a nivel europeo como a nivel global. Las empresas que utilicen IA tienen ahora su oportunidad para adaptar sus sistemas y practices a fin de estar preparadas antes de que elm arco normative se haga obligatorio”.  

 

¿Utilizas IA y necesitas ayuda para cumplir con la normativa? Podemos ayudarte. Nuestros servicios integrales abarcan tanto Evaluaciones de Impacto de Protección de Datos como Evaluaciones de la Ética de la IA, junto con la implementación del RGPD y la LOPDGDD y subcontratación del Delegado de Protección de DatosInfórmate aquí.

CEPD y el SEPD lanzan una opinión

El CEPD y el SEPD lanzan una opinión conjunta que plantea la prohibición del reconocimiento facial

El CEPD y el SEPD han realizado una petición conjunta para la prohibición del reconocimiento facial automatizado en espacios públicos. 

 

El CEPD y el SEPD proponen una prohibición del uso de IA para identificación biométrica en espacios públicos, lo que incluiría reconocimiento facial, huellas dactilares, ADN, reconocimiento de voz y otros indicadores biométricos y de comportamiento. Esta petición llega después de que la Comisión Europea haya elaborado, a principios de este año, normas armonizadas sobre Inteligencia Artificial. Mientras que el CEPD y el SEPD acogen la introducción de normas que regulan el uso de sistemas de IA en la UE por instituciones, organismos o agencias, ambos han expresado su preocupación en torno a la exclusión en la propuesta de cooperación internacional para la toma de acciones legales. Asimismo, el CEPD y el SEPD destacan que es necesario aclarar que la actual normativa de protección de datos de la UE se aplica a cualquier tratamiento de datos personales bajo el ámbito de la propuesta de regulación de los sistemas de IA.  

El CEPD y el SEPD solicitan una prohibición general del uso de IA en espacios públicos, especialmente en aquellos casos que puedan resultar en discriminación.  

 

En la opinión conjunta que el CEPD y el SEPD han publicado recientemente, ambos reconocen que la identificación biométrica en espacios públicos presenta grandes riesgos, especialmente en el caso de aquellos sistemas que emplean datos biométricos para clasificar a los sujetos conforme a información relativa a etnia, género, orientación política o sexual u otros campos sobre los cuales se prohíbe la discriminación. De acuerdo al Artículo 21 de la Carta de Derechos Fundamentales de la UE “Se prohíbe toda discriminación, y en particular la ejercida por razón de sexo, raza, color, orígenes étnicos o sociales, características genéticas, lengua, religión o convicciones, opiniones políticas o de cualquier otro tipo, pertenencia a una minoría nacional, patrimonio, nacimiento, discapacidad, edad u orientación sexual”. El CEPD y el SEPD también solicitan que se prohíba el uso de IA con la finalidad de inferir el estado emocional de las personas, excepto en escenarios específicos, como por ejemplo en casos donde esto sea necesario en el campo de la salud. Sin embargo, ambas instituciones mantienen que cualquier uso de este tipo de IA con el objetivo de clasificación o puntuación social debería quedar estrictamente prohibido. Dr. Bostjan Makarovic, Socio Gerente de Aphaia, recuerda que “Debería tenerse en cuenta que un sistema general de reconocimiento facial en espacios públicos dificulta que se pueda informar a los interesados sobre dicha práctica, lo cual también hace imposible oponerse al tratamiento, incluida la elaboración de perfiles”. 

 

El CEPD y el SEPD consideran que se precisa mayor claridad sobre el rol del SEPD como autoridad de control competente.  

 

Las organizaciones valoran de manera positiva que la Comisión Europea designe al SEPD como la autoridad de control y organismo supervisor para las instituciones, agencias y cuerpos dentro de la Unión Europea. Sin embargo, consideran que se requiere mayor transparencia sobre las tareas específicas asignadas al SEPD en dichas funciones. El CEPD y el SEPD reconocen que las autoridades de control nacionales ya están aplicando el RGPD y la Directiva 2016/680 en el contexto de IA que implique el tratamiento de datos personales, pero sugieren un enfoque regulatorio más armonizado, que incluya a las autoridades de control como las autoridades de supervisión nacionales designadas y una interpretación consistente de las provisiones de tratamiento de datos a lo largo de la UE. Por otro lado, su comunicado también demanda una mayor autonomía para el Comité Europeo de Inteligencia Artificial a fin de evitar conflicto y crear una atmosfera apropiada para una institución europea de IA libre de influencia política. 

 

Visita nuestro vlog para más información sobre reconocimiento facial en espacios públicos.

¿La IA forma parte de tus productos o servicios y necesitas ayuda para cumplir con la normativa? Nuestros servicios integrales abarcan tanto Evaluaciones de Impacto de Protección de Datos como Evaluaciones de la Ética de la IA, junto con la implementación del RGPD y la LOPDGDD y subcontratación del Delegado de Protección de DatosInfórmate aquí.

el sector Fintech

La ética de la IA en el sector Fintech

Conforme el mundo del Fintech evoluciona, la necesidad de contar con un marco regulatorio y ético que lo gobierne toma especial importancia. 

El término “Tecnología Financiera” o “Fintech” se refiere a la nueva tecnología que busca mejorar y automatizar los servicios financieros. Esta tecnología ayuda con la gestión de los aspectos financieros de un negocio o las finanzas personales a través de la integración de sistemas IA. En términos generales y como ejemplo, estamos hablando de la banca online, las aplicaciones de pago, las criptomonedas y las plataformas de crowdfunding, entre otros, a través de los cuales los consumidores están siendo testigos de la aplicación práctica del Fintech y el valor que puede aportar a sus vidas. Sin embargo, al igual que ocurre con cualquier aplicación disruptiva y la IA, deberían existir ciertas medidas que velen por la integración segura de esta tecnología en nuestro día a día, de manera que se genere confianza por parte de la sociedad.   

Legislación y directrices en torno al Fintech y la ética de la IA.

Alguna normativa, como la Directiva de Servicios de Pago (PSD2), que regula a nivel europeo los pagos electrónicos, ya alcanza también el sector Fintech. Esta Directiva armoniza dos servicios cuyo uso se ha extendido en los últimos años: por un lado, los servicios de iniciación de pagos (PIS) y, por otro, los servicios de información de cuenta (AIS). Los proveedores PIS facilitan el uso de la banca online para hacer pagos electrónicos, mientras que los proveedores AIS permiten la recogida y almacenamiento de información de las diferentes cuentas bancarias del consumidor en un solo lugar. Con la creciente popularidad de esta tecnología y otras formas de Fintech, y tomando en consideración de que la experiencia aporta una mayor perspectiva sobre el impacto que esto puede tener en la Sociedad, se espera que se desarrolle nueva normativa en el futuro. 

Los datos financieros son datos sensibles y de gran valor, y por ello se requiere especial protección sobre los mismos. La legislación y las directrices que se encuentran actualmente disponibles tienen el objetivo de ayudar con el cumplimiento de los principios que deberían primar, tales como la solidez técnica y la seguridad, la privacidad y el gobierno del dato, la transparencia y la diversidad, la no discriminación y la justicia. Todos ellos son necesarios para que el uso del Fintech sea seguro y beneficioso para todas las partes implicadas. 

Solidez técnica y seguridad.

La seguridad de los datos personales y financieros son uno de los principales factores a considerar cuando se toman decisiones sobre qué herramientas emplear para gestionar las finanzas. Una brecha de seguridad que afecte a la información financiera podría tener graves efectos en los interesados debido a la naturaleza sensible de los datos. En consecuencia, las instituciones financieras y las compañías Fintech priorizan el desarrollo y la implementación de medidas que aseguren una transacción segura a través de la tecnología, tales como, el cifrado, el control de acceso, tests de penetración, tokenización, la autenticación de doble factor, procesos de aprobación multietapas y políticas de backup, las cuales refuerzan la seguridad en el usuario y los protegen de ataques malware, brechas de seguridad y robos de identidad, entre otros factores de riesgo. 

Privacidad y gobierno del dato.

El artículo 22 de RGPD prohíbe que un interesado quede sujeto a una decisión basada únicamente en el tratamiento automatizado, salvo en determinadas circunstancias. La toma automatizada de decisiones en la industria Fintech puede producir efectos jurídicos o de consecuencias similares en los individuos, de manera que tendrían que estar sujetas a requisitos adicionales. Asimismo, una Evaluación de Impacto de Protección de Datos puede ser necesaria a fin de determinar los riesgos que se pueden derivar para los sujetos y la mejor manera de mitigarlos. Además, cabe recordar que cuando se trate de categorías especiales de datos,  las decisiones automatizadas sólo podrán tener lugar si se cuenta con el consentimiento explícito del interesado o si es necesario por razones de interés público esencial. Una automatización robótica de procesos puede traer grandes beneficios para las empresas, pero se debe hacer en cumplimiento con el RGPD para asegurar que ninguna toma automatizada de decisiones resulta en prácticas peligrosas para los derechos y libertades de los sujetos. 

Diversidad, no discriminación y justicia.

Son varios los estudios que hasta ahora se han realizado para explorar los niveles de equidad de la tecnología Fintech, y la posible existencia de discriminación en la concesión de créditos y otros aspectos de la industria. Los algoritmos pueden bien perpeturar los sesgos humanos o desarrollar los suyos propios. Algunos sesgos comunes en el sector financiero surgen alrededor del género, el origen étnico o racial y la edad. La tecnología IA, y especialmente en el sector Fintech, donde los sesgos pueden afectar a circunstancias como el acceso individual a un préstamo y las oportunidades que ello ofrece, deben prevenir la discriminación y proteger la diversidad. Elementos como emplear datos de entrenamiento de calidad, seleccionar el modelo de aprendizaje adecuado y trabajar con un equipo multidisciplinar pueden ser útiles para reducir el sesgo.

Transparencia. 

Mientras que el uso de IA ha generado una transformación positiva en la industria financiera, la cuestión alrededor de cómo se aplica la ética de la IA es inevitable. El principio de transparencia ofrece una oportunidad de introspección en relación a aspectos éticos y regulatorios, a fin de darles una solución.  Los algoritmos empleados en el sector Fintech deberían ser transparentes y explicables. La autoridad de control de Reino Unido, ICO, y el Instituto Alan Turing han desarrollado sus directrices “Explicando decisiones tomadas con IA” para ayudar a las empresas con este cometido, donde sugieren elaborar una “matriz de transparencia” para mapear las diferentes categorías de información frente a las partes relevantes en cada caso.  IA fiable es IA que se adoptará y aceptará con más facilidad por parte de los sujetos. La transparencia en los modelos y procesos Fintech y en otras tecnologías de IA permite dar una respuesta a los sesgos y otros dilemas que surgen con la implementación y uso de la misma. 

No te pierdas nuestro vlog sobre la ética de la IA en el sector Fintech:

https://www.youtube.com/watch?v=C3gsqKcjufs

Puedes aprender más sobre ética y regulación de la IA en nuestro Canal de Youtube

¿Tienes dudas sobre la regulación del sector Fintech? Podemos ayudarte. Nuestros servicios integrales abarcan tanto Evaluaciones de Impacto de Protección de Datos como Evaluaciones de la Ética de la IA, junto con la implementación del RGPD y la LOPDGDD y subcontratación del Delegado de Protección de DatosInfórmate aquí.

Nuevo Reglamento en el campo de la IA

Nuevo Reglamento en el campo de la IA: un documento filtrado revela intenciones de establecer normas para IA de alto riesgo

El texto de lo que sería el nuevo Reglamento de IA revelado en el documento recientemente filtrado incluye varias provisiones específicas para IA de alto riesgo.  

 

La Comisión Europea ha propuesto un Reglamento del Parlamento Europeo y del Consejo con el objetivo de gobernar el uso y venta de IA de alto riesgo dentro de la Unión Europea. En el documento recientemente filtrado, las organizaciones afirman que: “La Inteligencia Artificial no debería ser el fin en sí mismo, sino una herramienta que ayude a las personas a fin de mejorar el bienestar del ser humano”. Con ello en mente, la Comisión Europea se ha propuesto definir y aclarar en mayor medida qué constituye IA de alto riesgo, y establece una serie de normas para asegurar que la IA es segura y sirve efectivamente en el mayor beneficio de las personas. «Se trata de un paso adelante en la dirección correcta, aportando mayores garantías éticas conforme nuestras vidas están cada vez más dominadas por decisiones tomadas por máquinas” afirma el Dr Bostjan Makarovic, Socio Gerente de Aphaia. 

 

El documento destaca un conjunto de normas armonizadas en relación a la comercialización, puesta en servicio y uso de los sistemas de IA en la Unión. También armoniza normas de transparencia para los sistemas de IA destinados a interactuar con las personas, igual que par aquellos empleados para generar o manipular contenidos de imágenes, audios o vídeos. El marco regulatorio establecido en este documento se concibe sin perjuicio de las provisiones contenidas en la normativa que actualmente es aplicable a la IA en la Unión, que entra en el ámbito de este Reglamento. 

 

El nuevo Reglamento se aplicaría a proveedores y usuarios de sistemas de IA en la UE o en terceros países en la medida en que afecten a personas en la UE.

 

Este Reglamento se aplicaría a proveedores de sistemas de IA que los comercialicen o los pongan en servicio en la Unión Europea ya estén establecidos en la UE o en un tercer país. Además, el Reglamento también se aplicaría a usuarios de sistemas de IA en la UE, y a proveedores y usuarios de sistemas de IA que se encuentren en terceros países en la medida en que estos sistemas afecten a personas dentro de la UE. 

 

El artículo 3 del documento filtrado define un sistema de IA como un “software que se desarrolla mediante uno o más de los enfoques y técnicas listados en el Anexo I y pueden, para un conjunto de objetivos definidos por el ser humano, generar resultados como contenido, predicciones, recomendaciones o decisiones que influyan entornos reales o virtuales”. Esto puede ser un componente de un producto o un producto en sí mismo, y el resultado puede servir de manera parcial o total para automatizar ciertas actividades. El Anexo I recoge varios enfoques y técnicas al respecto de inteligencia artificial, incluidos métodos de machine learning, aprendizaje supervisado y por refuerzo, lógica y conocimiento y estadística. 

 

El documento filtrado destaca varias prohibiciones que buscan proteger los derechos fundamentales de las personas físicas. 

 

El documento recoge en el artículo 4 las prácticas de IA que quedarían prohibidas: una lista de usos de la IA que contravendrían los derechos fundamentales protegidos bajo el derecho y los valores de la UE. El Título II del Artículo 4 prohíbe el uso de sistemas de IA que manipulan el comportamiento, las opiniones o las decisions humanas a través de arquitecturas de elección o cualquier otro element de la interfaz de usuario que lleva a las personas a tomar decisiones, formarse opiniones o comportarse en detrimento de ellas mismas. Además, este Reglamento prohíbe el uso de la IA de una forma en la que se explote información o predicciones sobre las personas a fin de atacar sus vulnerabilidades. Asimismo, el Reglamento prohibiría la vigilancia indiscriminada sobre las personas físicas de una manera generalizada y sin diferenciación. El artículo 4(2) sin embargo indica que estas prohibiciones no se aplicarían cuando estuviesen autorizadas por ley o fuesen desempeñadas por cuenta de autoridades públicas para salvaguardar la seguridad pública, sujeto a la aplicación de garantías apropiadas para la defensa de los derechos y libertades de terceros, en cumplimiento con las leyes de la UE. 

 

Cristina Contero Almagro, Socia de Aphaia, destaca que “Debería tenerse en cuenta que este Reglamento menciona “la monitorización y seguimiento de las personas físicas en entornos digitales o físicos, así como la agrupación agregada y el análisis de datos automáticos de varias fuentes” como elementos que podrían incluir los métodos de vigilancia, lo que implica que estas provisiones podrían potencialmente aplicarse a cualquier plataforma online que realice agrupación y análisis automáticos de datos. 

 

Teniendo en cuenta que el Reglamento toma un enfoque basado en el riesgo y que se conecta en algunas áreas con el RGPD, esto sólo confirma, una vez más, la importancia de que las empresas tengan sus sistemas y procesos en cumplimiento con el marco de protección de datos. Toman especial importancia las Evaluaciones de Impacto de Protección de Datos, sobre las que se construirían las Evaluaciones de Conformidad”. 

 

El nuevo Reglamento define de manera específica qué constituyen sistemas de IA de alto riesgo a fin de concretar de manera exacta qué sistemas quedarán sujetos a esta Regulación. 

 

En relación a los sistemas de IA de alto riesgo, el documento cuenta con una sección específica (Anexo II) dedicada a definir con precisión y con ejemplos determinados lo que se considerarían “sistemas de inteligencia artificial de alto riesgo”. Cualquier cosa que caiga bajo dicho alcance queda sujeta a las normas específicas para asegurar el mejor interés de las personas. Se requeriría cumplimiento con estos requisitos antes de que los sistemas se pusiesen a disposición en el mercado. El Reglamento cubre el uso de conjuntos de datos para el entrenamiento de estos sistemas, y también reglas en torno a la documentación, registro de información, transparencia, robustez, precisión, seguridad y supervisión humana. El documento filtrado incluye numerosas obligaciones para los proveedores y usuarios de estos sistemas, así como para representantes autorizados, importadores y distribuidores. 

 

El Reglamento establece las medidas previstas para apoyar la innovación en IA y ayudar a las PyMEs a asegurar cumplimiento con la normativa. 

 

Este documento también abarca algunas medidas de apoyo de la innovación en IA, lo que incluye esquemas de sandboxes que podrían ser establecidos por las autoridades nacionales competentes en cualquiera de los Estados Miembro. Para reducir la carga regulatoria en las pequeñas y medianas empresas, se implementarán medidas adicionales, como el acceso prioritario a estos entornos sandbox y a centros digitales e instalaciones de experimentación y pruebas. Los centros digitales están destinados a ofrecer la formación necesaria para los proveedores de IA en cuanto a los requisitos regulatorios, y también a facilitar apoyo técnico y científico e instalaciones de pruebas.  

 

El nuevo Reglamento de IA incluye planes para la creación de un Comité Europeo de Inteligencia Artificial.  

 

El documento incluye planes para crear un Comité Europeo de inteligencia Artificial que se encargaría de supervisar la aplicación consistente de la normativa por parte de los Estados Miembro. Esta institución emitiría dictámenes, opiniones o documentos de orientación interpretativa que aclararían la aplicación del Reglamento, recogerían y compartirían mejores prácticas entre los Estados Miembro, ayudaría al desarrollo de estándares de IA y monitorizaría de forma constante los avances en el mercado y su impacto en los derechos fundamentales. El Comité Europeo de Inteligencia Artificial también sería responsable de asegurar consistencia y coordinación en el funcionamiento de los entornos sandbox de IA mencionados anteriormente. El Comité emitiría dictámenes antes de que la Comisión adopte un acto delegado y se coordinaría, al desempeñar estas tareas, con los órganos y estructuras relevantes a nivel europeo, incluido el CEPD. 

 

¿La IA está presente en tus productos o servicios y necesitas asesoramiento para cumplir con la normativa? Nuestros servicios integrales abarcan tanto Evaluaciones de Impacto de Protección de Datos como Evaluaciones de la Ética de la IA, junto con la implementación del RGPD y la LOPDGDD y subcontratación del Delegado de Protección de DatosInfórmate aquí.