Loading

Blog details

Home

Lista de Evaluación para una Inteligencia Artificial Fiable

A principios de este mes, el Alto Grupo de Expertos de Inteligencia Artificial (AI HLEG) presentó la versión definitiva de la Lista de Evaluación para una Inteligencia Artificial Fiable. 

Como informamos en nuestro blog, el proceso piloto de las Directrices Éticas para una Inteligencia Artificial Fiable se hizo público en la primera asamblea de la Alianza Europea de IA, la cual tuvo lugar el 26 de junio de 2019. Ahora se han publicado los resultados del mismo, cuyo objetivo es apoyar a desarrolladores y partes implicadas en la implementación de IA Fiable.  

Contexto

Tras la publicación del primer borrador en diciembre, el 8 de abril de 2019 el AI HLEG presentó sus Directrices para una IA Fiable, donde se definía cómo ésta habría de ser, a saber: ‘legítima’, ‘ética’ y ‘robusta’, además de los requisitos que debería cumplir: supervisión y agencia humanas, solidez técnica y seguridad, privacidad y gobierno del dato, transparencia, diversidad, no-discriminación y justicia, bienestar, impacto social y medioambiental y rendición de cuentas.  

Mientras que estos requisitos técnicos y principios sentaron las bases para alcanzar una IA Fiable, aún se precisaba orientación para implementar de manera efectiva y práctica tales directrices, y esta es la meta que persigue la Lista de Evaluación para una IA Fiable, que es considerada la herramienta operativa de las Directrices. 

El proceso piloto

El proceso piloto, en el cual Aphaia participó, contó con las aportaciones de más de 350 personas, empresas e instituciones.

Se recogieron opiniones y respuestas por medio de tres vías diferentes:

  • Una entrevista online completada por los participantes registrados en el proceso; 
  • El intercambio de mejores prácticas sobre cómo lograr una IA Fiable por medio de la Alianza y
  • Una serie de entrevistas detalladas y en profundidad.

¿Cómo se debería usar la Lista de Evaluación para una IA Fiable (ALTAI)?

Si estás desarrollando, implementando o usando IA, deberías asegurarte de que los sistemas cumplen con los requisitos y principios para una IA fiable antes de proceder de manera efectiva con ello. 

Meta: identificar el riesgo que para los derechos fundamentales se deriva del uso de los sistemas de IA y aplicar las medidas de mitigación necesarias para minimizar el impacto y optimizar los beneficios de utilizar IA.  

Pasos: La auto-evaluación mediante la ALTAI es el primer paso para comprobar las carencias actuales y diseñar un plan de acción. La ALTAI está pensada para un uso flexible, mediante el cual las organizaciones pueden adaptar elementos predeterminados al sistema de IA específico que estén utilizando o bien añadir elementos nuevos como consideren que encajan mejor, en función del sector en el que operan. Conforme al AI HLEG, a este fin se debería: 

  • Desarrollar una Evaluación de Impacto de Derechos Fundamentales (FRIA) antes de la auto-evaluación de cualquier sistema de IA; 
  • Comprometerse de forma activa con las preguntas que plantea la lista; 
  • Involucrar a todas las partes relevantes implicadas, tanto dentro como fuera de la organización; 
  • Buscar consejo o asesoramiento externo cuando sea necesario y 
  • Elaborar políticas y procesos de gobierno adecuados.

Los siete requisitos

1.Supervisión y acción humanas

“Los sistemas de IA deberían apoyar la agencia y toma de decisiones humanas, como dicta el principio de respeto por la autonomía humana”. En esta sección, las organizaciones deberían reflexionar sobre los efectos que los sistemas de IA pueden tener en: 

  • El comportamiento humano, en sentido amplio.
  • Percepción y expectativas humanas al confrontar sistemas de Ia que actúan como seres humanos.
  • Afección, confianza e (in)dependencia humanas. 

Las cuestiones que se derivan de esos temas ayudarán a las empresas a decidir las medidas y mecanismos de control y gobierno más propicias, así como los diferentes enfoques, tales como:

  • Human-in-the-loop (HITL) o la capacidad de intervención humana en cada ciclo de decisión del sistema. 
  • Human-on-the-loop (HOTL) o la capacidad de intervención humana durante el ciclo de diseño del Sistema y para el control de las operaciones del sistema.  
  • Human-in-command (HIC) o la capacidad de vigilar el conjunto de la actividad del Sistema de IA y decidir sobre cuándo y cómo usar el sistema de IA en cada situación particular.  

Las preguntas en esta parte se desarrollan principalmente en torno a la interacción de los sistemas de IA con los usuarios finales y su proceso de aprendizaje y entrenamiento. 

2. Solidez técnica y seguridad

“La solidez técnica require que se desarrollen los sistemas de IA con un enfoque de riesgos preventivo y que se comporten de manera segura y como se espera, de modo que se reduzca el daño no intencional e imprevisto así como que se evite cuando sea posible”. En esta sección, las organizaciones deberían reflexionar sobre los siguientes elementos: 

  • Resiliencia al ataque.
  • Seguridad.
  • Precisión.
  • Confiabilidad, planes alternativos de apoyo y reproductibilidad. 

Hay dos aspectos que son clave para obtener resultados positivos en las áreas arriba mencionadas:

  • Dependencia, que abarca la habilidad de los sistemas de IA para ofrecer servicios que puedan ser de confianza. 
  • Resiliencia, que significa la solidez de los sistemas de IA para hacer frente a los cambios, tanto en su entorno o externos cuando se da presencia de otros agentes, humanos o artificiales, que puedan interactuar de manera adversa con la IA. 

Las preguntas en esta parte se desarrollan principalmente en torno a los comportamientos indeseables e inesperados de los sistemas de IA, los mecanismos de certificación, previsión de amenazas, procedimientos de documentación y métrica de riesgos. 

3.Privacidad y gobierno del dato

“Estrechamente relacionado con el principio de prevención del daño está la privacidad, un derecho fundamental que se ve muy afectado por los sistemas de IA”. En términos de protección de datos, el principio de prevención del daño involucra lo siguiente: 

  • Gobierno del dato adecuado que cubra la calidad e integridad de los datos usados.
  • Relevancia de los datos a la luz del contexto en el que se van a desarrollar los sistemas de IA.
  • Protocolos de acceso a los datos. 
  • La capacidad de los sistemas de IA para tartar los datos de una manera que proteja la privacidad.

Las preguntas en esta parte se desarrollan principalmente en torno al tipo de datos personales empleados para entrenamiento y desarrollo, la implementación de las medidas y requisitos del RGPD y la alineación de los sistemas de IA con estándares importantes como las normas ISO. 

4.Transparencia

“Un componente crucial para alcanzar una IA de confianza es la transparencia, que abarca tres elementos: 1) trazabilidad; 2) explicabilidad; y 3) comunicación abierta sobre las limitaciones del sistema de IA”.  

  • Trazabilidad: el proceso de desarrollo de los sistemas de IA debería estar debidamente documentado. 
  • Explicabilidad: la explicabilidad se refiere a la habilidad de explicar tanto los procesos técnicos de los sistemas de IA como el razonamiento detrás de las decisiones y predicciones tomadas por el mismo, lo cual a su vez tendría que ser fácilmente comprensible por todos aquellos que se viesen afectados tanto directa como indirectamente. 
  • Comunicación: las capacidades y limitaciones del sistema de IA deberían ser comunicados a los usuarios de una manera apropiada al caso de uso y podría incluir información sobre el nivel de precisión del sistema de IA y sus limitaciones. 

Las preguntas en esta parte se desarrollan principalmente en torno a las medidas de trazabilidad, prácticas de registro, entrevistas a los usuarios, mecanismos de información y la provisión de material de entrenamiento. 

5.Diversidad, no-discriminación y justicia.

“A fin de lograr una IA fiable, se debe abogar por la inclusión y la diversidad en todo el ciclo de vida del sistema de IA”. En lo que se refiere a sistemas de IA, la discriminación puede derivarse de los siguientes aspectos, tanto en fase de entrenamiento como de implementación:

  • Inclusión de sesgos inadvertidos.
  • Imperfecciones.
  • Malos modelos de gobierno.
  • Explotación intencional de sesgos de los consumidores.
  • Competencia desleal.

Las preguntas en esta parte se desarrollan principalmente en torno a los procedimientos para evitar los sesgos, iniciativas de educación y conciencia, accesibilidad, interfaces de usuario, principios de Diseño Universal y participación de las partes implicadas.  

6.Bienestar social y medioambiental

 “Conforme a los principios de justicia y prevención del daño, la sociedad en general, otros seres vivos y el medioambiente deberían ser tomados en cuenta como partes implicadas a lo largo de todo el ciclo de vida del sistema de IA”. 

Los siguientes factores deberían regir las decisiones en este sentido:

  • Bienestar medioambiental.
  • Impacto en el trabajo y habilidades.
  • Impacto en la Sociedad en su conjunto y democracia.

Las preguntas en esta parte se desarrollan principalmente en torno a los mecanismos para evaluar el impacto social y medioambiental, las medidas para gestionar este impacto, el riesgo de descualificación de la fuerza de trabajo y la promoción de nuevas habilidades digitales. 

7.Rendición de cuentas

“El principio de rendición de cuentas precisa que se instauren mecanismos para asegurar la distribución de responsabilidades en el desarrollo, implementación y uso de los sistemas de IA”. Muy ligado a la gestión de riesgos, hay tres elementos clave a estos efectos: 

  • Medidas para identificar y mitigar riesgos.
  • Mecanismos para gestionar estos riesgos.
  • Auditorías regulares.

Las preguntas en esta parte se desarrollan principalmente en torno a los mecanismos de auditoria, los procesos de auditoria de terceros, comités de la ética de la IA y protección para for whistle-blowers, NGOs y asociaciones.

¿Necesitas asesoramiento con la Lista de Evaluación para una IA Fiable? Podemos ayudarte. Nuestros servicios integrales abarcan tanto Evaluaciones de Impacto de Protección de Datos como Evaluaciones de la Ética de la IA, junto a la implementación del RGPD y la LOPDGDD y subcontratación del Delegado de Protección de Datos

Prev post
Assessment List for Trustworthy Artificial Intelligence Overview.
July 31, 2020
Next post
BCR Changes for Brexit: EDPB releases statement guiding enterprises.
August 5, 2020

Leave a Comment