El Alto Grupo de Expertos en Inteligencia Artificial publicó el mes pasado un conjunto de orientaciones enfocadas a la implementación práctica de las Directrices Éticas para una IA fiable. En el blog de hoy hablamos sobre este documento y su impacto en el desarrollo de sistemas de IA.
El mes pasado informamos en nuestro blog de la publicación por parte del Alto Grupo de Expertos en IA de la Lista de Evaluación para una Inteligencia Artificial Fiable. Esta lista es el resultado de un proceso piloto estructurado en tres partes que contó con la contribución de más de 350 empresas y organizaciones y en el que Aphaia tuvo el placer de participar. Así, se recogieron todas las aportaciones a través de una encuesta online, una serie de entrevistas en profundidad y el intercambio de mejores prácticas para alcanzar una IA fiable. Antes de implementar un sistema de IA es necesario asegurarse de que éste cumple con los siete principios identificados como esenciales tanto en las directrices éticas para una IA fiable como en la lista de evaluación.
El objetivo de este documento es promover una IA fiable que cuente con las siguientes tres características: legítima, ética y robusta. Mientras que las orientaciones publicadas por el Alto Grupo de Expertos en IA no detallan el primero de los componentes, sí analizan más en profundidad el segundo y el tercero.
En nuestro último vlog, el primero de una serie de dos vídeos, exploramos los tres primeros de los siete requisitos para una IA Fiable: supervisión y acción humanas, solidez técnica y seguridad y privacidad y gobierno del dato.
Supervisión y acción humanas
“Los sistemas de IA deberían respaldar la supervisión y decisiones humanas, tal y como dicta el principio de autonomía humana”. Las empresas deberían estar concienciadas de los efectos que los sistemas de IA pueden tener en el comportamiento humano en sentido amplio, la percepción humana y las expectativas cuando se enfrentan a sistemas de IA que actúan, sienten y confían como los humanos.
Conforme a las directrices “los sistemas de IA no deberían de manera injustificada subordinar, obligar, engañar o manipular la condición humana. En su lugar, deberían estar diseñados para aumentar, complementar y empoderar las habilidades humanas sociales, culturales y cognitivas”. Los sistemas de IA deberían diseñarse con la figura del ser humano como centro y permitir oportunidades de elección humana.
Solidez técnica y seguridad
Conforme al principio de prevención del daño destacado en las directrices, “los sistemas de IA no deberían causar ni exacerbar el daño y tampoco afectar a los seres humanos de forma negativa de ninguna manera. Esto implica la protección de la dignidad humana y la integridad física y mental”.
Las empresas deberían reflexionar sobre la resiliencia al ataque la seguridad, precisión, confiabilidad y planes de recuperación y reproductibilidad.
Privacidad y gobierno del dato
La privacidad es un derecho fundamental que se ve afectado por los sistemas de IA. Los sistemas de IA deberán garantizar la privacidad y la protección de datos a lo largo de todo el ciclo de vida del sistema. Se recomienda implementar un proceso que involucre tanto a los altos cargos como a aquellos que se encuentran en el nivel operacional de la empresa.
En relación al principio de prevención del daño, hay algunos factores clave a tener en cuenta, a saber: gobierno del dato adecuado, relevancia de los datos empleados, protocolos de acceso y capacidad de los sistemas de IA para procesar los datos de una manera que proteja la privacidad.
Cuando se lleve a cabo la evaluación, se recomienda no sólo prestar atención a las áreas más controvertidas, sino también a aquellas que no tienen una fácil respuesta. El objetivo de esta lista es guiar a los creadores y desarrolladores de IA a alcanzar una IA fiable, y debería adaptarse a cada caso específico de manera proporcionada.
Para aprender más sobre los principios que el Alto Grupo de Expertos considera necesarios para alcanzar una IA fiable, no te pierdas la parte dos y suscríbete a nuestro canal.