Ética e IA en 2 minutos

Esta semana hablamos sobre la ética de la IA en nuestro canal de YouTube, y lo orientamos desde la perspectiva que está tomando la UE. Como miembros de la Alianza Europea de IA, participamos de los debates en la regulación de la misma, junto al alto grupo de expertos, el AI HLEG.

El objetivo de la UE es promover una IA de confianza. ¿Qué significa esto?

Una IA de confianza tiene tres componentes, que deben estar presentes a lo largo de todo el ciclo de vida:

1) Legalidad. La IA ha de mostrar un absoluto respeto por todas las leyes aplicables, lo cual incluye el derecho primario de la UE (Tratados y Carta de Derechos Humanos), el derecho secundario de la UE (como el RGPD, la Directiva de Responsabilidad de Producto, el Reglamento de libre circulación de datos no personales, todas las Directivas anti-discriminación, de consumidores  sobre la salud y seguridad en el trabajo, etc.), los Derechos Humanos de las Naciones Unidas y las convenciones del Consejo de Europa, además de diversas leyes de los Estados Miembro.  Asimismo, la IA no debería conocer sólo lo que no se puede hacer, sino también lo que puede hacer y lo que debe hacer.

2) Ética.Se debe asegurar respeto por los principios y valores éticos.

3) Robustez. Se debe tener en cuenta que, incluso con buenas intenciones, la IA puede causar un daño inintencionado, y ese es el motivo por el cual se debe velar por la robustez tanto en el plano técnico como en el social. Los sistemas de IA deben desarrollarse de una forma segura, y se han de ofrecer garantías que prevengan efectos adversos no previstos

Además de los componentes arriba descritos, una IA de confianza debe cumplir cuatro principios básicos:

Respeto por la autonomía del ser humano. Los sistemas de IA no deben manipular, coaccionar o subordinar de manera injustificada al ser humano, sino que, al contrario, deben concebirse y utilizarse como un complemento a las habilidades de las personas que las empodere.

Prevención del daño. Además de ser técnicamente robustos, se debe asegurar que no son susceptibles de uso malicioso. Las personas más vulnerables deben recibir mayor atención y ser tomadas en especial consideración en el momento de diseño y desarrollo de la IA. Asimismo, toman particular importancia las situaciones en las que existe una asimetría de información y el daño de la IA puede ser mayor.

Justicia. Se debe garantizar una igual y justa distribución tanto de costes como de beneficios, además de evitar todo tipo de sesgo, discriminación o estigmatización.

Explicabilidad. La Explicabilidad quiere decir que los procesos deben ser transparentes, y las capacidades y objetivos de los sistemas de IA deben ser comunicados de manera abierta, al igual que las decisiones en la medida en que se pueda.

¿Qué se debería entonces tener en cuenta a la hora de crear una IA de confianza?

Todos los puntos arriba mencionados deberían implementarse, y además se tendrán que considerar algunos requisitos adicionales, como la supervisión y gestión por parte del ser humano, privacidad y gobierno del dato, respeto por la sociedad y el medio ambiente y responsabilidad.

Y vosotros, ¿qué pensáis? ¿Es suficiente con esto? ¡Compartid vuestras ideas con nosotros!

Si necesitas asesoramiento en IA para tus productos y servicios, Aphaia ofrece evaluaciones de la ética de la IA y evaluaciones de impacto.

Cristina Contero Almagro

Latest posts by Cristina Contero Almagro (see all)

Leave a Comment

(0 Comentarios)

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *