Loading

Blog details

Home

Novedades en la regulación de la ética de la IA (Parte II)

En la primera parte de nuestro vlog sobre novedades en la regulación de la ética de la IA, hablamos sobre algunos de los requisitos necesarios para alcanzar una IA fiable. Estos elementos tienen que ser evaluados de manera constante durante todo el ciclo de vida del producto. 

 

En la publicación de hoy revisamos el segundo conjunto de requisitos que el Alto Grupo de Expertos (AI HLEG) considera esencial para una auto-evaluación de la ética de la IA. El principio de transparencia, el de diversidad, no discriminación y justicia, el de bienestar social y medioambiental y el de rendición de cuentas son clave en el proceso.  

 

Transparencia.

 

Una IA de confianza debería cubrir tres elementos a este respecto: trazabilidad, explicabilidad y comunicación abierta sobre los datos, el sistema y los modelos de negocio en relación a la IA, incluidos la recogida de datos, la categorización de los mismos y los algoritmos empleados. Todo ello debería estar documentado de la forma más detallada posible para permitir la trazabilidad y la transparencia, lo cual resulta extremedamente útil en caso de una decisión de IA tome una decisión errónea, y a la vez puede ayudar a prevenir errores futuros. 

 

Tanto el proceso técnico como las decisiones del sistema de IA se deben poder explicar. Las decisiones del sistema deben de ser comprensibles para el ser humano, quién tiene que ser capaz de rastrearlas. Cuando los actos de un sistema de IA tienen un impacto significante en la vida de las personas, se debe ofrecer una explicación adecuada y oportuna del sistema de toma de decisiones. Dicha explicación deberá estar adaptada al nivel cognitivo del receptor, ya sea regulador, investigador o sujeto. 

 

Las personas tienen el derecho de estar informadas de que están interactuando con un sistema de IA, y estos nunca deberían presentarse a sí mismos como humanos. Asimismo, se les debería comunicar cuál es el nivel de precisión de la tecnología. Para asegurar el respeto a los derechos fundamentales los usuarios también deberían contar con la opción de decidir en contra de la interacción con el sistema de IA a favor de interacción humana. 

 

Diversidad, no discriminación y justicia.

 

Las empresas deberían centrarse en desarrollar estrategias y procedimientos para evitar los sesgos, iniciativas de conciencia y educación, accesibilidad, interfaces de usuario principios de Diseño Universal y contribución adecuada de las partes implicadas. Los sesgos históricos, la información parcial y los modelos ineficientes de gobernanza pueden incluirse de forma inadvertida en los conjuntos de datos empleados por los sistemas de IA. Esto se aplica tanto a los datos empleados para entrenamiento como aquellos operativos, de lo cual se pueden derivar otros daños como prejuicio y marginación. Todos los sesgos de discriminación identificados deberán eliminarse en la fase de recolección de datos. Los sistemas deberían centrarse en el usuario de forma que permita a la gente, independientemente de la edad, género, habilidades o características, usar los productos y servicios que incorporan IA. La accesibilidad para personas con capacidades diversas es especialmente importante. Se recomienda consultar a las partes afectadas por el sistema, tanto de manera directa como indirecta, a fin de desarrollar una IA fiable. 

 

Bienestar social y medioambiental.

 

Los sistemas de IA deberían ser sostenibles y comprometidos con el medio ambiente, lo que incluye tener en cuenta el bienestar de las partes implicadas y la sociedad en su conjunto, como otros seres vivos y el entorno, a lo largo de todo el ciclo de vida del sistema. Los procesos de creación, desarrollo y uso de la IA deberían tenerse en cuenta a estos efectos. 

 

En todas las áreas de nuestra vida, un uso y una exposición generalizada a los sistemas de IA podría alterar nuestra concepción social y las relaciones. Los efectos deberían vigilarse con cuidado y detenimiento a fin de reducir los resultados negativos en el bienestar físico y mental de las personas. Este impacto debería considerarse también desde una perspectiva social, y alcanzar a instituciones, a la democracia y a la sociedad en su conjunto. 

 

 Rendición de cuentas. 

 

Se tiene que poder auditar los sistemas de IA. Los datos, los algoritmos y los procesos de diseño se tienen que prestar a evaluación. Los modelos de negocio y los aspectos relacionados con la propiedad intelectual no tienen que hacerse públicos, pero sí se tienen que permitir auditorías internas y externas. La disponibilidad de los informes de estas evaluaciones puede determinar si el sistema de IA es fiable. Se tiene que poder auditor de manera independiente estos sistemas en aquellos casos en que los derechos fundamentales se vean afectados. Cuando se de un impacto negativo por el uso de la tecnología, debería haber mecanismos accesibles para redirigir el sistema con especial atención a personas o grupos vulnerables.  

 

Exploramos estos temas en nuestro canal de YouTube:  

 

Para aprender más sobre la ética de la IA, suscríbete a nuestro canal.

¿Necesitas asesoramiento con la Lista de Evaluación para una IA Fiable? Podemos ayudarte. Nuestros servicios integrales abarcan tanto Evaluaciones de Impacto de Protección de Datos como Evaluaciones de la Ética de la IA, junto a la implementación del RGPD y la LOPDGDD y subcontratación del Delegado de Protección de Datos.

Prev post
La policía de Lincolnshire prueba unas nuevas cámaras de videovigilancia que pueden incluso detectar el estado de ánimo.
agosto 28, 2020
Next post
Orientaciones del Supervisor Europeo de Protección de Datos en relación a los controles de temperatura con motivo del COVID-19
septiembre 9, 2020

Leave a Comment