Loading

Blog details

Home

Informe de la FRA en IA y derechos fundamentales

La Agencia de los Derechos Fundamentales de la Unión Europea (FRA) ha publicado un informe sobre Inteligencia Artificial y sus efectos en los derechos fundamentales 

 

El incremento en el uso de la Inteligencia Artificial (IA) genera reacciones diversas en la sociedad. A pesar de la variedad de opiniones, la realidad es que se trata de una tecnología cada vez más integrada en nuestras vidas. Mientras que su valía y potencial ya han sido probados, hay también una preocupación creciente sobre su impacto en los derechos fundamentales. Algunos algoritmos han demostrado que presentan sesgos en cuanto a género, raza e incluso posición socio económico, lo cual ha levantado alarmas en el campo de los derechos humanos. El debate se centra en cómo los derechos fundamentales pueden defenderse frente al aumento en el uso de los sistemas de IA, y si dichos sistemas pueden adaptarse a tal finalidad. En el informe que ha publicado recientemente la Agencia de los Derechos Fundamentales de la Unión Europea (FRA), se tratan muchos de estos problemas a la vez que se ofrece una visión general sobre el actual uso de la tecnología de IA en la UE.  

 

El reporte de la FRA en IA y derechos fundamentales es el resultado de un gran trabajo para determinar dos factores clave 

 

La FRA ha realizado una investigación que incluye 91 entrevistas personales en cinco Estados Miembro: Estonia, Finlandia, Francia, los Países Bajos y España. La Agencia identificó una falta de evidencia sobre cómo algunas tecnologías de IA podrían afectar a los derechos fundamentales, tanto de manera positiva como negativa. También se llevaron a cabo entrevistas con diez expertos que monitorizan u observan potenciales brechas de los derechos fundamentales en relación al uso de IA, incluido la sociedad civil, abogados e instituciones de supervisión. Podrían precisarse ejemplos concretos sobre casos de uso que el informe define de manera amplia como “la aplicación específica de una tecnología para un objetivo concreto usado por un actor específico” a fin de determinar dos elementos: 

  1. si, y hasta qué punto, la aplicación de la tecnología interfiere con varios derechos fundamentales – y 
  2. si dicha interferencia puede ser justificada, en relación a los principios de necesidad y proporcionalidad. 

Se han estudiado en profundidad cuatro amplios casos de uso a fin de arrojar luz al análisis sobre derechos fundamentales 

 

El informe se centra en cuatro amplios casos de uso: beneficios sociales, políticas predictivas, servicios de salud y publicidad dirigida. El informe contiene un estudio en profundidad para cada uno de ellos, abordando diferentes áreas de aplicación a lo largo de la administración pública y empresas privadas. El informe también ofrece información sobre el uso actual de la IA, además de información básica sobre la competencia europea en cada una de dichas áreas. Cada caso de uso proporciona una Buena perspectiva sobre qué tipo de IA y tecnologías relacionadas se están empleando actualmente, lo cual ayuda a arrojar luz al análisis sobre derechos fundamentales. 

 

El enfoque centrado en los derechos fundamentales adoptado por la FRA ayuda a las partes implicadas a valorar la compatibilidad con los derechos fundamentales que tienen los sistemas de IA en varios contextos. 

 

El informe de la FRA y la investigación que lo respalda toma un enfoque de IA centrado en los derechos fundamentales. Esto queda reforzado por la regulación legal, donde la responsabilidad de respetar, proteger y satisfacer los derechos fundamentales recae en el Estado y no depende de una acción voluntaria de las organizaciones y empresas, como sí ocurre con el enfoque ético que se tomaba anteriormente.  Este análisis sobre los retos que se presentan en torno a los derechos fundamentales ayuda a la UE y a los Estados Miembro, así como a otras partes implicadas, a evaluar la compatibilidad que los sistemas de IA tienen con los derechos fundamentales. 

 

El marco de derechos fundamentales trazado en el informe ofrece una base estandardizada para el diseño, desarrollo y elaboración de herramientas de IA, incluidos algunos elementos de referencia. Esto contribuye a determinar si un uso específico de IA es o no conforme a los derechos fundamentales. Es necesario sin embargo mencionar que hay algunas interferencias con los derechos fundamentales que sí están justificadas, y también se tratan en el informe. 

 

El informe ofrece un análisis de impacto en profundidad sobre el actual uso de IA en derechos fundamentales 

 

El informe de la FRA ofrece un visión en detalle sobre el impacto del actual uso de IA en los derechos fundamentales, comenzando por una valoración general de los riesgos percibidos por los interesados. A continuación analiza su concienciación sobre las implicaciones de los derechos fundamentales en el uso de IA, y toma en consideración opiniones, prácticas sobre los problemas identificados durante las entrevistas. Entre los derechos humanos analizados se incluye la dignidad humana, desafíos específicos en cuanto a privacidad y protección de datos, igualdad, no discriminación acceso a la justicia y protección del consumidor, así como el derecho a la seguridad social, asistencia social y el derecho a una buena administración. El informe ofrece ejemplos sobre usos específicos que muestran pensamientos y experiencias de los entrevistados, y a su vez aporta una reflexión sobre la legislación actual y las estipulaciones relevantes de la Carta de Derechos Fundamentales, para cada caso de uso.  

 

La FRA ofrece varias recomendaciones sobro cómo evaluar el impacto de los derechos fundamentales que general el uso de IA y tecnologías relacionadas 

 

Finalmente, el informe ofrece una serie de recomendaciones sobre cómo lidiar con el impacto que el uso de IA y tecnologías relacionadas genera en los derechos fundamentales, así como varias orientaciones para confirmar el cumplimiento. Se sugiere la realización de las Evaluaciones de Impacto de Protección de Datos que requiere el RGPD, pero también se aportan múltiples ejemplos sobre recomendaciones no vinculantes. Uno de los ejemplos es la herramienta de acceso libre para las agencias gubernamentales, denominado “the Ethics Toolkit”. Esta herramienta se basa en un enfoque de gestión de riesgos que aboga por decisiones automatizadas justas y una minimización del daño intencional ocasionado a los sujetos, en vinculación con la justicia criminal, educación avanzada, redes sociales y otras áreas. Otra de las herramientas es la “comprobación rápida” propuesta por el Instituto Danés de Derechos Humanos, que consiste en un programa interactivo que permite a las empresas evaluar su complimiento con los derechos humanos a través de la modificación de la base de datos para adaptarse al tipo de empresa y área de operaciones.  

 

Prácticamente todos los sistemas tratados en las entrevistas requerirían algún tipo de prueba, incluidos elementos de evaluación de impacto. Sin embargo, el informe subraya la importancia de centrarse no sólo en el impacto en protección de datos cuando se realicen dichas evaluaciones, sino también en el impacto sobre los derechos fundamentales. 

 

¿Utilizas IA en tu empresa y necesitas asesoramiento para cumplir con los derechos fundamentales? Podemos ayudarte. Aphaia ofrece servicios de consultoría para el RGPD y la LOPDGDD, y también evaluaciones de impactoevaluaciones de impacto de transferencias, evaluaciones de la ética de la IA subcontratación del Delegado de Protección de DatosInfórmate aquí.

Prev post
La ICO insta a las empresas británicas a cumplir con la ley de protección de datos antes de que finalice el período de transición del Brexit.
diciembre 23, 2020
Next post
Acuerdo entre Reino Unido y la UE: se prolonga el plazo de validez de la libre circulación de datos personales.
enero 8, 2021

Leave a Comment