Loading

Blog details

Home

Consecuencias Del RGPD Para La Inteligencia Artificial

Protección de datos en algoritmos

El desarrollo tecnológico está permitiendo la automatización de todos los procesos, como ya hizo Henry Ford en 1914; la diferencia es que ahora en lugar de coches tenemos decisiones sobre la privacidad. Desde la entrada en vigor del RGPD se ha consolidado un debate en torno al bloqueo que las restricciones legales pueden suponer para el estudio de datos y, en consecuencia, la viabilidad de cualquier proyecto basado en Big Data o machine learning.

Lanzamos esta entrada con motivo de la publicación del informe “Inteligencia Artificial y Privacidad” de la Agencia noruega de Protección de Datos -Datatilsynet-, a fin de esclarecer los principales aspectos que pueden afectar al tratamiento de grandes volúmenes de información y la toma automatizada de decisiones.

La inteligencia artificial y los elementos sobre los que se sostiene tales como algoritmos y machine/deep learning son objeto de regulación directa por el RGPD por tres motivos principales: el gran flujo de datos que implica, la necesidad de tener un conjunto de datos de entrenamiento como punto de partida y la capacidad de decisión automática sin intervención humana. Estos tres conceptos se traducen en cuatro principios básicos sostenidos en el RGPD: riesgo de discriminación, limitación a la finalidad, minimización de datos y transparencia. A continuación se desarrollan de manera breve los conceptos de tal modo que el primer párrafo de cada uno de ellos plantea la problemática y, el segundo, como tratarla conforme al RGPD.

La premisa para poder entrar a valorar los siguientes matices es contar con una base legal para poder aplicar decisiones automatizadas (contrato o consentimiento explícito de los sujetos), sin lo cual el tratamiento mediante inteligencia artificial o machine learning por parte de una empresa inserto en su modelo de negocio no estaría permitido desde la perspectiva de protección de datos.

Riesgo de discriminación: Un resultado discriminatorio tras un tratamiento automatizado de datos puede derivar tanto del modo en que los datos de entrenamiento hayan sido clasificados (aprendizaje supervisado) como de las propias características del conjunto de datos en sí mismo (aprendizaje no supervisado). En el primero de los escenarios, el resultado que el algoritmo busca es equivalente al que se le ha introducido, con lo que, si en el origen y entrenamiento existía sesgo, se tenderá a reproducirlo con la consecuente intensificación del mismo. Para la segunda de las situaciones puede ocurrir que en un dataset con dos grupos uno de ellos tenga menor representación que el otro, lo que conducirá a la discriminación de los individuos que pertenezcan a éste si el algoritmo ha sido programado como adverso al riesgo.

Para cumplir con los requisitos del RGPD en este extremo bastaría en principio con la adopción de un procedimiento de testeo del algoritmo tanto previo a su puesta en funcionamiento como a través de revisiones regulares, para controlar así de manera parametrizada la distorsión en el entrenamiento y aprendizaje del modelo, corregir los factores que introducen inexactitudes en los datos personales y reducir al máximo el riesgo de error.

Limitación a la finalidad: Este punto es de especial relevancia para el uso de algoritmos, dado que en muchas ocasiones su creación se basa en algunas prácticas comerciales como lo son la reutilización de datos, tanto mediante su venta como dentro de una misma empresa. Los datos sólo pueden emplearse de acuerdo al propósito con el que originariamente se recogieron o de modo compatible con el mismo. Al margen de dichas circunstancias únicamente será admisible su uso en términos de investigación científica o histórica o con fines estadísticos o de archivo, y, si bien el desarrollo de un algoritmo podría considerarse investigación científica por su configuración, realmente no sería aplicable debido al aprendizaje por experiencia, lo que imposibilita la diferenciación entre “desarrollo” y “uso efectivo”.

Sería preciso a este respecto por tanto que los datos usados para el entrenamiento de algoritmos hubiesen sido recogidos originariamente con ese fin, o bien se cuente con el consentimiento de los interesados o, en su defecto, se trate de datos anonimizados.

Minimización de datos: La necesidad de recoger y mantener únicamente los datos que estrictamente sean necesarios y sin duplicaciones precisa de una planificación previa y estudio detallado antes del desarrollo del algoritmo, de tal manera que su finalidad y utilidad estén bien explicadas y definidas.

Si bien la eliminación de información no es factible en este tipo de aplicaciones debido al aprendizaje continuo, la privacidad por defecto y por diseño debe regir todo proceso de machine learning, de tal modo que se aplique encriptado o uso de datos anonimizados siempre que sea posible.

Transparencia, información y derecho de explicación: Todo tratamiento de datos personales debe estar sujeto a plena información previa a disposición de los individuos, además de una serie de garantías adicionales para la toma automatizada de decisiones y la elaboración de perfiles, como lo son el derecho a obtener intervención humana por parte del responsable, a expresar su punto de vista, a impugnar la decisión y recibir una explicación de la decisión tomada después de la evaluación.

El RGPD no especifica si la explicación ha de referirse a la lógica general sobre la que se construye el algoritmo o el recorrido lógico concreto que se ha seguido para alcanzar una decisión específica, pero sí configura un deber de accountabilityque requiere en estas circunstancias el estudio singular del caso y una respuesta proporcionada al mismo, con lo que podrán incluirse desde las características de los datos empleados como las variables, el proceso de extracción y transformación, el grado de incertidumbre o las fechas hasta las características de la inferencia o el propio modelo aplicado. Se recomienda la elaboración de una política específica para ello.

La valoración de todos estos principios y la decisión sobre la viabilidad de creación y aplicación de un algoritmo ha de efectuarse mediante una evaluación de impacto previa llevada a cabo por el DPO de tal manera que se analicen todos los posibles riesgos para los derechos y libertades de los sujetos y se ajuste en consecuencia el proyecto a los requisitos de privacidad.

 

Si necesitas asesoramiento en protección de datos, Aphaia ofrece servicios tanto de consultoría para adaptación al RGPD, incluidas Evaluaciones de Impacto, y Subcontratación del Delegado de Protección de Datos.

Prev post
¡Aphaia estuvo en el Web Summit 2018!
noviembre 9, 2018
Next post
Una evaluación de impacto realizada a Microsoft revela riesgos para la privacidad
noviembre 23, 2018

Leave a Comment