«La implementación de algoritmos de toma de decisiones individuales automatizadas y la elaboración de perfiles en una empresa se ve directamente afectada por el RGPD, lo que implica que probablemente sea necesario llevar a cabo una Evaluación de Impacto» – Cristina Contero Almagro, socia de Aphaia.

El uso de algoritmos y sistemas de inteligencia artificial tiene efectos directos en la privacidad de los sujetos implicados, no sólo en cuanto al diseño sino durante todo el proceso, pues el uso de datos personales está presente tanto en la configuración inicial como en la implementación posterior. En Apahaia, como expertos en privacidad, hemos desarrollado un método propio de asesoriamiento especializado en esta materia,  y que abarca desde algoritmos de recomendación usados por nuestros clientes en e-commerce hasta la evaluación de X5GON, una red global de Recursos Educativos Abiertos basada en la IA financiada por la UE H2020.

Y recuerda, si necesitas ayuda para implementar los pasos que te contamos a continuación, contacta con nosotros.

Requisitos conforme al RGPD

Debido a su naturaleza, alcance, contexto y fines, el tratamiento de datos mediante sistemas de IA y algoritmos entraña un alto riesgo para los derechos y libertades de las personas físicas, lo que hace necesario llevar a cabo una Evaluación de Impacto previa al comienzo de las actividades de tratamiento mediante dichos medios. En Aphaia realizamos Evaluaciones de Impacto especializadas para estos casos. Gracias a nuestra experiencia, ofrecemos un servicio completamente adaptado que abarca todas las particularidades de este tratamiento: tipo de algoritmo, legitimación, características de los conjuntos de datos usados para entrenamiento, valoración de las restricciones legales que se aplican a la recogida y tratamiento de las categorías de datos sobre las que el algoritmo basará sus decisiones, entre otras.
Si incorporas IA o algoritmos en tu modelo de negocio, necesitarás desarrollar una política de información específica que comprenda algunos detalles particulares de dicho tratamiento, como la lógica aplicada o las consecuencias previstas para los interesados, además de garantizar a estos su derecho a oponerse al tratamiento mediante dichos medios y prever medidas de seguridad especificas. Aphaia lleva a cabo un análisis personalizado del uso y características del algoritmo o IA y proporciona políticas y documentos adaptados a medida.

…y más

El uso de IA lleva implícitos una serie de riesgos de discriminación que deben ser controlados y supervisados tanto antes como durante el proceso de implementacion del algoritmo. Los riesgos de discriminacion pueden derivarse bien de una etiquetado erróneo en el conjunto de datos de entrenamiento, bien de un conjunto de datos de entrenamiento no compensado. Contar con el asesoramiento de un experto en privacidad desde el momento inicial del diseño garantiza llevar a cabo el proceso en completa alineación con los requisitos legales impuestos por el RGPD y otras leyes de privacidad.

Los riesgos de discriminación en la práctica – En detalle.

Las consecuencias de un etiquetado erróneo, una categorización no acertada en el conjunto de datos de entrenamiento o que éste no se encuentre convenientemente equilibrado resultan en riesgos mayores cuando se tiene en cuenta el sistema de funcionamiento de los algoritmos en la práctica. El esquema de la derecha ilustra de manera breve lo que explicamos en las líneas siguientes. 

La discriminación se da como resultado de clasificar a los individuos en categorías según los valores de una serie de variables, lo que implica que el sujeto será juzgado conforme al grupo al que con base en ese criterio pertenezca. El uso de IA por parte de compañías de crédito es un claro ejemplo de este caso: un crédito puede ser denegado a un particular por el simple hecho de que el sistema de IA le ha asignado un grupo que está compuesto por personas que no pagan sus deudas; si bien, este hecho simplemente significa que las variables de tal sujeto se asimilaban a las de ese grupo más que a las de otros, pero quizá las diferencias son insignificantes o realmente no están relacionadas con la probabilidad de devolución de créditos. Esta es la razón por la que definir de manera correcta las variables y asignar los pesos adecuados a cada una de ellas resulta crucial en términos de privacidad y discriminación.