Patrones oscuros en redes sociales

El Comité Europeo de Protección de Datos (CEPD) define los “patrones oscuros” como “interfaces y experiencias de usuario que llevan a estos a tomar decisiones no deseadas, involuntarias y potencialmente dañinas en relación al tratamiento de sus datos personales”. Así, los patrones oscuros pretenden influir en el comportamiento de los usuarios en estas plataformas y obstaculizar su habilidad de tomar decisiones conscientes que protejan sus datos de manera efectiva. Las autoridades de protección de datos son responsables de sancionar cualquier uso de patrones oscuros si estos infringen el RGPD. Los patrones oscuros incluyen, por sus términos en inglés, skipping, stirring, hindering, fickle designs y leaving users in the dark:

Overloading

Overloading hace referencia a aquellas situaciones en las que el usuario se enfrenta a una gran cantidad de solicitudes, información o posibilidades que le impulsan a compartir más datos de los necesarios o a permitir de manera inintencionada ciertos tratamientos de datos contrarios a sus expectativas. Las técnicas de overloading incluyen continua instigación y opciones que suponen laberintos en términos de privacidad. 

Skipping

Skipping implica que la interfaz o la experiencia de usuario han sido diseñadas de tal manera que los interesados olvidan algunos aspectos de protección de datos o no reflexionan sobre ellos. Algunos ejemplos de esta técnica incluyen prácticas engañosas e indicaciones del estilo de “mira aquí”.

Stirring

Stirring es un patrón oscuro que apela a las emociones de los usuarios mediante recursos visuales con el objetivo de afectar sus elecciones. Estos métodos recurren al manejo emocional y sitúan la información pertinente de tal forma que está “escondida a simple vista”.  

Hindering 

Hindering implica la utilización de técnicas de obstrucción o bloqueo relacionadas con el acceso a la información o la gestión de los datos mediante prácticas que hacen los procesos extremadamente complicados o los resultados imposibles de lograr. Los patrones oscuros que forman parte de esta categoría abarcan diseños sin salida, procedimientos más largos de lo necesario e información engañosa.  

Fickle Interfaces

Fickle interfaces se caracterizan por diseños inconsistentes y poco claros que hacen difícil navegar los controles de protección de datos y comprender la finalidad del tratamiento. Estas interfaces incluyen aquellas que carecen de jerarquía y las que utilizan la descontextualización dentro del diseño. 

Interfaces that leave users in the dark  

Se considera que una interfaz “deja a los usuarios a oscuras” si ésta se ha diseñado de una forma que esconde información o herramientas de protección de datos y como resultado arroja a los usuarios incertidumbre sobre qué datos se tratan y qué control tienen en relación al ejercicio de sus derechos. Algunos ejemplos serían discontinuidad en el lenguaje o redacción e información contradictorias.  

Hemos publicado un breve Vlog en YouTube donde destacamos los tipos de patrones oscuros y cómo el RGPD y sus principios pueden ayudar a evitarlos, así como cuáles son las principales medidas que deberían implementarse para no incurrir en sanciones. 

Suscríbete al canal de YouTube de Aphaia para más información sobre protección de datos y la ética de IA. 

¿Has implementado todas las medidas para cumplir con el RGPD, la LOPDGDD, la LSSI y la directiva ePrivacy? Nuestros servicios integrales abarcan, entre otras áreas, Evaluaciones de Impacto de Protección de DatosEvaluaciones de la Ética de la IA, implementación del RGPD, la LOPDGDD y la LSSI subcontratación del Delegado de Protección de Datos. Infórmate aquí.

el sector Fintech

La ética de la IA en el sector Fintech

Conforme el mundo del Fintech evoluciona, la necesidad de contar con un marco regulatorio y ético que lo gobierne toma especial importancia. 

El término “Tecnología Financiera” o “Fintech” se refiere a la nueva tecnología que busca mejorar y automatizar los servicios financieros. Esta tecnología ayuda con la gestión de los aspectos financieros de un negocio o las finanzas personales a través de la integración de sistemas IA. En términos generales y como ejemplo, estamos hablando de la banca online, las aplicaciones de pago, las criptomonedas y las plataformas de crowdfunding, entre otros, a través de los cuales los consumidores están siendo testigos de la aplicación práctica del Fintech y el valor que puede aportar a sus vidas. Sin embargo, al igual que ocurre con cualquier aplicación disruptiva y la IA, deberían existir ciertas medidas que velen por la integración segura de esta tecnología en nuestro día a día, de manera que se genere confianza por parte de la sociedad.   

Legislación y directrices en torno al Fintech y la ética de la IA.

Alguna normativa, como la Directiva de Servicios de Pago (PSD2), que regula a nivel europeo los pagos electrónicos, ya alcanza también el sector Fintech. Esta Directiva armoniza dos servicios cuyo uso se ha extendido en los últimos años: por un lado, los servicios de iniciación de pagos (PIS) y, por otro, los servicios de información de cuenta (AIS). Los proveedores PIS facilitan el uso de la banca online para hacer pagos electrónicos, mientras que los proveedores AIS permiten la recogida y almacenamiento de información de las diferentes cuentas bancarias del consumidor en un solo lugar. Con la creciente popularidad de esta tecnología y otras formas de Fintech, y tomando en consideración de que la experiencia aporta una mayor perspectiva sobre el impacto que esto puede tener en la Sociedad, se espera que se desarrolle nueva normativa en el futuro. 

Los datos financieros son datos sensibles y de gran valor, y por ello se requiere especial protección sobre los mismos. La legislación y las directrices que se encuentran actualmente disponibles tienen el objetivo de ayudar con el cumplimiento de los principios que deberían primar, tales como la solidez técnica y la seguridad, la privacidad y el gobierno del dato, la transparencia y la diversidad, la no discriminación y la justicia. Todos ellos son necesarios para que el uso del Fintech sea seguro y beneficioso para todas las partes implicadas. 

Solidez técnica y seguridad.

La seguridad de los datos personales y financieros son uno de los principales factores a considerar cuando se toman decisiones sobre qué herramientas emplear para gestionar las finanzas. Una brecha de seguridad que afecte a la información financiera podría tener graves efectos en los interesados debido a la naturaleza sensible de los datos. En consecuencia, las instituciones financieras y las compañías Fintech priorizan el desarrollo y la implementación de medidas que aseguren una transacción segura a través de la tecnología, tales como, el cifrado, el control de acceso, tests de penetración, tokenización, la autenticación de doble factor, procesos de aprobación multietapas y políticas de backup, las cuales refuerzan la seguridad en el usuario y los protegen de ataques malware, brechas de seguridad y robos de identidad, entre otros factores de riesgo. 

Privacidad y gobierno del dato.

El artículo 22 de RGPD prohíbe que un interesado quede sujeto a una decisión basada únicamente en el tratamiento automatizado, salvo en determinadas circunstancias. La toma automatizada de decisiones en la industria Fintech puede producir efectos jurídicos o de consecuencias similares en los individuos, de manera que tendrían que estar sujetas a requisitos adicionales. Asimismo, una Evaluación de Impacto de Protección de Datos puede ser necesaria a fin de determinar los riesgos que se pueden derivar para los sujetos y la mejor manera de mitigarlos. Además, cabe recordar que cuando se trate de categorías especiales de datos,  las decisiones automatizadas sólo podrán tener lugar si se cuenta con el consentimiento explícito del interesado o si es necesario por razones de interés público esencial. Una automatización robótica de procesos puede traer grandes beneficios para las empresas, pero se debe hacer en cumplimiento con el RGPD para asegurar que ninguna toma automatizada de decisiones resulta en prácticas peligrosas para los derechos y libertades de los sujetos. 

Diversidad, no discriminación y justicia.

Son varios los estudios que hasta ahora se han realizado para explorar los niveles de equidad de la tecnología Fintech, y la posible existencia de discriminación en la concesión de créditos y otros aspectos de la industria. Los algoritmos pueden bien perpeturar los sesgos humanos o desarrollar los suyos propios. Algunos sesgos comunes en el sector financiero surgen alrededor del género, el origen étnico o racial y la edad. La tecnología IA, y especialmente en el sector Fintech, donde los sesgos pueden afectar a circunstancias como el acceso individual a un préstamo y las oportunidades que ello ofrece, deben prevenir la discriminación y proteger la diversidad. Elementos como emplear datos de entrenamiento de calidad, seleccionar el modelo de aprendizaje adecuado y trabajar con un equipo multidisciplinar pueden ser útiles para reducir el sesgo.

Transparencia. 

Mientras que el uso de IA ha generado una transformación positiva en la industria financiera, la cuestión alrededor de cómo se aplica la ética de la IA es inevitable. El principio de transparencia ofrece una oportunidad de introspección en relación a aspectos éticos y regulatorios, a fin de darles una solución.  Los algoritmos empleados en el sector Fintech deberían ser transparentes y explicables. La autoridad de control de Reino Unido, ICO, y el Instituto Alan Turing han desarrollado sus directrices “Explicando decisiones tomadas con IA” para ayudar a las empresas con este cometido, donde sugieren elaborar una “matriz de transparencia” para mapear las diferentes categorías de información frente a las partes relevantes en cada caso.  IA fiable es IA que se adoptará y aceptará con más facilidad por parte de los sujetos. La transparencia en los modelos y procesos Fintech y en otras tecnologías de IA permite dar una respuesta a los sesgos y otros dilemas que surgen con la implementación y uso de la misma. 

No te pierdas nuestro vlog sobre la ética de la IA en el sector Fintech:

https://www.youtube.com/watch?v=C3gsqKcjufs

Puedes aprender más sobre ética y regulación de la IA en nuestro Canal de Youtube

¿Tienes dudas sobre la regulación del sector Fintech? Podemos ayudarte. Nuestros servicios integrales abarcan tanto Evaluaciones de Impacto de Protección de Datos como Evaluaciones de la Ética de la IA, junto con la implementación del RGPD y la LOPDGDD y subcontratación del Delegado de Protección de DatosInfórmate aquí.

Dilemas éticos y de privacidad en las redes sociales

Los dilemas éticos y de privacidad se encuentran cada vez más presentes en las redes sociales debido a la proliferación de las páginas “explorar”, “descubrir” y “para ti”. 

 

Las páginas “explorar”, “descubrir” y “para ti” ofrecen contenido que la aplicación considera que va a ser de interés para el usuario, conforme a diversos factores como las interacciones, la información del vídeo y los ajustes de la cuenta y del dispositivo, los cuales el algoritmo pondera de manera individual. Esta característica de las redes sociales ha despertado algunas preocupaciones en relación a la elaboración de perfiles y otros aspectos de privacidad, sobre todo en lo que respecta a los datos personales de niños. 

 

Mientras que las decisiones automatizadas están permitidas bajo determinadas circunstancias, se debe prestar especial atención cuando éstas implican tratamiento de datos personales de niños. 

 

Las decisiones del contenido que aparece en las páginas “explorar” y “descubrir” se toman en gran medida mediante elaboración de perfiles del usuario de cada cuenta. Mientras que esta herramienta puede resultar de gran ayuda para el análisis de grandes volúmenes de datos de manera rápida y eficiente para mostrar tan sólo lo que resulta de mayor interés para el individuo, también conlleva muchos riesgos en lo que concierne a la ética y a la privacidad.  Muchas de las veces el usuario no es consciente de que se está llevando a cabo elaboración de perfiles, lo cual puede derivar en efectos adversos. El Artículo 22 del RGPD no prohíbe la toma automatizada de decisiones, incluso cuando se trata de niños, pero siempre y cuando éstas no tengan efectos legales o les afecten de una manera similar. El Artículo de trabajo del Grupo 29, ahora CEPD, advierte de que “la toma automatizada de decisiones que influyen en las elecciones y comportamientos de los niños podría de manera potencial tener efectos jurídicos o que les afecten significativamente de manera similar, en función de la naturaleza de las elecciones y comportamientos en cuestión”. El RGPD requiere que se aplique una protección especial cuando se efectúa elaboración de perfiles, especialmente con niños o cuando los servicios pueden ser utilizados por los mismos. 

 

Muchos de los datos que tratan las redes sociales requieren consentimiento, sin embargo, se precisa de una edad mínima para poder otorgarlo. 

 

Conforme a las últimas novedades en relación de la normativa ePrivacy, gran parte de los datos que tratan las redes sociales y las páginas web pueden requerir consentimiento. En muchas partes del mundo, los menores no están legalmente capacitados para otorgar su consentimiento al respecto. La edad mínima a tales efectos varia por país. En España, se ha definido e los 14 años, pero en otros países europeos esta edad se sitúa en los 16.  En caso de que el niño tenga una edad inferior, los padres o tutores deberán otorgar su consentimiento en su lugar. Como responsable del tratamiento, es importante conocer qué datos deben tratarse con consentimiento, quién debe otorgarlo y cómo éste debe recogerse, así como cuáles pueden basarse en otra base legítima. 

El desarrollo de redes sociales debe también tener en cuenta los principios éticos.  

 

Una IA de confianza debe ser legítima, ética y robusta. Es necesario que el desarrollo de redes sociales vele porque los datos se almacenen de manera segura, los algoritmos sean explicables y que el contenido no incluya sesgos. Principios éticos como la robustez técnica, la privacidad y la no discriminación son esenciales. Dado que los algoritmos de las redes sociales son los que muestran el contenido de las páginas “explorar” y “descubrir”, es crucial que las decisiones tomadas por los sistemas de IA sean completamente transparentes y que se preste atención a la posibilidad de que cuenten con sesgos discriminatorios. Una evaluación de la ética de la IA es necesaria para determinar si las decisiones son éticas y legítimas, así como las garantías y medidas que deben aplicarse. 

 

¿Quieres saber más sobre los dilemas éticos y de privacidad de las redes sociales? Visita nuestro vlog, donde explicamos los principales conceptos de manera sencilla. Publicamos contenido de manera regular, ¡así que no te olvides de suscribirte! 

 

 

¿Realizas elaboración de perfiles o análisis de los gustos de tus clientes? ¿Has implementado todas las medidas necesarias en cumplimiento del ePrivacy, RGPD y LOPDGDD? Aphaia ofrece servicios de consultoría para el ePrivacy, el RGPD y la LOPDGDD, y también evaluaciones de impactoevaluaciones de la ética de la IA y subcontratación del Delegado de Protección de DatosInfórmate aquí.

 

Directrices Éticas para una IA Fiable

Novedades en las Directrices Éticas para una IA Fiable.

El Alto Grupo de Expertos en Inteligencia Artificial publicó el mes pasado un conjunto de orientaciones enfocadas a la implementación práctica de las Directrices Éticas para una IA fiable. En el blog de hoy hablamos sobre este documento y su impacto en el desarrollo de sistemas de IA. 

 

El mes pasado informamos en nuestro blog de la publicación por parte del Alto Grupo de Expertos en IA de la Lista de Evaluación para una Inteligencia Artificial Fiable. Esta lista es el resultado de un proceso piloto estructurado en tres partes que contó con la contribución de más de 350 empresas y organizaciones y en el que Aphaia tuvo el placer de participar. Así, se recogieron todas las aportaciones a través de una encuesta online, una serie de entrevistas en profundidad y el intercambio de mejores prácticas para alcanzar una IA fiable. Antes de implementar un sistema de IA es necesario asegurarse de que éste cumple con los siete principios identificados como esenciales tanto en las directrices éticas para una IA fiable como en la lista de evaluación. 

 

El objetivo de este documento es promover una IA fiable que cuente con las siguientes tres características: legítima, ética y robusta. Mientras que las orientaciones publicadas por el Alto Grupo de Expertos en IA no detallan el primero de los componentes, sí analizan más en profundidad el segundo y el tercero. 

 

En nuestro último vlog, el primero de una serie de dos vídeos, exploramos los tres primeros de los siete requisitos para una IA Fiable: supervisión y acción humanas, solidez técnica y seguridad y privacidad y gobierno del dato. 

 

Supervisión y acción humanas

“Los sistemas de IA deberían respaldar la supervisión y decisiones humanas, tal y como dicta el principio de autonomía humana”. Las empresas deberían estar concienciadas de los efectos que los sistemas de IA pueden tener en el comportamiento humano en sentido amplio, la percepción humana y las expectativas cuando se enfrentan a sistemas de IA que actúan, sienten y confían como los humanos. 

Conforme a las directrices “los sistemas de IA no deberían de manera injustificada subordinar, obligar, engañar o manipular la condición humana. En su lugar, deberían estar diseñados para aumentar, complementar y empoderar las habilidades humanas sociales, culturales y cognitivas”. Los sistemas de IA deberían diseñarse con la figura del ser humano como centro y permitir oportunidades de elección humana. 

Solidez técnica y seguridad

Conforme al principio de prevención del daño destacado en las directrices, “los sistemas de IA no deberían causar ni exacerbar el daño y tampoco afectar a los seres humanos de forma negativa de ninguna manera. Esto implica la protección de la dignidad humana y la integridad física y mental”. 

Las empresas deberían reflexionar sobre la resiliencia al ataque la seguridad, precisión, confiabilidad y planes de recuperación y reproductibilidad. 

Privacidad y gobierno del dato

La privacidad es un derecho fundamental que se ve afectado por los sistemas de IA. Los sistemas de IA deberán garantizar la privacidad y la protección de datos a lo largo de todo el ciclo de vida del sistema. Se recomienda implementar un proceso que involucre tanto a los altos cargos como a aquellos que se encuentran en el nivel operacional de la empresa. 

En relación al principio de prevención del daño, hay algunos factores clave a tener en cuenta, a saber: gobierno del dato adecuado, relevancia de los datos empleados, protocolos de acceso y capacidad de los sistemas de IA para procesar los datos de una manera que proteja la privacidad. 

 

Cuando se lleve a cabo la evaluación, se recomienda no sólo prestar atención a las áreas más controvertidas, sino también a aquellas que no tienen una fácil respuesta. El objetivo de esta lista es guiar a los creadores y desarrolladores de IA a alcanzar una IA fiable, y debería adaptarse a cada caso específico de manera proporcionada. 

Para aprender más sobre los principios que el Alto Grupo de Expertos considera necesarios para alcanzar una IA fiable, no te pierdas la parte dos y suscríbete a nuestro canal. 

¿Necesitas asesoramiento con la Lista de Evaluación para una IA Fiable? Podemos ayudarte. Nuestros servicios integrales abarcan tanto Evaluaciones de Impacto de Protección de Datos como Evaluaciones de la Ética de la IA, junto a la implementación del RGPD y la LOPDGDD y subcontratación del Delegado de Protección de Datos.