Dilemas éticos y de privacidad en las redes sociales

Los dilemas éticos y de privacidad se encuentran cada vez más presentes en las redes sociales debido a la proliferación de las páginas “explorar”, “descubrir” y “para ti”. 

 

Las páginas “explorar”, “descubrir” y “para ti” ofrecen contenido que la aplicación considera que va a ser de interés para el usuario, conforme a diversos factores como las interacciones, la información del vídeo y los ajustes de la cuenta y del dispositivo, los cuales el algoritmo pondera de manera individual. Esta característica de las redes sociales ha despertado algunas preocupaciones en relación a la elaboración de perfiles y otros aspectos de privacidad, sobre todo en lo que respecta a los datos personales de niños. 

 

Mientras que las decisiones automatizadas están permitidas bajo determinadas circunstancias, se debe prestar especial atención cuando éstas implican tratamiento de datos personales de niños. 

 

Las decisiones del contenido que aparece en las páginas “explorar” y “descubrir” se toman en gran medida mediante elaboración de perfiles del usuario de cada cuenta. Mientras que esta herramienta puede resultar de gran ayuda para el análisis de grandes volúmenes de datos de manera rápida y eficiente para mostrar tan sólo lo que resulta de mayor interés para el individuo, también conlleva muchos riesgos en lo que concierne a la ética y a la privacidad.  Muchas de las veces el usuario no es consciente de que se está llevando a cabo elaboración de perfiles, lo cual puede derivar en efectos adversos. El Artículo 22 del RGPD no prohíbe la toma automatizada de decisiones, incluso cuando se trata de niños, pero siempre y cuando éstas no tengan efectos legales o les afecten de una manera similar. El Artículo de trabajo del Grupo 29, ahora CEPD, advierte de que “la toma automatizada de decisiones que influyen en las elecciones y comportamientos de los niños podría de manera potencial tener efectos jurídicos o que les afecten significativamente de manera similar, en función de la naturaleza de las elecciones y comportamientos en cuestión”. El RGPD requiere que se aplique una protección especial cuando se efectúa elaboración de perfiles, especialmente con niños o cuando los servicios pueden ser utilizados por los mismos. 

 

Muchos de los datos que tratan las redes sociales requieren consentimiento, sin embargo, se precisa de una edad mínima para poder otorgarlo. 

 

Conforme a las últimas novedades en relación de la normativa ePrivacy, gran parte de los datos que tratan las redes sociales y las páginas web pueden requerir consentimiento. En muchas partes del mundo, los menores no están legalmente capacitados para otorgar su consentimiento al respecto. La edad mínima a tales efectos varia por país. En España, se ha definido e los 14 años, pero en otros países europeos esta edad se sitúa en los 16.  En caso de que el niño tenga una edad inferior, los padres o tutores deberán otorgar su consentimiento en su lugar. Como responsable del tratamiento, es importante conocer qué datos deben tratarse con consentimiento, quién debe otorgarlo y cómo éste debe recogerse, así como cuáles pueden basarse en otra base legítima. 

El desarrollo de redes sociales debe también tener en cuenta los principios éticos.  

 

Una IA de confianza debe ser legítima, ética y robusta. Es necesario que el desarrollo de redes sociales vele porque los datos se almacenen de manera segura, los algoritmos sean explicables y que el contenido no incluya sesgos. Principios éticos como la robustez técnica, la privacidad y la no discriminación son esenciales. Dado que los algoritmos de las redes sociales son los que muestran el contenido de las páginas “explorar” y “descubrir”, es crucial que las decisiones tomadas por los sistemas de IA sean completamente transparentes y que se preste atención a la posibilidad de que cuenten con sesgos discriminatorios. Una evaluación de la ética de la IA es necesaria para determinar si las decisiones son éticas y legítimas, así como las garantías y medidas que deben aplicarse. 

 

¿Quieres saber más sobre los dilemas éticos y de privacidad de las redes sociales? Visita nuestro vlog, donde explicamos los principales conceptos de manera sencilla. Publicamos contenido de manera regular, ¡así que no te olvides de suscribirte! 

 

 

¿Realizas elaboración de perfiles o análisis de los gustos de tus clientes? ¿Has implementado todas las medidas necesarias en cumplimiento del ePrivacy, RGPD y LOPDGDD? Aphaia ofrece servicios de consultoría para el ePrivacy, el RGPD y la LOPDGDD, y también evaluaciones de impactoevaluaciones de la ética de la IA y subcontratación del Delegado de Protección de DatosInfórmate aquí.

 

Foro europeo sobre digitalización de la industria

Aphaia asiste al tercer foro europeo sobre digitalización de la industria

El foro sobre digitalización de la industria se centró en la Inteligencia Artificial y los Digital Innovation Hubs

El tercer foro europeo sobre digitalización de la industria tuvo lugar en Madrid del 13 al 15 de noviembre. Congregó a más de 600 invitados y 50 panelistas que hablaron sobre las oportunidades que ofrece la IA al mercado europeo y las inversiones necesarias para la digitalización plena de la industria, entre otros temas.

Se trata de un evento anual que se organiza por la Comisión Europea y un Estado Miembro en el contexto de la Iniciativa para Digitalizar la Industria Europea.

Europa acoge a importantes empresas innovadoras y disruptivas. A fin de aprovechar al máximo dicho potencial, se precisa inversión en IA y apoyo a los Digital Innovation Hubs locales para conseguir así una ventaja competitiva a nivel internacional. Iniciativas como la Digitalización de la Industria Europea y el Plan Coordinado en Inteligencia Artificial acerca a los Estados Miembro a este objetivo.

Como pioneros en las evaluaciones de la ética de la IA, una de las mesas de debate que más disfrutamos fue la de “Inteligencia Artificial en la Industria: llevando la ética a la práctica”. El panel estuvo conformado por importantes profesionales en el campo de la IA, a saber:

Richard Benjamins (Data & AI Ambassador, Telefonica)
Meeri Haataja (Co-founder y CEO de Saidot)
Joanna Goodey (Alto Grupo de Expertos de la IA)
Aida Ponce (Senior Researcher, European Trade Union Institute)
Moisés Barrio (Asesor Legal del Consejo de Estado en España)
Lucilla Sioli (Directora de Inteligencia Artificial e Industria Digital en la Comisión Europea).

Los panelistas tuvieron la oportunidad de debatir las guías europeas sobre la ética de la IA y los siguientes pasos a tomar para asegurar un desarrollo ético de la misma.

Conforme a Lucia Sioli, la ética de la IA es uno de los retos en Europa, junto a la inversión y la educación. La ética porque tenemos que desarrollar una IA de confianza que sea respetuosa con nuestro valores centrales; la inversión porque todos los Estados Miembro tienen que trabajar de manera conjunta para unir fuerzas en esta área, y educación porque la IA creará nuevos trabajos que tendremos que cubrir en el futuro.

Cada uno de los ponentes explicó más en detalle su postura en relación a la ética de la IA:

Para Richard Benjamins, el mayor desafío se encuentra en implementar la IA en el día a día de las empresas. “No hay experiencia previa. El proceso de diseño es muy importante y debería basarse en cinco pilares: los principios en sí mismos, concienciación y formación, auto evaluación, herramientas y gobierno. Debemos centrarnos sobre todo en la auto concienciación”.

Meeri Haataja habló desde la perspectiva de una startup que trabaja con grandes organizaciones tanto públicas como privadas: “Existe consenso sobre cuáles son los principios, pero deberíamos pensar sobre cómo poner esto en práctica, centrados en la transparencia. La transparencia ofrece una ventana para comprobar si los principios se encuentran ahí efectivamente. Necesitamos establecer estándares específicos para cada industria y prácticas comunes”.

Joanna Goodey explicó que, como miembro del AIHLEG, normalmente le preguntan: ¿cuáles son los retos de regular la IA? ¿Cuáles son los desafíos si no lo hacemos? Ella piensa que no todo es blanco o negro. “Necesitamos recopilar evidencia de diferentes sectores, no sólo la industria pero también de, por ejemplo, abogados que trabajen en ello. Tenemos que aprender de lo que hemos hecho hasta ahora”.

Aida Ponce mostró su preocupación sobre el impacto de la tecnología en los lugares de trabajo. “La IA es una tecnología muy transversal, y potencialmente puede transformar vidas, modelos de negocio, lugares de trabajo, trabajos y a los propios trabajadores. Puede que estéis pensando que ya hemos visto esto antes con la revolución industrial, y es cierto, pero la diferencia es que la IA tiene tres características que no hemos visto antes: grandes cantidades de datos, incertidumbres que surgen cada día y no comprendemos (complejidad del mundo) y volatilidad de la tecnología”.

Moisés Barrio, por su parte, afirmó que: “Necesitamos regulación legalmente vinculante. La aproximación a la IA se ha hecho mediante normas legales. Las normas éticas no cuentan con esas garantías (en caso de nocumplimiento no hay multas ni sanciones, etc). La auto regulación no es suficiente en este área. Si los estándares son opcionales, algunos actores de la industria decidirán simplemente no cumplirlos. Cuando se prepara una normativa, las voces de las empresas son importantes pero ellas no pueden ser el regulador”.

En nuestra opinión nos encontramos todavía en una fase muy temprana en la regulación de la IA, y es este el motivo por el que necesitamos primero aprender de qué estamos hablando y cómo se aplica a la industria y, después, dejar a los organismos correspondientes decidir si se precisa regulación o si los códigos de conducta serán suficientes en su lugar.

Si necesitas asesoramiento en IA para tus productos y servicios, Aphaia ofrece evaluaciones de la ética de la IA y evaluaciones de impacto para adaptar tus productos a la normativa europea y española.

FOAN2019

Aphaia asiste al evento FOAN2019

La octava conferencia internacional sobre Fibra Óptica en Redes de Acceso (FOAN2019) tuvo lugar del 2 al 4 de septiembre en el Swissotel, en Sarajevo.

FOAN2019 acogió más de 60 presentaciones ofrecidas por los más altos profesionales en el sector de las Telecomunicaciones, incluyendo empresa, Gobierno, cátedra y Agencias Regulatorias. Los asistentes vinieron de todas las partes del mundo, desde Europa sur y este hasta Japón y Estados Unidos, entre otros.

Durante los tres días que duró el evento, los participantes pudieron intercambiar sus opiniones y proyectos, además de compartir dos cenas de networking en el maravilloso y pintoresco casco antiguo de Sarajevo.

Merece especial mención Edvin Skaljo, que, como organizador y junto al resto del equipo, hizo posible esta gran experiencia.

Las charlas se enmarcaron en el campo de la Fibra óptica, y ofrecieron perspectivas tan diferentes como IoT, Big Data, 5G, Propiedad Intelectual, Protección de Datos, Smart Cities, etc. Asimismo, algunos talleres se desarrollaron en paralelo en una de las otras salas del espacio del evento. La prensa y televisión local acudieron a documentar y retransmitir todas las actividades que tuvieron lugar.

En Aphaia fuimos invitados a ofrecer una presentación y a moderar un panel de debate. Nuestra socia Cristina Contero Almagro ofreció una conferencia sobre Smart Cities y Privacidad y presidió el Panel de Debate sobre Smart Cities y Regulación, el tercer día de FOAN2019.

En la charla, Cristina debatió algunos de los principales retos de privacidad y seguridad que enfrentan las Smart Cities, como los riesgos de brecha de seguridad y la necesidad de identificar una base  legítima de tratamiento.

Contamos con la participación de grandes panelistas, como Igor Jurcic, head of marketing Business group for VSE/SME; Tarik Hamzic, Vice Presidente de Operaciones en el Ministerio de Programación de Bosnia y Herzegovina; Aleksandar Mastilovic, Asesor experto del Director General de Comunicaciones en la Agencia de Regulación de Bosnia y Herzegovina y  Aljo Mujcic Profesor de la Universidad de Tuzla (Bosnia), en la facultad de ingeniería. Debatieron los tres pilares de la Regulación de las Smart Cities: el concepto de Smart Cities, las Smart Cities y la universidad, y las Smart Cities y la inversión.

FOAN2019 fue una experiencia muy enriquecedora de la cual nos sentimos muy agradecidos por ser parte, y ya estamos deseando que llegue la próxima edición, FOAN2020!

 

¿Necesitas ayuda con el RGPD o la LOPDGDD? Aphaia ofrece servicios tanto de consultoría para adaptación al RGPDtambién Evaluaciones de Impacto, como subcontratación delSubcontratación del Delegado de Protección de Datos.

Reunión de Aphaia para la innovación

El equipo de Aphaia nos hemos reunido en Londres para el congreso de verano anual, que esta vez tuvo lugar el martes 11 y jueves 13 de junio.

Durante ambos días tratamos diferentes temas y exposiciones centradas en nuestras operaciones y servicios, lo cual nos permitió dialogar y analizar en equipo la situación actual del mercado y futuras estrategias que aplicar sobre el mismo. Surgieron una serie de interesantes ideas, propuestas y decisiones que fueron alcanzadas de manera conjunta y que planeamos implementar durante los próximos meses.

Tuvimos también el placer de contar con Matija Jamnik, del Grupo JK, que nos ofreció una sesión sobre RGPD y servicios cloud y destacó las limitaciones con las que el RGPD puede toparse en este sentido y los retos que enfrentan responsables y encargados de tratamiento.

Asimismo, valoramos alternativas para hallar el mejor acercamiento de cara a ofrecer un mayor nivel de apoyo a nuestros clientes a nivel mundial.

En Aphaia siempre buscamos cómo mejorar nuestros servicios, y consideramos que la celebración de eventos en equipo de este tipo nos permite optimizar nuestros recursos y perspectivas, en un ambiente donde cada uno de las personas que conforman Aphaia pudo exponer sus ideas y sugerencias, lo cual enriquece tanto nuestro ambiente de trabajo como nuestros productos y la manera en que se los ofrecemos a nuestros clientes.

¿Necesitas ayuda con el RGPD o la LOPDGDD? Aphaia ofrece servicios tanto de consultoría para adaptación al RGPD, también Evaluaciones de Impacto, como Subcontratación del Delegado de Protección de Datos.