La Inteligencia Artificial aplicada al e-commerce : una perspectiva del Parlamento Europeo

En este artículo profundizamos en el análisis realizado por el Parlamento Europeo sobre la Inteligencia Artificial aplicada al e-commerce. 

Este artículo es la Parte II de nuestras publicaciones sobre “IA y retail”. En la Parte I hablamos sobre cómo la IA puede ayudar a la industria del retail y ofrecerle oportunidades para minimizar el impacto del COVID-19 con respeto a la privacidad y los valores éticos. En esta segunda parte nos centramos en el documento publicado por el Parlamento Europeo, que abarca los desarrollos e innovaciones en IA aplicados al e-commerce.  

¿Qué podemos esperar del retail en el futuro? Los paneles inteligentes, los probadores virtuales y las cajas de auto-pago son sólo algunos de los elementos que liderarán la nueva era en la industria. ¿Qué tienen todos ellos en común? La respuesta es e-commerce e Inteligencia Artificial. 

La disyuntiva entre aprender y aprender de forma ética 

El actual estado del arte en matemáticas, estadística y programación hace posible el análisis de grandes cantidades de datos, lo cual ha impulsado el desarrollo del Machine Learning. Sin embargo, existe aún un gran vacío entre el alcance del desarrollo de la Inteligencia Artificial (IA) y el debido respeto a los principios éticos.  El Parlamento Europeo considera esencial que las tecnologías de IA abarquen los siguientes valores:  

  • Imparcialidad, o cómo evitar decisiones discriminatorias. 
  • Precisión, o la habilidad de proporcionar información fiable.
  • Confidencialidad, dirigida a proteger la privacidad de las personas implicadas. 
  • Transparencia, con el objetivo de hacer modelos y tomar decisiones que sean comprensibles para todas las partes involucradas. 

Conforme al documento, Europa aboga por una IA centrada en la persona (Human-centric AI), en beneficio de los humanos tanto a un nivel individual como de Sociedad y por sistemas que incorporen los valores éticos europeos por diseño, de modo que sean capaces de entender y adaptarse a entornos reales, interactuar en situaciones complejas y expandir las capacidades humanas, especialmente en el plano cognitivo. 

Riesgos y retos de la IA

La opacidad de las decisiones junto a los prejuicios y defectos ocultos en los conjuntos de datos de entrenamiento son señalados por el Parlamento Europeo como uno de los principales elementos que deben ser afrontados en la implementación de la IA. 

Los algoritmos basados en IA funcionan como cajas negras que son capaces de tomar decisiones según los movimientos, compras, búsquedas online y opiniones expresadas en redes sociales de los consumidores, pero no pueden explicar el motivo de una determinada predicción o recomendación. 

Los sesgos se derivan de la creación de los algoritmos conforme a las acciones humanas, lo cual puede implicar desigualdad, discriminación o, simplemente, malas decisiones. Esto afectará así al resultado, quizá sin que ni siquiera el sistema ni el sujeto objeto de la decisión final sean conscientes. 

Derecho a explicación 

El derecho a explicación puede ser la solución al obstáculo de la caja negra, y de hecho está ya previsto en el Reglamento General de Protección de Datos (RGPD): “En cualquier caso, dicho tratamiento debe estar sujeto a las garantías apropiadas, entre las que se deben incluir la información específica al interesado y el derecho a obtener intervención humana, a expresar su punto de vista, a recibir una explicación de la decisión tomada después de tal evaluación y a impugnar la decisión”. Sin embargo, este derecho sólo puede garantizarse a través de una tecnología capaz de explicar la lógica de las cajas negras, y dicha tecnología no es una realidad aún en la mayoría de casos. 

De lo anterior surge la siguiente cuestión: ¿cómo pueden las empresas confiar en sus productos sin un proceso de comprensión y validación? Alcanzar una IA que pueda explicarse es esencial no sólo para evitar discriminación y desigualdad, sino también para crear productos con componentes de IA fiables, para proteger la seguridad del consumidor y para limitar la responsabilidad de la industria. 

Existen dos maneras the abordar el problema de la “IA comprensible”: 

  • Explicación por diseño: XbD. Dado un conjunto de datos de decisión, sería cómo construir un “sistema transparente de toma de decisiones” que ofrezca propuestas comprensibles. 
  • Explicación de las cajas negras: Bbx. Dado un conjunto de decisiones generado por un “sistema opaco de toma de decisiones”, sería cómo reconstruir una explicación para cada decisión. Este método puede dividirse en: 
    • Explicación del Modelo, cuando la meta es la explicación de toda la lógica del modelo opaco; 
    • Explicación del Resultado, cuando la meta es explicar las decisiones de un caso concreto, y 
    • Inspección del Modelo, cuando la meta es explicar las propiedades generales de un modelo opaco. 

El dilema de la dimensión social

¿Cuál sería el resultado de la interacción entre seres humanos y sistemas de IA? Al contrario de lo que se podría esperar, el Parlamento Europeo señala que un conjunto de individuos inteligentes (asistidos por herramientas de IA) no será necesariamente una multitud inteligente. Esto es debido al efecto inintencionado de las redes y el comportamiento agregado.

¿Qué implica esto para el retail? El efecto es el efecto denominado “los ricos se hacen más ricos”: los usuarios, contenidos y productos populares pasan a ser aún más populares.  También se hace mención al sesgo de confirmación, o la tendencia a preferir información cercana a nuestras convicciones.  Como consecuencia de los efectos de red de los mecanismos de recomendación de IA de los marketplace online, los motores de búsqueda y las redes sociales, se intensifica la desigualdad y los núcleos monopolísticos, en detrimento de la diversidad de ofertas y la facilidad de acceso a diferentes mercados.

El objetivo es que las recomendaciones basadas en IA y los mecanismos de interacción ayuden a evolucionar del modelo puramente centrado en la publicidad a otro impulsado por los verdaderos intereses de los consumidores. 

En este contexto, ¿cuáles serían las condiciones para que un grupo fuse inteligente? Hay tres elementos que son clave: diversidad, independencia y descentralización. A estos efectos, la industria del retail necesita diseñar nuevos mecanismos sociales de IA para Marketplace online, motores de búsqueda y redes sociales, centrados en la mitigación de la actual desigualdad introducida por la generación existente de sistemas de recomendación. Resulta esencial tener mecanismos que ayuden a los individuos a acceder a contenido, personas y opiniones diversas. 

¿Cuál es la meta?

La IA debería perseguir objetivos que sean relevantes para los consumidores y los proveedores, en lugar de centrarse únicamente en soluciones de éxito para los intermediarios. Este ecosistema sería beneficioso también para el sector público, y los mismos principios básicos se aplicarían tanto a los marketplace como a los servicios de la información, movido por el interés de los consumidores y proveedores de compartir contenido de alta calidad.  

Os lo contamos de forma resumida y visual en el siguiente vídeo:

Suscríbete a nuestro canal de YouTube para más contenido.

¿Estás enfrentando nuevos retos en la industria del retail durante la crisis del coronavirus? Podemos ayudarte. Aphaia ofrece servicios de consultoría para el RGPD y la LOPDGDD, y también evaluaciones de impacto, evaluaciones de la ética de la IA y subcontratación del Delegado de Protección de Datos. Infórmate aquí.

Leave a Comment

(0 Comentarios)

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *