el sector Fintech

La ética de la IA en el sector Fintech

Conforme el mundo del Fintech evoluciona, la necesidad de contar con un marco regulatorio y ético que lo gobierne toma especial importancia. 

El término “Tecnología Financiera” o “Fintech” se refiere a la nueva tecnología que busca mejorar y automatizar los servicios financieros. Esta tecnología ayuda con la gestión de los aspectos financieros de un negocio o las finanzas personales a través de la integración de sistemas IA. En términos generales y como ejemplo, estamos hablando de la banca online, las aplicaciones de pago, las criptomonedas y las plataformas de crowdfunding, entre otros, a través de los cuales los consumidores están siendo testigos de la aplicación práctica del Fintech y el valor que puede aportar a sus vidas. Sin embargo, al igual que ocurre con cualquier aplicación disruptiva y la IA, deberían existir ciertas medidas que velen por la integración segura de esta tecnología en nuestro día a día, de manera que se genere confianza por parte de la sociedad.   

Legislación y directrices en torno al Fintech y la ética de la IA.

Alguna normativa, como la Directiva de Servicios de Pago (PSD2), que regula a nivel europeo los pagos electrónicos, ya alcanza también el sector Fintech. Esta Directiva armoniza dos servicios cuyo uso se ha extendido en los últimos años: por un lado, los servicios de iniciación de pagos (PIS) y, por otro, los servicios de información de cuenta (AIS). Los proveedores PIS facilitan el uso de la banca online para hacer pagos electrónicos, mientras que los proveedores AIS permiten la recogida y almacenamiento de información de las diferentes cuentas bancarias del consumidor en un solo lugar. Con la creciente popularidad de esta tecnología y otras formas de Fintech, y tomando en consideración de que la experiencia aporta una mayor perspectiva sobre el impacto que esto puede tener en la Sociedad, se espera que se desarrolle nueva normativa en el futuro. 

Los datos financieros son datos sensibles y de gran valor, y por ello se requiere especial protección sobre los mismos. La legislación y las directrices que se encuentran actualmente disponibles tienen el objetivo de ayudar con el cumplimiento de los principios que deberían primar, tales como la solidez técnica y la seguridad, la privacidad y el gobierno del dato, la transparencia y la diversidad, la no discriminación y la justicia. Todos ellos son necesarios para que el uso del Fintech sea seguro y beneficioso para todas las partes implicadas. 

Solidez técnica y seguridad.

La seguridad de los datos personales y financieros son uno de los principales factores a considerar cuando se toman decisiones sobre qué herramientas emplear para gestionar las finanzas. Una brecha de seguridad que afecte a la información financiera podría tener graves efectos en los interesados debido a la naturaleza sensible de los datos. En consecuencia, las instituciones financieras y las compañías Fintech priorizan el desarrollo y la implementación de medidas que aseguren una transacción segura a través de la tecnología, tales como, el cifrado, el control de acceso, tests de penetración, tokenización, la autenticación de doble factor, procesos de aprobación multietapas y políticas de backup, las cuales refuerzan la seguridad en el usuario y los protegen de ataques malware, brechas de seguridad y robos de identidad, entre otros factores de riesgo. 

Privacidad y gobierno del dato.

El artículo 22 de RGPD prohíbe que un interesado quede sujeto a una decisión basada únicamente en el tratamiento automatizado, salvo en determinadas circunstancias. La toma automatizada de decisiones en la industria Fintech puede producir efectos jurídicos o de consecuencias similares en los individuos, de manera que tendrían que estar sujetas a requisitos adicionales. Asimismo, una Evaluación de Impacto de Protección de Datos puede ser necesaria a fin de determinar los riesgos que se pueden derivar para los sujetos y la mejor manera de mitigarlos. Además, cabe recordar que cuando se trate de categorías especiales de datos,  las decisiones automatizadas sólo podrán tener lugar si se cuenta con el consentimiento explícito del interesado o si es necesario por razones de interés público esencial. Una automatización robótica de procesos puede traer grandes beneficios para las empresas, pero se debe hacer en cumplimiento con el RGPD para asegurar que ninguna toma automatizada de decisiones resulta en prácticas peligrosas para los derechos y libertades de los sujetos. 

Diversidad, no discriminación y justicia.

Son varios los estudios que hasta ahora se han realizado para explorar los niveles de equidad de la tecnología Fintech, y la posible existencia de discriminación en la concesión de créditos y otros aspectos de la industria. Los algoritmos pueden bien perpeturar los sesgos humanos o desarrollar los suyos propios. Algunos sesgos comunes en el sector financiero surgen alrededor del género, el origen étnico o racial y la edad. La tecnología IA, y especialmente en el sector Fintech, donde los sesgos pueden afectar a circunstancias como el acceso individual a un préstamo y las oportunidades que ello ofrece, deben prevenir la discriminación y proteger la diversidad. Elementos como emplear datos de entrenamiento de calidad, seleccionar el modelo de aprendizaje adecuado y trabajar con un equipo multidisciplinar pueden ser útiles para reducir el sesgo.

Transparencia. 

Mientras que el uso de IA ha generado una transformación positiva en la industria financiera, la cuestión alrededor de cómo se aplica la ética de la IA es inevitable. El principio de transparencia ofrece una oportunidad de introspección en relación a aspectos éticos y regulatorios, a fin de darles una solución.  Los algoritmos empleados en el sector Fintech deberían ser transparentes y explicables. La autoridad de control de Reino Unido, ICO, y el Instituto Alan Turing han desarrollado sus directrices “Explicando decisiones tomadas con IA” para ayudar a las empresas con este cometido, donde sugieren elaborar una “matriz de transparencia” para mapear las diferentes categorías de información frente a las partes relevantes en cada caso.  IA fiable es IA que se adoptará y aceptará con más facilidad por parte de los sujetos. La transparencia en los modelos y procesos Fintech y en otras tecnologías de IA permite dar una respuesta a los sesgos y otros dilemas que surgen con la implementación y uso de la misma. 

No te pierdas nuestro vlog sobre la ética de la IA en el sector Fintech:

https://www.youtube.com/watch?v=C3gsqKcjufs

Puedes aprender más sobre ética y regulación de la IA en nuestro Canal de Youtube

¿Tienes dudas sobre la regulación del sector Fintech? Podemos ayudarte. Nuestros servicios integrales abarcan tanto Evaluaciones de Impacto de Protección de Datos como Evaluaciones de la Ética de la IA, junto con la implementación del RGPD y la LOPDGDD y subcontratación del Delegado de Protección de DatosInfórmate aquí.

Dilemas éticos y de privacidad en las redes sociales

Los dilemas éticos y de privacidad se encuentran cada vez más presentes en las redes sociales debido a la proliferación de las páginas “explorar”, “descubrir” y “para ti”. 

 

Las páginas “explorar”, “descubrir” y “para ti” ofrecen contenido que la aplicación considera que va a ser de interés para el usuario, conforme a diversos factores como las interacciones, la información del vídeo y los ajustes de la cuenta y del dispositivo, los cuales el algoritmo pondera de manera individual. Esta característica de las redes sociales ha despertado algunas preocupaciones en relación a la elaboración de perfiles y otros aspectos de privacidad, sobre todo en lo que respecta a los datos personales de niños. 

 

Mientras que las decisiones automatizadas están permitidas bajo determinadas circunstancias, se debe prestar especial atención cuando éstas implican tratamiento de datos personales de niños. 

 

Las decisiones del contenido que aparece en las páginas “explorar” y “descubrir” se toman en gran medida mediante elaboración de perfiles del usuario de cada cuenta. Mientras que esta herramienta puede resultar de gran ayuda para el análisis de grandes volúmenes de datos de manera rápida y eficiente para mostrar tan sólo lo que resulta de mayor interés para el individuo, también conlleva muchos riesgos en lo que concierne a la ética y a la privacidad.  Muchas de las veces el usuario no es consciente de que se está llevando a cabo elaboración de perfiles, lo cual puede derivar en efectos adversos. El Artículo 22 del RGPD no prohíbe la toma automatizada de decisiones, incluso cuando se trata de niños, pero siempre y cuando éstas no tengan efectos legales o les afecten de una manera similar. El Artículo de trabajo del Grupo 29, ahora CEPD, advierte de que “la toma automatizada de decisiones que influyen en las elecciones y comportamientos de los niños podría de manera potencial tener efectos jurídicos o que les afecten significativamente de manera similar, en función de la naturaleza de las elecciones y comportamientos en cuestión”. El RGPD requiere que se aplique una protección especial cuando se efectúa elaboración de perfiles, especialmente con niños o cuando los servicios pueden ser utilizados por los mismos. 

 

Muchos de los datos que tratan las redes sociales requieren consentimiento, sin embargo, se precisa de una edad mínima para poder otorgarlo. 

 

Conforme a las últimas novedades en relación de la normativa ePrivacy, gran parte de los datos que tratan las redes sociales y las páginas web pueden requerir consentimiento. En muchas partes del mundo, los menores no están legalmente capacitados para otorgar su consentimiento al respecto. La edad mínima a tales efectos varia por país. En España, se ha definido e los 14 años, pero en otros países europeos esta edad se sitúa en los 16.  En caso de que el niño tenga una edad inferior, los padres o tutores deberán otorgar su consentimiento en su lugar. Como responsable del tratamiento, es importante conocer qué datos deben tratarse con consentimiento, quién debe otorgarlo y cómo éste debe recogerse, así como cuáles pueden basarse en otra base legítima. 

El desarrollo de redes sociales debe también tener en cuenta los principios éticos.  

 

Una IA de confianza debe ser legítima, ética y robusta. Es necesario que el desarrollo de redes sociales vele porque los datos se almacenen de manera segura, los algoritmos sean explicables y que el contenido no incluya sesgos. Principios éticos como la robustez técnica, la privacidad y la no discriminación son esenciales. Dado que los algoritmos de las redes sociales son los que muestran el contenido de las páginas “explorar” y “descubrir”, es crucial que las decisiones tomadas por los sistemas de IA sean completamente transparentes y que se preste atención a la posibilidad de que cuenten con sesgos discriminatorios. Una evaluación de la ética de la IA es necesaria para determinar si las decisiones son éticas y legítimas, así como las garantías y medidas que deben aplicarse. 

 

¿Quieres saber más sobre los dilemas éticos y de privacidad de las redes sociales? Visita nuestro vlog, donde explicamos los principales conceptos de manera sencilla. Publicamos contenido de manera regular, ¡así que no te olvides de suscribirte! 

 

 

¿Realizas elaboración de perfiles o análisis de los gustos de tus clientes? ¿Has implementado todas las medidas necesarias en cumplimiento del ePrivacy, RGPD y LOPDGDD? Aphaia ofrece servicios de consultoría para el ePrivacy, el RGPD y la LOPDGDD, y también evaluaciones de impactoevaluaciones de la ética de la IA y subcontratación del Delegado de Protección de DatosInfórmate aquí.

 

Directrices Éticas para una IA Fiable

Novedades en las Directrices Éticas para una IA Fiable.

El Alto Grupo de Expertos en Inteligencia Artificial publicó el mes pasado un conjunto de orientaciones enfocadas a la implementación práctica de las Directrices Éticas para una IA fiable. En el blog de hoy hablamos sobre este documento y su impacto en el desarrollo de sistemas de IA. 

 

El mes pasado informamos en nuestro blog de la publicación por parte del Alto Grupo de Expertos en IA de la Lista de Evaluación para una Inteligencia Artificial Fiable. Esta lista es el resultado de un proceso piloto estructurado en tres partes que contó con la contribución de más de 350 empresas y organizaciones y en el que Aphaia tuvo el placer de participar. Así, se recogieron todas las aportaciones a través de una encuesta online, una serie de entrevistas en profundidad y el intercambio de mejores prácticas para alcanzar una IA fiable. Antes de implementar un sistema de IA es necesario asegurarse de que éste cumple con los siete principios identificados como esenciales tanto en las directrices éticas para una IA fiable como en la lista de evaluación. 

 

El objetivo de este documento es promover una IA fiable que cuente con las siguientes tres características: legítima, ética y robusta. Mientras que las orientaciones publicadas por el Alto Grupo de Expertos en IA no detallan el primero de los componentes, sí analizan más en profundidad el segundo y el tercero. 

 

En nuestro último vlog, el primero de una serie de dos vídeos, exploramos los tres primeros de los siete requisitos para una IA Fiable: supervisión y acción humanas, solidez técnica y seguridad y privacidad y gobierno del dato. 

 

Supervisión y acción humanas

“Los sistemas de IA deberían respaldar la supervisión y decisiones humanas, tal y como dicta el principio de autonomía humana”. Las empresas deberían estar concienciadas de los efectos que los sistemas de IA pueden tener en el comportamiento humano en sentido amplio, la percepción humana y las expectativas cuando se enfrentan a sistemas de IA que actúan, sienten y confían como los humanos. 

Conforme a las directrices “los sistemas de IA no deberían de manera injustificada subordinar, obligar, engañar o manipular la condición humana. En su lugar, deberían estar diseñados para aumentar, complementar y empoderar las habilidades humanas sociales, culturales y cognitivas”. Los sistemas de IA deberían diseñarse con la figura del ser humano como centro y permitir oportunidades de elección humana. 

Solidez técnica y seguridad

Conforme al principio de prevención del daño destacado en las directrices, “los sistemas de IA no deberían causar ni exacerbar el daño y tampoco afectar a los seres humanos de forma negativa de ninguna manera. Esto implica la protección de la dignidad humana y la integridad física y mental”. 

Las empresas deberían reflexionar sobre la resiliencia al ataque la seguridad, precisión, confiabilidad y planes de recuperación y reproductibilidad. 

Privacidad y gobierno del dato

La privacidad es un derecho fundamental que se ve afectado por los sistemas de IA. Los sistemas de IA deberán garantizar la privacidad y la protección de datos a lo largo de todo el ciclo de vida del sistema. Se recomienda implementar un proceso que involucre tanto a los altos cargos como a aquellos que se encuentran en el nivel operacional de la empresa. 

En relación al principio de prevención del daño, hay algunos factores clave a tener en cuenta, a saber: gobierno del dato adecuado, relevancia de los datos empleados, protocolos de acceso y capacidad de los sistemas de IA para procesar los datos de una manera que proteja la privacidad. 

 

Cuando se lleve a cabo la evaluación, se recomienda no sólo prestar atención a las áreas más controvertidas, sino también a aquellas que no tienen una fácil respuesta. El objetivo de esta lista es guiar a los creadores y desarrolladores de IA a alcanzar una IA fiable, y debería adaptarse a cada caso específico de manera proporcionada. 

Para aprender más sobre los principios que el Alto Grupo de Expertos considera necesarios para alcanzar una IA fiable, no te pierdas la parte dos y suscríbete a nuestro canal. 

¿Necesitas asesoramiento con la Lista de Evaluación para una IA Fiable? Podemos ayudarte. Nuestros servicios integrales abarcan tanto Evaluaciones de Impacto de Protección de Datos como Evaluaciones de la Ética de la IA, junto a la implementación del RGPD y la LOPDGDD y subcontratación del Delegado de Protección de Datos.

IA en el sector inmobiliario

La ética de la IA en el sector inmobiliario: consejos adicionales para lograr las mejores prácticas.

Incorporar la ética de la IA en el sector inmobiliario es esencial para mantener la integridad en la industria, pues los sistemas de IA ya forman parte de sus procesos. 

 

A principio de este mes ya exploramos la importancia de la ética de la IA en el sector inmobiliario a fin de que la industria avanzase junto a la regulación, a la par que se consolidaría en beneficio de los compradores, vendedores y la industria y la sociedad en general. La Inteligencia Artificial tiene la habilidad de revolucionar el sector inmobiliario, pero se deben aplicar las medidas necesarias para asegurar que funciona de manera ética, a fin de que el beneficio que aporta sea real. En este artículo exploramos los principios éticos que deberían regir la IA en el sector inmobiliario con el propósito de que su uso revierta efectos positivos sobre toda la sociedad en general y no sobre un número pequeño de individuos únicamente.  

 

Las dificultades para alcanzar este objetivo son más evidentes si se toma en consideración que el sector inmobiliario es la segunda industria menos digitalizada del mundo. Son muchos los factores que deben tenerse en cuenta al acercar el uso de la IA al sector inmobiliario y de la construcción. Dado que son muchas las categorías de datos que forman parte de una propiedad y su entorno, resulta necesario que el código de cualquier sistema de IA que opere con tal información haya sido creado con las máximas garantías. También se precisa transparencia extrema durante todo el proceso para así asegurar que estos sistemas de IA van a ser acordes a la regulación, y evitar la discriminación en tanto sea posible.  

 

La solidez técnica y la seguridad en el desarrollo de la IA.

 

Actualmente el machine learning es la variedad de IA más empleada en este contexto. Mientras que este enfoque ha demostrado ser apropiado en determinadas ocasiones, otras veces también puede presentar fallos.  in embargo, si se va a emplear el machine learning de forma efectiva y ética, es importante estar concienciados de las probabilidades de un tratamiento erróneo, y ser capaces de mitigar su impacto.  Debemos comprender las fortalezas y limitaciones de esta tecnología para asegurar que se utiliza de la mejor forma posible.

 

El desarrollo de los sistemas de IA debería considerar el impacto social y medioambiental. 

 

Cuando se trata de elegir una vivienda son muchos los factores que entran en juego. Las especificaciones de la casa, la demografía del vecindario y otros tantos elementos son esenciales a la hora de tomar una decisión. Y es aquí también donde surgen las oportunidades, para crear IA que puede diferenciar entre todos ellos y encontrar las propiedades que se ajusten mejor a los compradores, no sólo según el precio o la localización, sino también por ejemplo conforme a los materiales de construcción o incluso la proximidad a determinados servicios.  

 

Es importante asegurar que los sistemas de IA no van a incurrir en discriminación.

 

Cuando se utilizan sistemas de IA en el sector inmobiliario, es crucial asegurar que los compradores no van a ser automáticamente colocados en una lista negra conforme a factores como la nacionalidad, origen o simplemente por razones de no encajar con la demografía actual de un determinado vecindario. Es posible que se incluyan sin querer sesgos históricos cuando se crea el algoritmo, de modo que éste reflejará los prejuicios del ser humano.  Mientras que es poco probable que un software de IA discrimine intencionalmente contra un determinado grupo demográfico, sí puede ocurrir que este resultado se de a raíz del conjunto de datos de entrenamiento, que puede incorporar sesgos.  Las empresas del sector inmobiliario deberían establecer una fase de prueba de la IA para asegurar que se abordan y eliminan dichos sesgos. 

 

Los sistemas de IA empleados en el sector inmobiliario deberían desarrollarse y funcionar dentro de la regulación. 

 

Los datos tanto de los compradores como de los vendedores y cualquier parte implicada en el proceso deberán protegerse durante toda la duración del mismo. Todos los procesos de los sistemas de IA debería regirse por el RGPD para asegurar que se respetan los principios y requisitos. Podría plantearse el argumento de que el RGPD limita el desarrollo de la IA porque las startups que se basan en dicha tecnología necesitan utilizar datos para entrenar los algoritmos de machine learning. Sin embargo, los sistemas de IA tendrán que funcionar de manera ética y conforme a la regulación, incluso durante las fases de desarrollo. Probablemente será necesario elaborar una Evaluación de Impacto y una Evaluación de Interés Legítimo.  

 

Uno de los objetivos del RGPD es asegurar que los interesados tienen el derecho de decidir qué terceras partes usan su información. Esto comienza con el derecho de conocer. En este sentido, la transparencia es clave porque los sujetos tienen derecho a recibir información sobre cuántos de sus datos se están empleado y cómo. Mientras que puede ser difícil ofrecer una transparencia absoluta, los responsables de los datos deben asegurar que cumplen con el RGPD. Hallar métodos de desarrollo de IA que sean acordes al RGPD no beneficiará sólo a los proveedores de servicios, sino también a los sujetos, si se hace de manera adecuada. 

Recientemente lanzamos un vlog donde analizamos el uso de la IA en el sector inmobilario como parte de nuestra serie de vídeos sobre IA en varias industrias. 

Suscríbete a nuestro canal de YouTube para no perderte la Parte II. 

¿Tienes dudas sobre cómo la IA está transformando el mercado inmobiliario y cuáles son los riesgos? Podemos ayudarte. Aphaia ofrece servicios de consultoría para el RGPD y la LOPDGDD, y también evaluaciones de impactoevaluaciones de la ética de la IA y subcontratación del Delegado de Protección de DatosInfórmate aquí.