Loading

Blog details

Home

La ética de la IA en la gestión de activos e inversiones

Puesto que los sistemas de IA gobiernan la mayoría de operaciones en la gestión de activos e inversiones, garantizar la aplicación de la ética de la IA resulta esencial para asegurar el respeto a los derechos y principios fundamentales. 

“No tengo dudas”. ¿Algún fan de la serie Billions por aquí? Aquellos que lo sean sabrán que esta es la frase que utilizan los empleados del fondo de inversiones cuando tratan de realizar alguna operación con información privilegiada, pues son conscientes de que basar cualquier movimiento en la misma puede suponer un delito. ¿Y si dijésemos ahora que se podrían lograr prácticamente los mismos resultados pero de forma legal? A estos efectos, la IA puede ser nuestro gran aliado y, por tanto, la ética de la IA toma un papel clave. En este artículo profundizamos en el rol de la ética de la IA en la gestión de activos e inversiones.  

¿Cómo se utiliza la IA en la gestión de activos e inversiones?

Los fondos de inversión han utilizado tradicionalmente modelos informáticos para orientar y tomar decisiones sobre la mayoría de sus movimientos. En los últimos años, sin embargo, también se ha comenzado a emplear sistemas de IA, que permiten a la industria mejorar esta práctica con algoritmos que son completamente autónomos y no dependen de científicos de datos y actualizaciones manuales para funcionar. 

La IA puede analizar grandes cantidades de datos a una gran velocidad en tiempo real, a la par que aprende qué tipo de información puede ser relevante, incluidos artículos, imágenes y publicaciones en las redes sociales. Este conocimiento adquirido se aplica de forma automática y los propios algoritmos se auto ajustan mediante un proceso de prueba y error que genera recomendaciones cada vez más precisas. 

Su principal papel es el siguiente:

  • Encontrar nuevos patrones en los conjuntos de datos; 
  • Permitir el análisis sobre nuevos tipos y formatos de datos;
  • Diseñar nuevas experiencias de usuario e interfaces;
  • Reducir los efectos negativos de los sesgos humanos en las decisiones de inversión.

Para las compañías dedicadas a la gestión de activos e inversiones, estas funciones implican eficiencia y mejora operativa, gestión de riesgos, diseño de la estrategia de inversión, optimización de las gestiones e impulso de las decisiones automatizadas. Sin embargo, es fundamental ser especialmente consciente del riesgo de que otras empresas traten de replicar la tecnología empleada o que incluso alcancen decisiones similares con software equivalente. Así por tanto, resultan vitales aspectos como el secreto comercial, el desarrollo de software propio y la innovación continua.  

¿Por qué la ética de la IA es importante en este contexto?

Muchos de los riesgos derivados del uso de IA en la gestión de activos e inversiones pueden afrontarse mediante la implementación de valores y principios éticos. 

Se describen a continuación algunos de los problemas que pueden surgir en este contexto:

  • Problemas para auditar la IA.
  • Falta de control sobre la calidad de los datos y la robustez. 
  • Dificultades para controlar las decisiones tomadas por los sistemas de IA.
  • Incapacidad de la IA para reaccionar a eventos inesperados que no estén estrechamente ligados a tendencias pasadas y que no cuenten con datos históricos disponibles, como las pandemias. 
  • Obstáculos para que la IA se adhiera a los protocolos actuales de seguridad y ciberseguridad, pues se trata de tecnologías que son nuevas y no se han probado durante un período de tiempo suficiente como para asegurar consistencia. 
  • Omisión de la finalidad social, dejando a algunas partes interesadas atrás.
  • Sesgos humanos, como aversión al riesgo (la preferencia a evitar pérdidas en relación a la generación de ganancias equivalentes) o sesgo de confirmación (la tendencia a interpretar nuevos hechos de tal manera que confirmen nuestras premisas previas). 
  • Sesgos de la propia IA, que pueden derivarse de los mismos conjuntos de datos, procesos, modelos, deficiencias en la programación o por cualquier otra causa. 
  • Lagunas en la atribución de responsabilidades cuando hay terceras partes involucradas, como proveedores de servicios, donde se aplique. 

¿Cómo se puede aplicar la ética de la IA a la gestión de inversiones y activos?

Los riesgos arriba detallados pueden definirse en cuatro categorías, según los requisitos de las Directrices éticas para una IA fiable desarrolladas por el Alto Grupo de Expertos de la Comisión Europea: 

Problema Dificultad para controlar las decisiones tomadas por los sistemas de IA. Incapacidad de reaccionar a eventos inesperados.

Obstáculos para que la IA se adhiera a los protocolos actuales de seguridad.

Falta de control sobre la calidad de los datos y robustez. Problemas para auditor la IA. Sesgos humanos.

Sesgos de los sistemas de IA.

Omisión de la finalidad social. Lagunas en la atribución de

responsabilidades cuando hay terceras partes involucradas.

Solución Acción y supervisión humanas. Solidez técnica y seguridad. Gestión de la privacidad y de los datos. Transparencia. Diversidad, no discriminación y equidad. Bienestar social y ambiental. Distribución de responsabilidades

 

Entre las soluciones identificadas en la table anterior, cabe destacar la acción y supervisión humanas. Existe una necesidad de redefinir el trabajo de los centíficos de datos, pues son ellos los encargados de seleccionar las fuentes de datos y lo integran con la experiencia y filosofía o cultura a fin de determinar tendencias futuras que también toman en consideración algunos contextos específicos que la IA no cubre.  

La respuesta pasa por tener sistemas de IA y empleados que combinen sus habilidades y desempeñen roles complementarios, a través del enfoque denominado “Human in the loop”, en el que los humanos controlan los resultados del modelo de machine learning. 

 

¿Cuál debería ser el enfoque regulatorio?

El sector financiero está muy regulado y en consecuencia cualesquiera herramientas de IA o asesores digitales que se empleen están sujetos al mismo marco normativo y de supervisión que los asesores tradicionales, y es esta la razón por la cual es imprescindible garantizar defensas en el campo de ciberseguridad, como el encriptado de datos, un seguro y políticas de gestión de incidentes. Sin embargo, el uso de sistemas de IA todavía requiere ir un paso más allá en lo que se refiere a la regulación. 

Actualmente no hay estándares internacionales que abarquen el uso de IA en la gestión de inversiones y activos. Es un aspecto complicado en este campo por el desajuste entre innovación y respeto por los derechos y libertades fundamentales.  

Si se toma en consideración la naturaleza de esta industria, podría ser beneficioso orientarlo en varios pasos. Primero, extender la aplicación de la regulación actual a los usos de IA y, después, comprobar las verdaderas consecuencias de la IA en un entorno controlado antes de trasladarlo al entorno real. Esto permitiría identificar las necesidades básicas y comprender en detalle cómo funciona la tecnología antes del establecimiento de un marco normativo vinculante. 

Hasta entonces, la auto regulación y los códigos de conducta pueden ser la primera fase que siente los pilares de una hipotética futura regulación, lo cual podría abarcar un gobierno efectivo y robusto, auditorías regulares sobre el uso de la IA en la empresa, procesos de prueba y aprobación, comités de gobierno y procedimientos documentados.  

Un acercamiento proactivo de la industria a la ética de la IA es necesario para impulsar el desarrollo de estándares. 

Observaciones finales

En palabras de Laurence Douglas Fink, presidente y CEO of BlackRock, “Una de las principales características del comportamiento humano es que los humanos tienen más miedo a perder que disfrute del éxito. Todos los estudios académicos muestran que así es,  el miedo a la pérdida de capital es mucho mayor que el disfrute de las ganancias”. Debemos señalar aquí que los sistemas de IA no tienen miedo a las pérdidas, pero tampoco disfrutan las ganancias: tienen, simplemente, datos. Sin embargo, estas emociones humanas son necesarias para entender el mercado. Esta es una de las razones por las cuales combinar humanos e IA puede ser la herramienta más poderosa para la gestión de activos e inversiones.  

¿Trabajas en un sector diferente al financiero? No te pierdas nuestro conjunto de publicaciones sobre la IA y protección de datos en la industria. Por ahora hemos cubierto todos los aspectos relativos al retail, Parte I y Parte II

¿Te preocupan los efectos del COVID-19, independientemente de la industria? Hemos preparado un blog con algunos consejos que pueden ayudarte, donde hablamos sobre las bases que los negocios deberían seguir para adaptarse al COVID-19

Suscríbete a nuestro canal de YouTube para no perderte la Parte II. 

¿Tienes dudas sobre cómo la IA está transformando la industria financiera y cuáles son los riesgos? Podemos ayudarte. Aphaia ofrece servicios de consultoría para el RGPD y la LOPDGDD, y también evaluaciones de impacto, evaluaciones de la ética de la IA y subcontratación del Delegado de Protección de Datos. Infórmate aquí.

Prev post
La AEPD impone una multa de 25.000 € a Glovo por no designar un DPO
junio 17, 2020
Next post
Aviso del CNIL sobre el uso de cámaras térmicas y cámaras inteligentes
junio 24, 2020

Leave a Comment