Loading

Blog details

Home

IA fiable: de la ética a la regulación.

El estudio publicado por el Parlamento Europeo el mes pasado se basa en las Directrices éticas para una IA fiable del AI-HLEG y busca ofrecer alternativas que puedan ayudar a convertir la ética de la IA en regulación efectiva que derive en IA fiable. 

En anteriores blogs y vlogs hemos hablado sobre la aplicación de las Directrices éticas para una IA fiable en varios contextos e industrias, como el retail o el sector inmobiliario. Sin embargo, resulta necesaria una concreción de los términos. Con dicho fin ha publicado el Parlamento Europeo su último documento donde explora diferentes alternativas para desarrollar política y legislación de IA.  

Consideraciones importantes sobre la ética

El Parlamento Europeo observa que hay algunos puntos iniciales sobre ética que deberían definirse y comprenderse antes de avanzar con el análisis de implicaciones más detalladas sobre la ética de la IA: 

  1. La ética no se tratar de rellenar casillas, sino que debería canalizarse mediante preguntas basadas en la deliberación, la crítica y la investigación. 
  2. La ética debería concebirse como un proceso continuo de comprobación y actualización constante. 
  3. La IA habría de entenderse como un experimento social que hace posible comprender sus límites éticos y los tipos de cosas que deben aprenderse. Este enfoque puede facilitar el control de los efectos sociales y así emplearse estos para mejorar la tecnología y su introducción en la sociedad. 
  4. Los dilemas morales podrían imposibilitar que se satisfaga todos los principios éticos y compromisos de valores al mismo tiempo, lo cual significa que no siempre habrá una respuesta concreta a un problema, sino que en ocasiones lo que se tendrá será un conjunto de alternativas asociada cada una a un determinado “residuo moral” . 
  5. El objetivo de la ética es ofrecer un razonamiento lo suficientemente sólido como para conducir a un sujeto a actuar en la forma que piensa que es la mejor o la más correcta. 

Aspectos clave sobre la ética de la IA

Conforme al estudio, hay seis elementos principales de la IA que deberían abordarse en lo que se refiere a la implementación ética de los algoritmos y sistemas: 

  • Transparencia. Los legisladores necesitan tratar con tres puntos esenciales: la complejidad de las soluciones de IA, la ofuscación intencional de aquellos que los diseñan y la dificultad de explicar cómo un input concreto se convierte en un output específico. 
  • Sesgos e imparcialidad. Los datos de entrenamiento se consideran cruciales en este contexto y es necesario definir los conceptos de “justicia” y “precisión”. 
  • Contextualización de la IA en la sociedad en que ha sido creada y clarificación del papel de la sociedad en dicho desarrollo. 
  • Rediseño de la evaluación de riesgos para que sea relevante a los efectos perseguidos. 
  • Evaluaciones éticas de la tecnología (eTA). El eTA es un documento escrito que busca recoger el diálogo entre la persona que se encarga de la ética y aquella responsable de la tecnología, y recoge una lista de problemas éticos relacionados con la aplicación de la IA, con la finalidad de identificar todos los posibles riesgos y evitar las hipotéticas consecuencias negativas.  

¿Por qué es necesaria la regulación? 

El Parlamento Europeo señala algunas razones que motivan la necesidad de normativa: 

  • El carácter crítico de las controversias éticas y de derechos humanos generados por el desarrollo y despliegue de la IA. 
  • La necesidad de proteger a la gente (por ejemplo, el principio de proporcionalidad). 
  • El interés del estado (dado que la IA va a emplearse en áreas gubernamentales como prisiones, impuestos, educación o bienestar y protección social de menores). 
  • La necesidad de crear un campo de juego equilibrado (para lo que, por ejemplo, la auto-regulación no sería suficiente). 
  • La necesidad de desarrollar un conjunto común de reglas para que lo implementen todos los gobiernos y administraciones públicas. 

¿Cuáles son las opciones de regulación?

Mientras que la ética se centra en buscar respuestas a problema sociales y del entorno, la regulación puede codificar el comportamiento ético deseado. 

El estudio propone una serie de alternativas que podrían ser adoptadas por los legisladores en el Parlamento Europeo: 

  1. Certificados de higiene de datos obligatorios (DHB) para todos los desarrolladores de IA a fin de que sean elegibles para vender sus soluciones al gobierno y a administraciones e instituciones públicas. Este certificado no exigiría análisis del software propietario y tampoco obligaría compartir datos con la competencia. 
  2. Evaluaciones éticas de la tecnología obligatorias (eTA) para todos los gobiernos y organizaciones que empleen sistemas de IA, a desarrollar de forma previa a la implementación de la tecnología. 
  3. Obligatoria definición clara de las metas perseguidas con el uso de IA en lo que se refiere a administraciones públicas e instituciones gubernamentales. El propósito es evitar un uso genérico de la IA en la Sociedad con la intención de que se aprenda un “algo” desconocido. En su lugar, debe haber un específico y explícito “algo” que aprender. 
  4. Informe obligatorio de rendición de cuentas que debe ser elaborado por todas las organizaciones que utilicen sistemas de IA, como respuesta a los problemas identificados en el eTA.

Consideraciones prácticas sobre los informes eTA.

Criterio

Los siete requisitos fundamentales recogidos en las Directrices éticas para una IA fiable podrían utilizarse para estructurar un eTA, en concreto:

  • Agencia y supervision humanas.
  • Robustez técnica y seguridad.
  • Privacidad y gobierno del dato.
  • Transparencia.
  • Diversidad, no discriminación y equidad.
  • Bienestar social y medio-ambiental.
  • Rendición de cuentas.

Por otro lado, el Parlamento Europeo también sugiere utilizar las siguientes variables: (1) Divulgación y uso de la información; (2) Control, influencia y poder; (3) Impacto social y patrones de contacto; (4) Privacidad; (5) Sostenibilidad; (6) Reproducción humana; (7) Género, minorías y justicia; (8) Relaciones internacionales e (9) Impacto en los valores humanos. 

La eTA debería concretarse al máximo, con lo que podría extenderse para cubrir: (a) el contexto específico en el que se utilizará la IA; (b) la metodología empleada; (c) las partes implicadas (d) una relación de los valores éticos y derechos humanos que precisan atención.

¿Quién debería encargarse de realizar los informes eTA?

Las tareas que implica el eTA requieren experiencia en la identificación de problemas éticos y en situarlos dentro de un marco conceptual para el análisis. Por este motive, el Parlamento Europeo destaca la posibilidad de que se genere una nueva figura dentro de las organizaciones que se encargue de estos procesos. 

¿Podrán las PyMes afrontar esto?

A fin de crear un campo de juego equilibrado para las PyMes, el Parlamento Europeo planea ofrecer un margen de adecuado de unos tres años y ofrecer oportunidades europeas de financiación a las PyMes para ayudarlas en la realización de los informes y con todas las medidas relacionadas con la capacidad de construcción. Esta filosofía iría en paralelo con la implementación incremental del RGPD en las compañías.

¿Utilizas IA en tu empresa? El futuro marco regulatorio de la UE podría afectarte. Aphaia ofrece servicios de consultoría para el RGPD y la LOPDGDD, y también evaluaciones de impactoevaluaciones de la ética de la IA subcontratación del Delegado de Protección de DatosInfórmate aquí.

Prev post
Artificial Intelligence: From Ethics to Regulation
July 10, 2020
Next post
The CCPA Enforcement Date for employment information and business-to-business data may be pushed back to January 1, 2022.
July 15, 2020

Leave a Comment