Loading

Blog details

Home

Los puntos clave de la primera asamblea de la Alianza Europea de Inteligencia Artificial

La primera asamblea de la Alianza Europea de Inteligencia Artificial tuvo lugar en The Egg, Bruselas, este pasado miércoles 26.

Un año después de la creación del AI HLEG y la Alianza Europea de IA, la primera Asamblea de sus miembros ha tenido lugar esta semana en Bruselas. Fue un evento de un día que congregó a todos los agentes interesados en la materia, tanto ciudadanos, como empresas, instituciones públicas y organismos reguladores.

El evento se dividió en dos partes diferentes. La primera de ellas estuvo formada por dos mesas redondas donde el HLEG presentó sus dos logros más recientes:

  • Las recomendaciones de política e inversión de la IA.
  • El lanzamiento de un proceso piloto para las recomendaciones sobre la ética de la IA.

La siguiente parte se desarrolló en torno a los próximos pasos a tomar para la estrategia europea de IA.  Se ofreció una mesa redonda sobre el gobierno internacional de la IA y también cuatro talleres que se celebraron en paralelo: competitividad, investigación y habilidades, Regulación y marco legal e impacto en la sociedad y en el medioambiente.  Todos los ponentes eran parte bien del AI HLEG, del OECD o de empresas privadas comprometidas e implicadas con la IA. Se seleccionaron estos temas por considerarlos los mayores retos que se presentan en Europa para la implementación de la IA. En Aphaia asistimos al correspondiente al marco legal; como pioneros y líderes en servicios IA, es crucial para nosotros estar constantemente actualizados de las últimas novedades que vengan desde la UE en relación a la Regulación de la IA, de cara a adaptar nuestras Evaluaciones sobre la ética de la IAcon la perspectiva e indicaciones de la Comisión. Allá donde avance el AI HLEG, avanzará Aphaia.

Hemos resumido en los siguientes párrafos las principales líneas de discusión que se trataron en la asamblea:

Recomendaciones sobre políticas e inversión en IA

Se trata del Segundo documento preparado por el AI HLEG, tras la publicación de las  recomendaciones éticas para una IA de confianza en abril de este año. La finalidad de ello es fijar un contexto en el que una IA de confianza pueda ser realmente desarrollada y desplegada en Europa, y darle una dimensión práctica que permita aplicarla tanto a PyMEs como a grandes compañías. En este sentido, Juraj Podruzek destacó la necesidad de aproximar las recomendaciones al usuario medio.

Pekka Ala-Pietilä comentó las conclusiones más importantes del informe:

  • Empoderar y proteger a los humanos y a la sociedad.
  • Comenzar un acercamiento aplicado en cuanto al panorama de la IA.
  • Asentar un Mercado Único Europeo para una IA de confianza.
  • Desarrollar ecosistemas de IA mediante alianzas multisectoriales de los agentes implicados.
  • Fomentar la economía del dato europea.
  • Explotar el rol multi-faceta del sector público.
  • Fortalecer y aunar las capacidades de investigación europeas.
  • Promover la educación del Cuarto Poder.
  • Adoptar una aproximación basada en el riesgo para el gobierno de la IA y asegurar un marco regulatorio apropiado y relevante.
  • Estimular un ambiente de inversión abierto y lucrativo.
  • Abrazar un modo de trabajar holístico que combine una visión a 10 años con un plan flexible y dinámico.

Thiébaut Weber consideró que uno de los principales desafíos en este campo es oponer las oportunidades que ofrece la tecnología con la realidad de algunas personas. “Sabemos que la IA puede generar valor añadido para muchos sectores, pero también sabemos que hay por ejemplo un 40% de ciudadanos europeos que sufren analfabetismo digital. No debemos dejar atrás a nadie; La IA es para todos, para el beneficio de todos”.

En Aphaia prepararemos un artículo-resumen de este nuevo informe del HLEG y lo publicaremos en el blog de Aphaia tanto en español como en inglés. El documento original está disponible aquí.

Lanzamiento del proceso piloto para las recomendaciones europeas sobre la ética de la IA

El objetivo de este proceso es recopilar feedback de los miembros de la Alianza Europea de IA en la lista de evaluación contenida en las Recomendaciones que operacionaliza los requisitos clave. Todos los agentes implicados están invitados a enviar sus comentarios sobre cómo debería mejorarse, por medio de una encuesta que está abierta hasta diciembre de 2019 y a la que se puede acceder a través del siguiente enlace. También se realizarán entrevistas en profundidad con una serie de organizaciones relevantes a estos efectos.

El resultado que se busca una vez que todos los interesados hayan contribuido con sus ideas es realizar una revisión de la lista y preparar un conjunto de recomendaciones sobre la ética de la IA aplicadas a diferentes sectores.

Andrea Renda señaló que se debería perseguir una Regulación proactiva antes que auto Regulación.

Gobierno internacional

Raja Chatila apuntó a los conceptos científicos y éticos que están aún indeterminados como una de las causas de la dificultad de implementar una IA de confianza, como la idea de transparencia, que va más allá de la explicabilidad. “Necesitamos adoptar una visión a largo plazo que incluya diferentes pasos y agentes, y no imponer de manera inmediata por ejemplo que cada pieza de machine learning debe ser completamente explicable para mañana. Si asentamos esta meta, la gente trabajará en ello. La proporcionalidad, la flexibilidad y la Regulación conducen a la innovación y a la creación de un clima de confianza”.

Moez Chakchouk, de la UNESCO, defiende el pensamiento global. “En términos de concienciación hay una gran diferencia entre países desarrollados y países en vías de desarrollo. La educación es clave, deberíamos construir conciencia por medio de la educación. Una IA robusta, segura, justa y transparente tiene primero que respetar los valores humanos y democráticos”.

Dirk Pilat, de la OECD, abogó por la importancia de que todos los países pongan todo su trabajo previo en común y se reflexione sobre ello. “Estamos todos intentando averiguar y entender lo mismo y necesitamos compartir nuestras prácticas para construir un consenso”.

Ética y legalidad

Se trató de un taller interactivo donde los ponentes ofrecieron su visión sobre la materia y después dieron pie a la intervención de los asistentes con dudas y reflexiones. El tema principal versó sobre cómo debería configurarse el marco regulatorio de la IA. ¿Debería ser una regulación completamente nueva? ¿Debería ser auto Regulación? ¿Debería abrirse a la industria?

Ursula Pachl comentó que deberíamos mirar el actual marco regulatorio de la UE. “Es el momento de que analicemos la regulación existente, ¿cumple con los objetivos? ¿Cuáles son las grietas regulatorias que debemos suplir? Es la tecnología la que sirve a las personas y no al revés. Deberíamos usar la tecnología conforme a las leyes, valores y principios éticos”.

Ramak Molavi, por su lado, dijo que deberíamos transformar el cumplimiento con la ley en una fuente de competitividad. “¿Por qué la Regulación tiene una reputación tan mala? ¿Necesitamos Regulación específica para IA? Ya tenemos muchas leyes que se aplican a la IA (competencia, neutralidad, RGPD, etc.) Tenemos reglas para la IA pero ¿cómo las implementamos? Necesitamos probarlas antes de lanzarlas, y esto sólo funcionará con ética desde el diseño. No Podemos avanzar con la industria trabajando por su cuenta y dejando a los Gobiernos fuera.  La auto-Regulación no es para aquellos que quieren algo inmediato, es para empresas más maduras. Deberíamos ralentizar el ritmo y ver qué podemos hacer para desarrollar una IA sostenible y encontrar una alternativa a la auto Regulación. Necesitamos una nueva perspectiva para regular la innovación. Todo el mundo quiere que las leyes sean perfectas desde el principio, pero para ello necesitamos conocimiento previo.”

El evento terminó con un repaso a las conclusiones principales de cada uno de los talleres desarrollados en paralelo y se cerró con una reflexión final sobre la importancia de acercar la Regulación de la IA a la realidad de las empresas y sociedad.

Si necesitas asesoramiento en IA para tus productos y servicios, Aphaia ofrece evaluaciones de la ética de la IA y evaluaciones de impacto.

Prev post
Multas y sanciones de las autoridades de control de protección de datos en la UE
junio 26, 2019
Next post
La compañía EE, multada por la ICO por el envío de mensajes de texto sin base legal
julio 3, 2019

Leave a Comment