La compañía ha anunciado que la adecuación de su IA a los principios éticos será supervisada por un comité externo
Tras la reciente publicación por parte de la Comisión Europea del informe sobre las bases éticas que deben gobernar el uso de la IA, Google, siguiendo la senda de otras grandes empresas como Amazon y Microsoft, aboga por la implementación de un uso ético de la Inteligencia Artificial, respaldado por el control de un consejo asesor externo.
La ética de la IA se enmarca en el RGPD, que requiere que la aplicación de algoritmos de decisión, normalmente elemento principal de la IA, no derive en un resultado discriminatorio, lo cual precisa que el algoritmo como tal no se encuentre sesgado, y, a su vez, conduce a la necesidad de que el mismo conjunto de datos utilizado para el entrenamiento de la IA parta de una configuración equilibrada. Se trata de un caso de privacidad por diseño, que require la supervisión de un experto desde la primera fase del proyecto.
De manera previa a la designación del comité, el mes pasado la tecnológica hizo públicos los siete objetivos que va a perseguir con la IA, a saber: crear beneficio social, evitar resultados que creen o refuercen sesgos, seguridad, capacidad de explicación y control humano, privacidad por diseño, excelencia científica y limitación de las posibles aplicaciones.
Kent Walter, vicepresidente senior de asuntos globales de Google y el encargado de hacer pública la noticia sobre el comité, ha destacado el reconocimiento facial como uno de los principales asuntos sobre los que se deberá decidir. Asimismo, ha proporcionado la identidad de los miembros del consejo, entre lo que cabe señalar que estará conformado por ocho personas, entre ellos expertos en tecnología, ética, lingüística, filosofía, psicología y política.
ACTUALIZACIÓN: Debido a las críticas recibidas sobre algunos miembros, Google ha decidido disolver la composición inicial del comité y volver a la fase de diseño.