Loading

Blog details

Home

Nueva herramienta de IA evita el reconocimiento facial en fotografías.

Una nueva herramienta de IA emplea diferentes capas para evitar el reconocimiento facial en fotografías. 

 

Se ha desarrollado una nueva herramienta de IA con el objetivo de combatir los efectos del rápido desarrollo del software de reconocimiento facial, cuyas implicaciones para la privacidad están cerca de materializarse. Imaginemos por ejemplo que cualquier persona es capaz de conocer nuestra identidad con una simple fotografía. O peor, imaginemos que somos identificados por error mediante un software de reconocimiento facial y tenemos que lidiar con las consecuencias o defendernos de un delito que no hemos cometido. Circunstancias como estas son ya una realidad y se da por tanto una respuesta de la sociedad y del mercado en consecuencia. Es ampliamente reconocido desde los inicios del uso de este tipo de tecnología que el reconocimiento facial puede conllevar una fuerte amenaza para la privacidad y la libertad de los sujetos. En algunos casos, las fotos que subimos a las redes sociales y que compartimos de forma pública son recogidas por las empresas para entrenar a sus algoritmos, los cuales después se venden de manera comercial. Este hecho permite un rápido desarrollo de la tecnología, pero también acelera la evolución del riesgo que su uso supone para nuestra privacidad. 

 

Los riesgos del reconocimiento facial podrían materializarse pronto y se requieren soluciones con urgencia. 

 

Conforme a un artículo de Forbes publicado el año pasado, una serie de manifestantes en Hong Kong fueron identificados mediante el uso de cámaras y torres de reconocimiento facial. Varias técnicas como láseres, máscaras de gas y antifaces fueron empleadas para burlar el sistema y evitar posibles detenciones por la protesta.  

 

Uno de los principales problemas que se están dando es el hecho de que el reconocimiento facial está especialmente diseñado para varones occidentales, lo cual implica una tasa de identificación errónea mucho más elevada para mujeres de color. 

 

El simple hecho de subir una fotografía ya conlleva un riesgo. Por ejemplo, Rekognition, la tecnología de reconocimiento facial de Amazon, crea perfiles por nosotros conforme a fotografías online, experiencias de compra y otra información de las aplicaciones de Amazon. 

 

La legislación disponible por el momento no ofrece soluciones efectivas a este tipo de problemas derivado del uso de reconocimiento facial, con lo que las herramientas creativas están tomando dicho papel en su lugar. 

 

Esta nueva herramienta de IA podría ayudar a evitar los riesgos del reconocimiento facial. 

 

Mientras que se elabora un marco normativo apropiado que aborde los riesgos derivados del uso de reconocimiento facial, la cuestión principal es si la ley puede avanzar al mismo ritmo que lo hace la tecnología. Si bien este no parece ser el caso, se está desarrollando nueva tecnología que podría solventar este problema en su lugar. Una de estas soluciones es la denominada Fawkes, cuyo nombre proviene de las máscaras Guy Fawkes de los revolucionarios de la película y cómic de V de Vendetta. Esta herramienta emplea inteligencia artificial para alterar de manera muy sutil e imperceptible las fotografías, y así burlar los sistemas de reconocimiento facial. Conforme a sus creadores, Fawkes tiene un porcentaje de éxito del 100% según el actual estado del arte, empleada frente sistemas como Microsoft’s Azure Face, Amazon’s Rekognition y Megavil’s Face++. Si bien, aunque esta herramienta promete una gran utilidad en cuanto a la protección de los individuos, sólo funcionará en aquellos casos en que se decida usar, y desde el momento en que efectivamente se aplique. Esto significa que las imágenes y toda la información vinculada recogida por empresas de reconocimiento facial en el pasado no pueden ser modificados de manera retroactiva para proteger la identidad. Además, a fin de que el impacto sea real, se requeriría un uso masivo de la misma.  

 

¿Cómo funciona esta nueva herramienta de IA?

 

Esta tecnología por capas te permite subir selfies y otras fotografías sin miedo a que las empresas las empleen para identificarte o para entrenar a los algoritmos con dicho fin. En dos minutos, la herramienta procesa la fotografía y aplica sobre ella cambios imperceptibles para el ojo humano pero que impiden un correcto funcionamiento del software. Ben Zhao, profesor de ciencias de la computación en la Universidad de Chicago y que colaboró en la creación de Fawkes afirmó lo siguiente: “Lo que estamos haciendo es utilizar la fotografía modificada como un Caballo de Trolla, para corromper el aprendizaje de estos modelos no autorizados y que aprendan así datos erróneos sobre la identidad de una persona y lo que la hace única”. El objetivo es corromper la base de datos que los sistemas de reconocimiento facial necesitan para funcionar, lo que incluye ingentes cantidades de fotografías extraídas de redes sociales. 

 

Si bien la ley está haciendo su parte para reducir los efectos nocivos del reconocimiento facial, se espera que softwares como Fawkes jueguen un rol esencial en la ralentización del desarrollo de la tecnología de reconocimiento facial mediante la reducción de fotografías válidas disponibles para entrenar los algoritmos. Esta solución también ayudará a todos aquellos sujetos que estén preocupados por la protección de su identidad, principalmente porque en la mayoría de casos no hay forma de saber cuándo ni cómo se están usando nuestras fotografías.  

 

¿Utiliza tu empresa reconocimiento facial o trata datos biométricos?  Si es así necesitarás cumplir con el RGPD, la LOPDGDD y otra normativa específica. En Aphaia podemos ayudarte con nuestra Evaluación de la ética de la IA. Aphaia también ofrece servicios de consultoría para el RGPD, la LOPDGDD y la CCPA, así como evaluaciones de impacto y subcontratación del Delegado de Protección de DatosInfórmate aquí.

Prev post
El Código de Diseño Apropiado a la Edad publicado por la ICO entrará en vigor en menos de un mes.
agosto 14, 2020
Next post
Novedades en las Directrices Éticas para una IA Fiable.
agosto 24, 2020

Leave a Comment