Loading

Blog details

Home

La ética en la inteligencia artificial

Principios éticos que deben gobernar el uso de inteligencia artificial según la Comisión Europea

El informe sobre las bases éticas que deben estar presentes en la inteligencia artificial (IA), publicado por el grupo de expertos de la Comisión Europea, muestra un borrador sobre la postura de la institución en la materia. Se prevé que su versión definitiva sea publicada en marzo de este año y la idea que se persigue es la creación de un compromiso ético al que las empresas puedan adherirse libremente.

Si bien la inteligencia artificial está permitiendo el desarrollo de muchas técnicas y procesos que hace unos años suponían un desafío para empresas e instituciones, la generalización de su uso require también un determinado control y el asentamiento de unas bases concretas sobre las que debe regirse su utilización, de tal modo que se establezca un marco regulador para algunas controversias que se están derivando, como la existencia de sistemas faciales de reconocimiento sin el previo consentimiento del sujeto, la adopción de sistemas cubiertos de IA no diferenciables de un ser humano, o el uso de armas letales autónomas.

La confianza por parte de la sociedad hacia los sistemas de inteligencia artificial se considera esencial, y para lograrla se destacan dos elementos: la adopción de principios teóricos éticos y la implantación práctica de soluciones.

Derechos fundamentales y principios éticos

Según el informe, los derechos recogidos en los tratados europeos y la Carta Europea de Derechos Humanos funcionarían como referencia en el contexto de inteligencia artificial, adaptados a las particularidades correspondientes. Se mencionan, en concreto, los siguientes:

-Respeto de la dignidad humana: protección de la integridad física y moral.

-Libertad individual: protección frente a coacciones, engaño o manipulación.

-Respeto a la democracia, la justicia y las normas.

-Igualdad, no discriminación y solidaridad.

-Derechos ciudadanos.

Conforme al grupo de expertos, la implantación del respeto a los derechos humanos habría de realizarse mediante la ejecución en consecuencia de una serie de principios:

-Principio de bondad (“Do Good”), conforme al cual los sistemas de IA deberían ser diseñados con el fin de maximizar el valor en un entorno sostenible.

-Principio de no maldad (“Do no Harm”), de tal modo que desde el diseño la IA tendrá que proteger la dignidad, la integridad, la privacidad, la libertad y la seguridad de las personas en la sociedad y en el trabajo.

-Principio de autonomía, que sitúa al ser humano en una posición de libertad frente a la IA, que de ningún modo podrá suponer subordinación o coerción.

-Principio de justicia, que implica que el desarrollo, uso y regulación de la IA debe hacerse de manera limpia, de tal modo que se eviten sesgos, estigmatización y discriminación y se prevean reparaciones de daño si es necesario.

-Principio de explicabilidad, que comprende tanto transparencia a nivel técnico como de negocio, de tal modo que los usuarios sean informados del funcionamiento de los sistemas y estos sean auditables, además de los fines de su uso.

Implantación práctica

La definición de unos objetivos prácticos se refleja en una serie de requerimientos concretos para los sistemas AI, que la Comisión ha recogido en el siguiente grupo:

-Proactividad y responsabilidad: se deberán promover compensaciones en caso de daño, tanto monetarias como no monetarias.

-Gobierno del dato: toman un papel esencial la calidad de los datasets empleados, en términos de adecuada representación de las diferentes categorías de datos, e integridad y sesgo de los mismos.

-Inclusión: los sistemas de IA tienen que ser accesibles a todos los ciudadanos, independientemente de la edad, estatus social o existencia de capacidades diversas.

-Autonomía de la IA: se deberá articular un procedimiento de revisión y control del sistema, que será más estricto conforme más sea la autonomía del sistema.

-No discriminación, derivado del gobierno del dato.

-Autonomía humana: comprobación de que los sistemas IA sirven a una serie de funciones y propósitos previamente definidos por el ser humano.

-Respeto por la privacidad, tanto de los datos proporcionados por el sujeto como de la información generada a través del uso e interacción con el sistema de IA.

-Consistencia, compuesto por la fiabilidad y reproducibilidad del sistema, su precisión y la resistencia de ataque.

-Seguridad, relacionada con la ausencia de incertidumbre en el comportamiento del sistema.

-Transparencia o reducción de asimetría de información.

Se precisará de un análisis del sistema concreto para detectar los principales puntos débiles y de interés, de manera que deberán ser tratados con medidas tanto técnicas (privacidad y seguridad por diseño y por defecto, test y validación, trazabilidad y auditabilidad) como no técnicos (regulación, códigos de conducta, formación, diálogo).

Esta iniciativa se ve reflejada en la redacción del RGPD, concretamente en el considerando 71 y en el artículo 22, donde se incluyen algunas medidas a tomar por el responsable en caso de uso de algoritmos y IA de toma automatizada de decisiones.

Si necesitas asesoramiento en privacidad y protección de datos para sistemas de IA, en Aphaia realizamos Evaluaciones de Impacto y Adaptación a los requisitos éticos europeos.

Prev post
El derecho al olvido podría limitarse al ámbito de la Unión Europea
enero 11, 2019
Next post
Google sancionado con 50 millones de euros por incumplimiento del RGPD
enero 23, 2019

Leave a Comment