Loading

Blog details

Implantes Neuronales y Ética de la IA

Implantes Neuronales y Ética de la IA

Los riesgos derivados del uso de IA en implantes neuronales ponen en evidencia la necesidad de regular la ética de la IA. 

En nuestro último vlog hablamos sobre la interacción entre implantes neuronales y el RGPD. En esta segunda parte exploramos cómo la ética de la IA se aplica a los implantes neuronales. 

¿Cuál es el papel de la IA en los implantes neuronales?

La IA es el elemento puente entre los implantes neuronales y las personas que trabajan con ellos, pues la IA ayuda a traducir las señales eléctricas en un lenguaje comprensible para el ser humano.  

El proceso se comprende normalmente de dos fases: primero, los datos neuronales se recogen de las señales del cerebro y estas se transforman en números. Después, dichos números se decodifican y se convierten en lenguaje natural, que puede ser cualquier idioma que se programe. Este proceso funciona del mismo modo en el sentido inverso. 

¿Por qué la ética de la IA es importante en los implantes neuronales?

En función de cuán fan de la ciencia ficción seas, las palabras “implante neuronal” pueden evocarte algunos títulos de películas y series. Si eres más entusiasta de los periódicos que de Netflix, quizá ya tengas en mente varias investigaciones médicas que han utilizado implantes neuronales. La realidad concilia ambos enfoques. 

Los implantes neuronales han sido parte de la investigación médica y científica desde hace más de 150 años, cuando en 1870 Eduard Hitzig y Gustav Fritsch llevaron a cabo una serie de experimentos en perros mediante los cuales probaron ser capaces de generar movimiento a través de estimulación eléctrica de algunas partes del córtex cerebral. Desde entonces se ha logrado un progreso significante en la materia, y actualmente se estudian los implantes neuronales con diversas finalidades como, entre otras, el control de actividad anormal en el cerebro a fin de activar las medidas correspondientes.

También se han explorado aplicaciones militares con esta tecnología. Por ejemplo, la DARPA lleva desde 2006 trabajando en el desarrollo de implantes neuronales para controlar de manera remota a los tiburones, lo cual se podría potencialmente emplear para conseguir información sobre barcos enemigos y explosivos acuáticos.

Los últimos avances en este campo vienen de la mano de Neuralink, la compañía de neurotecnología fundada por Elon Musk y cuya página web afirma que su product “permitiría controlar los dispositivos iOS, el teclado y el ratón directamente con la actividad cerebral, tan sólo pensando en ello”. El objetivo perseguido es la creación de una interfaz que habilitase una conexión entre los dispositivos y los cerebros de las personas.  

Mientras que este desarrollo puede tener un gran impacto positivo en el progreso tecnológico, también podría mermar los derechos y libertades de los individuos, con lo que es esencial contar con regulación que establezca límites. Mientras que la protección de datos está actualmente desempeñando un rol importante en este sentido, podría no ser suficiente cuando se efectúen mayores avances. La ética de la IA podría suplir esta carencia. 

¿Cómo puede ayudar la ética de la IA?

La ética de la IA podría suponer un marco normativo para ofrecer las garantías necesarias a las innovaciones tecnológicas en hardware y software destinado a restaurar o mejorar las capacidades humanas, impidiendo así que se deriven altos riesgos para los derechos y libertades de los individuos. El hecho de que algo sea posible no implica que debería hacerse. 

La ausencia de regulación apropiada podría incluso ralentizar los procesos de investigación e implementación, pues algunas aplicaciones entraría en conflicto directo con los derechos humanos y normativa ya en vigor. 

Acción y supervisión humanas

Conforme a los principios de la ética de la IA definidos por el AI-HLEG en sus “Directrices éticas para una IA Fiable”, la acción y supervisión humanas es clave en los implantes neuronales, aunque su implementación práctica podría ser difícil. 

La acción y supervisión humanas establece que los seres humanos deben ser capaces de tomar decisiones informadas cuando se aplica IA. Mientras que este requisito puede ser bastante claro en algunos usos médicos donde el profesional analiza la actividad neuronal recogida por los implantes, podría no ser el caso en otros escenarios. La fusión entre inteligencia biológica y artificial junto al hecho de que realmente no podemos saber qué tipo de información o, al menos, ser conscientes de cada dato que podría recogerse de la actividad neuronal hace complicado que pudiese afirmarse que una decisión es informada sobre todo en aquellas circunstancias en las que ésta es tomada por el mismo sujeto sobre cuyo cerebro están actuando los implantes. 

Solidez técnica y seguridad

La robustez técnica y la seguridad es otro de los principios que deberían priorizarse en el desarrollo de implantes neuronales. La absoluta naturaleza sensible de los datos y la conexión directa con el cerebro hace necesario que la tecnología sea completamente impenetrable. Si ya una brecha que compromete datos biométricos podría tener resultados catastróficos, los daños que un ataque al cerebro de las personas podría ocasionar es simplemente inmensurable. 

Privacidad y gobierno del dato

Acorde al principio de privacidad y gobierno del dato, se debe garantizar complete cumplimiento de la normativa correspondiente, incluidos los mecanismos de gobierno del dato, su calidad e integridad y el acceso legítimo a los mismos. Consideramos que las bases legítimas para un tratamiento de datos válido recogidas en el RGPD debería redefinirse, pues su actual aplicación podría no ser del todo extrapolable a un contexto que incluya implantes neuronales.  Relacionado con el principio de acción y supervisión humana y en línea con nuestro último blog en la materia, un sujeto no podría otorgar consentimiento con las condiciones impuestas por el RGPD cuando se trate de datos recogidos por implantes neuronales, porque la información recogida no podría identificarse o controlarse con antelación. El proceso debería rediseñarse para configurar un consentimiento dividido en dos etapas, donde la segunda tendría cabida después de la recogida de datos pero antes de que ningún tratamiento ulterior tuviese lugar.  Dada la rápida evolución de la tecnología y el estado del arte actual, los períodos de conservación de los datos también tendrían que configurarse de una manera distinta, pues investigaciones y desarrollos posteriores podrían potencialmente revelar y extraer datos adicionales, para cuyo tratamiento no se tendría base legítima, a partir de datos que sí se están tratando conforme a una base válida. 

El escándalo de Cambridge Analytica puede funcionar aquí también como un buen ejemplo de los resultados no deseados que pueden derivarse de tratamientos de datos masivos sin las garantías, las medidas ni las limitaciones apropiadas. Este caso tuvo como consecuencia una serie de campañas publicitarias que influyeron en los resultados electorales. Si bien este efecto ya fue de una naturaleza grave, si esto mismo hubiese ocurrido en un escenario donde los implantes neuronales se estuviesen aplicando de manera efectiva, el daño ocasionado podría haber sido irreparable.  

Transparencia

El principio de transparencia está directamente relacionado con el de privacidad y el gobierno del dato, pues la obligación de informar al interesado sobre todos los detalles del tratamiento de datos es uno de los pilares sobre los que se sostiene el RGPD. Mientras que esta tecnología se encuentre en fase de desarrollo, no se podrá cumplir con este requisito de manera óptima, pues siempre habrá vacíos en las capacidades y limitaciones del sistema. Se deberían diseñar provisiones específicas que estableciesen la información mínima que debe entregarse a los sujetos cuando se utilicen implantes neuronales.  

Diversidad, no discriminación y justicia

El principio de diversidad, no discriminación y justicia debería observarse para evitar cualquier tipo de sesgo negativo y la marginalización de grupos vulnerables. Este principio es doble: por un lado, concierne al diseño de los implantes neuronales y la IA que la gobierna, la cuál debería ser entrenada para evitar tanto sesgos humanos, como sus propios sesgos, y también aquellos resultantes de la combinación de ambos por la interacción entre humanos (cerebro) y la IA (implantes). Por otro lado, debería asegurarse que las barreras de acceso a esta tecnología no crean graves desigualdades sociales. 

Bienestar social y medioambiental

El impacto de los implantes neuronales en el bienestar social y medioambiental debería considerarse con cautela. Esta tecnología puede ayudar a personas con capacidades diversas, pero tendrían que ser asequibles para todo el mundo. Ha de señalarse que los implantes neuronales no sólo pueden utilizarse para tratamiento médico sino también para lograr seres humanos mejorados en sus capacidades y habilidades, lo cual actuaría en detrimento de aquellos que no pudiesen permitírselo. 

Rendición de cuentas

La naturaleza crítica de las aplicaciones de implantes neuronales hace que se necesiten políticas de auditoria para evaluar a los algoritmos, los datos y los procesos. Se debería garantizar un Sistema de reparación accesible y adecuado que permitiese, por ejemplo, contactar con todos los sujetos que estén utilizando una versión de los implantes neuronales que tiene deficiencias y vulnerabilidades.  

Ejemplos

En la siguiente tabla combinamos nuestro anterior artículo con este para ofrecer algunos ejemplos de aplicaciones de implantes neuronales en relación a los principios tanto del RGPD como de la ética de la IA con los que se vincularían. A estos efectos, usaremos el siguiente caso como base para desarrollarlo: “Tratamiento de la depresión mediante estimulación neuronal”. En cada fila se explica cuál sería el principio del RGPD o de la ética de la IA que entraría en aplicación:

Caso de uso Principios de la ética de la IA Principios o requisites del RGPD
Revisiones regulares por parte de los profesionales médicos para decidir si el tratamiento es efectivo. Acción y supervisión humanas. Intervención humana.
Un acceso ilegítimo a los implantes neuronales y la manipulación de los mismos tendría un impacto negativo sobre la salud del paciente, y además revelaría información sobre una categoría especial de datos.  Solidez técnica y seguridad. Medidas técnicas y organizativas.
El tratamiento de los datos es necesario para ofrecer tratamiento médico.  Privacidad y gobierno del dato. Base legítima para el tratamiento.
Se debería ofrecer información complete acerca de los detalles del tratamiento antes de proceder con el mismo.  Transparencia. Explicación.
Nadie debería ser excluido del tratamiento y recibir una alternativa menos eficiente simplemente por incapacidad económica para afrontarlo.  Diversidad, no discriminación y justicia. Evitar resultados discriminatorios.
Si el tratamiento afecta de manera negativa al comportamiento del paciente y puede suponer un riesgo para la sociedad, se deberán aplicar medias y garantías correspondientes.  Bienestar social y medioambiental. Excepciones para finalidades estadísticas y de investigación.
El hospital o el Estado deberían hacerse responsable de los daños causados por el uso de los implantes neuronales.  Rendición de cuentas. Rendición de cuentas.

 

En nuestro vlog exploramos las posibilidades que presenta la ética de la IA en el uso de implantes neuronales:

Y si quieres aprender más sobre la ética y la regulación de la IA, visita nuestro canal de YouTube.

 

Aphaia ofrece servicios de consultoría para el RGPD y la LOPDGDD, y también evaluaciones de impactocumplimiento con la CCPAevaluaciones de la ética de la IA y subcontratación del Delegado de Protección de Datos.

 

 

Prev post
Brain implants and AI ethics
November 23, 2020
Next post
Nuevo proyecto de ley de privacidad en Canadá.
November 25, 2020

Leave a Comment