Loading

Blog details

La ICO proporciona orientación sobre protección de datos e IA en chatbots

La ICO proporciona orientación sobre protección de datos e IA en chatbots

Tras una investigación sobre la empresa de tecnología Snap Inc., la ICO ha publicado una serie de consejos sobre la protección de datos en el uso de chatbots que emplean IA.

 

Últimamente se ha vuelto cada vez más común que las empresas y organizaciones ofrezcan la opción de un chatbot con IA para los usuarios de sus páginas web y aplicaciones. Ya sea en redes sociales o con una función de soporte, son cada vez más empresas las que incorporan este elemento en sus servicios. Sin embargo, desde que comenzó su uso se han planteado diversas preocupaciones relacionadas con protección de datos. Ahora, tras una reciente investigación de la ICO de Reino Unido sobre la empresa de tecnología Snap, la ICO ha decidido compartir algunos consejos para las empresas y organizaciones que utilizan chatbots, con el objetivo de orientarles sobre cómo cumplir con la ley y evitar riesgos indebidos a estos efectos.

 

Tras concluir la investigación sobre el chatbot «My AI» de Snap Inc., la ICO considera que la empresa cumple con la normativa al haber tomado medidas significativas para abordar los riesgos identificados.

 

En junio de 2023, la ICO comenzó una investigación sobre el lanzamiento del chatbot «My AI» de Snap Inc., debido a las preocupaciones de que Snap no había evaluado adecuadamente los riesgos de protección de datos asociados con el chatbot, especialmente para varios millones de usuarios de «My AI» en el Reino Unido, incluidos niños de 13 a 17 años. «My AI» se lanzó inicialmente para suscriptores de Snapchat+ el 27 de febrero de 2023 y posteriormente estuvo disponible para todos los usuarios de Snapchat el 19 de abril de 2023. Como resultado de la investigación, la ICO emitió un aviso preliminar de ejecución a Snap el 6 de octubre de 2023. Sin embargo, Snap ha tomado desde entonces medidas significativas para abordar los riesgos identificados después de realizar una evaluación de impacto de protección de datos exhaustiva, y la ICO ahora considera adecuado el cumplimiento de Snap Inc con la ley de protección de datos en relación con «My AI.»

 

La investigación de la ICO llevó a Snap Inc. a mejorar sus prácticas de protección de datos para «My AI», estableciendo un precedente para que la industria priorice la protección de datos en el desarrollo de IA.

 

La investigación de la ICO sobre el chatbot «My AI» de Snap resultó en que Snap tomara medidas significativas para abordar los riesgos de protección de datos, incluida una evaluación de riesgos exhaustiva. La ICO ahora está satisfecha con las acciones tomadas por parte de Snap, si bien continuará monitoreando «My AI». Stephen Almond, Director Ejecutivo de Riesgo Regulatorio de la ICO, enfatizó que este caso debería servir como una advertencia para la industria, destacando la importancia de priorizar la protección de datos y una rigurosa evaluación de riesgos desde el principio al desarrollar o utilizar IA generativa. La ICO está comprometida a proteger al público y usará sus poderes de ejecución, incluidas multas, para garantizar el cumplimiento.

 

La ICO ha lanzado una serie de consultas sobre cómo debería aplicarse la ley de protección de datos al desarrollo y uso de modelos de IA generativa.

 

Aunque la decisión final tras la investigación sobre Snap aún está pendiente, la ICO ha lanzado diversas consultas sobre cómo debería aplicarse la ley de protección de datos al desarrollo y uso de modelos de IA generativa. Estas consultas cubrirá una variedad de temas, incluida la base legítima para el entrenamiento de modelos de IA generativa, cómo debería aplicarse la limitación de la finalidad en diferentes etapas del ciclo de vida de la IA generativa, la precisión de los datos de entrenamiento y las salidas del modelo, y la integración de derechos individuales en los modelos de IA generativa. La ICO ha invitado a todas las partes interesadas en la IA generativa a responder y ayudar a informar sus posiciones en la serie en curso.

 

La ICO ha actualizado su Guía sobre IA y Protección de Datos para aclarar los requisitos de equidad y ayudar a las organizaciones a adoptar nuevas tecnologías de manera responsable.

 

Desde que se emitió el aviso preliminar de ejecución a Snap Inc., la ICO ha actualizado su Guía sobre IA y Protección de Datos para abordar los riesgos de privacidad que plantean los chatbots de IA generativa como ‘My AI’, así como para satisfacer las solicitudes de la industria del Reino Unido de una aclaración sobre los requisitos de equidad en la IA. El RGPD especifica que, además de implementar principios de protección de datos de manera efectiva en el diseño de la IA, es imperativo que se realicen evaluaciones de impacto de protección de datos para evaluar si el tratamiento de datos por los sistemas de IA en cuestión conducirá a resultados justos.

 

La actualización también cumplió con un compromiso clave del ICO25 de ayudar a las organizaciones a adoptar nuevas tecnologías mientras protegen a las personas y grupos vulnerables. La actualización apoya la visión del gobierno de Reino Unido de un enfoque pro-innovación para la regulación de la IA y, más específicamente, su intención de incorporar consideraciones de equidad en la IA. La ICO tiene la intención de seguir asegurando que su guía sobre IA sea fácil de usar, reduzca la carga de cumplimiento para las organizaciones y refleje los cambios próximos en relación con la regulación de la IA y la protección de datos.

Eleva tus estándares de protección de datos con Aphaia. Nuestra experiencia combina privacidad e Inteligencia Artificial. Pregúntanos y te ayudaremos a reforzar tus prácticas de cumplimiento, incluidas las políticas y procesos necesarios, con la tranquilidad de contar con un asesoramiento experto. Contacta con nosotros hoy.

Guía de la AEPD
Prev post
Guía de la AEPD sobre el Uso de la Tecnología de Seguimiento Wi-Fi
mayo 30, 2024
Next post
La Autoridad Holandesa de Protección de Datos impone una multa por un protocolo de supresión de datos deficiente
junio 13, 2024