Loading

Blog details

Recomendaciones sobre el desarrollo de sistemas de IA de las autoridades de control europeas

Recomendaciones sobre el desarrollo de sistemas de IA de las autoridades de control europeas

Las autoridades de control de Europa han proporcionado una serie de recomendaciones para las organizaciones que desarrollen y utilicen sistemas de IA, ayudándolas a mantenerse en cumplimiento con el RGPD y otra normativa aplicable a los sistemas de IA.

 

La autoridad francesa de protección de datos, CNIL, ha publicado sus primeras recomendaciones sobre el desarrollo de sistemas de IA, diseñadas para ayudar a las organizaciones a garantizar que sus sistemas de IA se desarrollen y utilicen de manera responsable y ética. Diseñadores y desarrolladores de sistemas de IA han expresado a la CNIL que enfrentan desafíos con el cumplimiento del RGPD, especialmente durante el entrenamiento del modelo. Por otro lado, el recientemente aprobado Reglamento de IA de la UE también tendrá un gran impacto en el uso de datos personales en sistemas de IA. Por lo tanto, dado que tanto el RGPD como el Reglamento de IA serán aplicables cuando se traten datos personales en el contexto de sistemas de IA y algoritmos, las recomendaciones de la CNIL tienen como objetivo proporcionar un enfoque coherente y complementario para la protección de datos, garantizando el cumplimiento con ambas leyes. Estas recomendaciones se refieren a la fase de desarrollo de los sistemas de IA, en lugar de la fase de implementación.

 

La CNIL aboga por el uso ético de la IA basado en la transparencia, equidad, responsabilidad, seguridad y privacidad. 

 

Las recomendaciones de la CNIL sobre el uso responsable de los sistemas de IA cubren principalmente la importancia de la transparencia, equidad, responsabilidad, seguridad y privacidad. La transparencia implica proporcionar información detallada sobre el funcionamiento interno de estos sistemas de IA para fomentar la confianza y permitir la toma de decisiones informadas. La equidad en el diseño de sistemas de IA enfatiza la necesidad de que los sistemas de IA y los resultados sean imparciales y mitiguen el riesgo de discriminación, asegurando un trato equitativo para todas las personas. La responsabilidad implica establecer procesos para revisar y cuestionar decisiones impulsadas por la IA, promoviendo el desarrollo y despliegue responsables de la IA. Las medidas de seguridad son de extrema importancia ya que protegen los sistemas de IA contra el acceso no autorizado, la manipulación y los ataques maliciosos, salvaguardando los datos sensibles y la integridad del sistema. Las consideraciones de privacidad y protección de datos en el uso de sistemas de IA se centran en respetar la privacidad de las personas, proteger los datos personales y capacitar a las personas con control sobre sus propios datos. Estas recomendaciones guían a las organizaciones en el desarrollo y despliegue de sistemas de IA de manera ética y responsable para aprovechar su potencial transformador mientras se mitigan los riesgos.

 

Si bien el RGPD suscita preocupaciones de que pueda frenar la innovación en IA en Europa, la CNIL tiene como objetivo promover el desarrollo responsable de la IA, especialmente con datos personales.

 

La noción de que el RGPD frenará la innovación en inteligencia artificial en Europa puede ser un error. Sin embargo, es importante reconocer que los conjuntos de datos de entrenamiento a menudo contienen datos personales, por lo que el RGPD y otras leyes aplicables deben tenerse en cuenta. El uso de estos datos plantea así riesgos para los sujetos, lo cual ha de tenerse en consideración al desarrollar sistemas de IA que respeten los derechos y libertades de las personas, especialmente su derecho a la privacidad. Las recomendaciones de la CNIL son un paso importante hacia la garantía de que los sistemas de IA se desarrollen y utilicen de manera responsable y ética. 

 

Otras autoridades de control de Europa han proporcionado también orientación sobre IA y protección de datos, enfatizando la importancia y el uso ético de la IA.

 

Además de la guía más reciente de la CNIL, existen una serie de otros recursos disponibles para ayudar a las organizaciones en Europa a desarrollar y utilizar sistemas de IA de manera responsable. Hace aproximadamente un año, la ICO, en Reino Unido, actualizó su guía sobre IA y protección de datos para organizaciones tanto en el sector público como privado, que tiene como objetivo no solo garantizar la legalidad en el desarrollo de sistemas de IA, sino también enfatizar cómo las organizaciones pueden lograr transparencia, precisión y equidad. La actualización ha proporcionado nuevo contenido y ha añadido un marco de referencia en relación con la versión anterior. Se ofrece en concreto un contexto muy útil sobre la precisión estadística en el desarrollo y despliegue de sistemas de IA.

 

La AEPD emitió una guía sobre IA y protección de datos para usuarios de IA en sus actividades de tratamiento, enfatizando la calidad y privacidad en el desarrollo y despliegue de la IA.

 

La AEPD también presentó una guía relacionada con las implicaciones de la IA en la protección de datos, enfocado a individuos y organizaciones que utilizan IA en sus actividades de tratamiento de datos. Cubre temas como la relación entre la IA y la protección de datos, los diferentes tipos de relaciones entre los responsables del tratamiento de datos y terceros, las condiciones que las tecnologías de IA deben tener para cumplir con el RGPD y la gestión de riesgos del tratamiento de datos para derechos y libertades. La AEPD enfatiza la importancia de las garantías de calidad y privacidad en el desarrollo y despliegue de tecnologías basadas en IA y señala que el cumplimiento del RGPD requiere un cierto nivel de madurez para los modelos de IA.

 

La DPA holandesa enfatiza las reglas del RGPD para la IA y los algoritmos, reiterando la necesidad de evaluaciones de impacto en la protección de datos.

 

La autoridad de control de los Países Bajos, Autorieit Persoonsgegevens, también señaló en su propia guía que el RGPD impone reglas fundamentales sobre el tratamiento de datos personales en el ámbito de la IA y los algoritmos. Las organizaciones deben tener una base legal para el tratamiento, ser transparentes con los interesados, limitar el uso de datos personales a la finalidad específica y adherirse al principio de minimización de datos. La DPA holandesa reiteró que los sistemas algorítmicos requieren una Evaluación de Impacto en la Protección de Datos (DPIA) para identificar riesgos de privacidad y tomar medidas para mitigarlos. Se deberá también cumplir con las obligaciones de transparencia y facilitar los derechos de privacidad. Se precisará una consulta previa con la autoridad de control si existe un alto riesgo y no se pueden encontrar medidas suficientes.

En Aphaia nos comprometemos a guiarte en todo el proceso para reforzar tus prácticas y cumplimiento, y te proporcionamos la tranquilidad que necesitas. Da el primer paso hoy hacia una IA confiable. Contacta con nosotros para descubrir más.

Prev post
El CEPD publica su opinión sobre los modelos «Pay or Ok»
abril 25, 2024
Next post
Reconocimiento facial: la autoridad de control de los Países Bajos publica una guía
mayo 9, 2024