La ICO ha publicado unas recomendaciones para que las empresas utilicen la inteligencia artificial (IA) en los procesos de contratación de manera legal y ética.
La inteligencia artificial (IA) está transformando la contratación al ahorrar tiempo y mejorar la eficiencia, en empresas de diversos tamaños e industrias. Las empresas están utilizando herramientas de IA para buscar candidatos, analizar currículums y calificar a los solicitantes. Sin embargo, el uso de la IA en este contexto conlleva riesgos significativos si no se implementa de manera responsable. Si estas herramientas no cumplen con las leyes de protección de datos, pueden generar exclusión injusta de candidatos o infracciones de privacidad, exponiendo a las empresas a riesgos legales y reputacionales.
Una serie de auditorías en el Reino Unido revelaron el mal manejo de datos personales por parte de herramientas de contratación con IA, lo que llevó a la ICO a emitir recomendaciones para lograr prácticas más justas y transparentes.
Una serie de auditorías recientes realizadas por la Oficina del Comisionado de Información del Reino Unido (ICO) revelaron preocupaciones clave con las herramientas de contratación basadas en IA. Se descubrió que algunas de ellas tratan información personal de manera injusta al filtrar candidatos basándose en características protegidas o al inferir información sensible, como género o etnia, a partir de nombres. Otras recopilaron cantidades excesivas de datos personales, reteniéndolos de manera indefinida sin el conocimiento de los candidatos. Además, muchas herramientas carecían de transparencia, al no explicar a los candidatos cómo se utilizaban sus datos. En respuesta, la ICO emitió varias recomendaciones dirigidas a los desarrolladores y proveedores de IA para garantizar el cumplimiento de las leyes de protección de datos y promover la equidad y transparencia en las prácticas de contratación con IA.
Para adoptar herramientas de contratación con IA de manera responsable, las empresas deben realizar una DPIA antes de adquirirlas y establecer una base legítima para tratar datos sensibles.
Las empresas que consideren utilizar herramientas de contratación con IA deben tomar medidas proactivas para garantizar una adopción responsable. Realizar una Evaluación de Impacto en la Protección de Datos (DPIA, por sus siglas en inglés) es esencial para identificar y abordar los riesgos relacionados con la privacidad. La DPIA debe completarse antes de adquirir la herramienta y actualizarse a medida que la IA evolucione. También es crucial establecer una base legítima para el tratamiento de datos, especialmente para datos sensibles como información racial o de salud, que requieren condiciones legales específicas.
Al usar IA en la contratación, es importante definir claramente las responsabilidades, mitigar sesgos, ser transparente, limitar la recopilación de datos y garantizar que los proveedores de IA cumplan con las leyes de protección de datos.
Al trabajar con proveedores de IA, se deben definir claramente las responsabilidades determinando si la empresa o el proveedor actúa como responsable o encargado de tratamiento. Es importante confirmar que los contratos especifican estos roles e incluyen medidas de desempeño e instrucciones para cumplir con las leyes de protección de datos. Mitigar los sesgos es el siguiente paso fundamental. Los proveedores tendrán que proporcionar información sobre cómo abordan el sesgo en sus herramientas y los resultados tienen que ser revisados con regularidad para garantizar la equidad. Por otro lado, la transparencia actúa también como un pilar básico. Los candidatos deben ser informados sobre cómo la IA trata sus datos, la lógica detrás de las decisiones tomadas por el sistema y su derecho a impugnarlas. Además, la recopilación de datos tiene que limitarse al mínimo necesario para los fines de contratación y las herramientas que retengan datos de manera indefinida o para propósitos no relacionados han de evitarse.
La ICO aconseja a las empresas evaluar las herramientas de contratación con IA formulando preguntas sobre protección de datos, base legal, mitigación de sesgos y minimización de datos para garantizar el cumplimiento y reducir riesgos.
Para ayudar a las empresas a evaluar las herramientas de IA, la ICO recomienda formular preguntas clave durante el proceso de adquisición. Estas incluyen si el proveedor ha realizado una DPIA, cuál es la base legal para tratar los datos, cómo se mitigan los sesgos y cómo se minimiza la recopilación de información. Estas preguntas no solo garantizan el cumplimiento, sino que también generan confianza con los candidatos y protegen a la empresa de posibles riesgos. Las auditorías de la ICO ya han llevado a mejoras entre los proveedores de IA, como mayor transparencia en las políticas de privacidad y mejores medidas para reducir el sesgo. Siguiendo estas directrices y aprovechando los recursos de la ICO, las empresas pueden sacar el máximo provecho de la IA en la contratación mientras aseguran equidad, transparencia y cumplimiento.