Loading

Blog details

IA de alto riesgo en la Ley europea de IA

IA de alto riesgo en la Ley europea de IA

¿Qué sistemas de IA entran en la categoría de «alto riesgo» y qué requisitos deben cumplir según la Ley europea de IA?

 

La Ley de Inteligencia Artificial (IA) de la Unión Europea (UE), aprobada oficialmente por el Consejo de Ministros a través de un proceso de votación en mayo de 2024, es una legislación pionera que tendrá un profundo impacto en el desarrollo y utilización de la IA dentro de la UE. La Ley clasifica los sistemas de IA en cuatro categorías de riesgo: riesgo inaceptable, alto riesgo, riesgo limitado y riesgo mínimo. Los sistemas de IA que se encuentran dentro de la categoría de «alto riesgo» están sujetos a requisitos estrictos para mitigar riesgos innecesarios y salvaguardar a las personas y sus datos de los peligros potenciales asociados con los sistemas de IA. La Ley de IA de la UE es una legislación innovadora que ayudará a asegurar que la IA se desarrolle y utilice de manera responsable y ética. Las obligaciones previstas en la ley ayudarán a mitigar los riesgos asociados con la IA y a proteger a las personas y la sociedad de los posibles daños derivados de la misma.

 

La Ley de IA de la UE define los sistemas de IA de alto riesgo según su propósito y modalidades.

 

La Ley europea de IA define «alto riesgo» y establece una metodología sistemática para identificar los sistemas de IA de alto riesgo dentro del marco legal. Esta clasificación tiene como objetivo proporcionar claridad a los operadores y empresas. La clasificación de riesgos considera ciertos factores como el propósito previsto del sistema de IA, alineándose con la legislación de seguridad de productos de la UE. La clasificación depende de la función, la finalidad concreta y las modalidades para las cuales se utiliza el sistema. Los sistemas que realizan tareas procedimentales limitadas, mejoran actividades humanas previas y no influyen en las decisiones humanas o realizan tareas puramente preparatorias no se consideran de alto riesgo. Sin embargo, algunos sistemas de IA, como aquellos involucrados en la elaboración de perfiles de personas naturales, siempre se consideran de alto riesgo. Los sistemas de IA de alto riesgo estarán sujetos a una serie de requisitos bajo la Ley europea de IA, diseñados para asegurar que los sistemas de IA se utilicen de manera segura y responsable.

 

La Ley europea de IA exige transparencia, responsabilidad, solidez, precisión y supervisión humana para los sistemas de IA de alto riesgo, con el objetivo de minimizar errores, sesgos y daños potenciales.

 

La Ley europea de IA impone varios requisitos a los sistemas de IA de alto riesgo. Estos requisitos incluyen transparencia, responsabilidad, solidez, precisión y supervisión humana. Los sistemas de IA de alto riesgo deben ser transparentes sobre su funcionamiento, proporcionando información sobre los datos que utilizan, los algoritmos que emplean y las decisiones que toman. También deben ser responsables de sus decisiones, con mecanismos para que las personas puedan impugnar y buscar reparación si son perjudicadas por un sistema de IA. Además, los sistemas de IA de alto riesgo tendrán que ser robustos y precisos, sometiéndose a pruebas y validaciones para eliminar errores y sesgos. Por último, han de estar sujetos a supervisión humana, asegurando que los humanos estén involucrados en su desarrollo, implementación y uso. Estos requisitos tienen como objetivo garantizar el desarrollo y uso responsable y ético de la tecnología de IA dentro de la Unión Europea.

 

La prevención de sesgos en la IA de alto riesgo requiere: solidez técnica, seguridad, conjuntos de datos diversos, gestión de sesgos, trazabilidad, auditabilidad, documentación, monitoreo y evaluaciones de riesgos.

 

Para evitar sesgos en los sistemas de IA, es imperativo que se diseñen y utilicen de una manera que minimice los prejuicios y prácticas discriminatorias. Los sistemas de IA pueden contribuir a decisiones más equitativas y sin sesgos, como en la contratación, cuando se desarrollan adecuadamente y se utilizan de forma eficaz. Para lograr este objetivo, todos los sistemas de IA de alto riesgo deben cumplir con los requisitos obligatorios. Para que los sistemas de IA sean adecuados para su propósito previsto, deben ser técnicamente sólidos y seguros, para asegurar que los resultados falsos positivos o negativos no afecten desproporcionadamente a los grupos protegidos en función de factores como raza, etnia, género o edad. Para minimizar el riesgo de sesgos injustos incorporados en el modelo, los sistemas de alto riesgo también necesitan ser entrenados y probados utilizando conjuntos de datos adecuadamente representativos. La detección, corrección y otras medidas de mitigación de sesgos tienen que implementarse para abordar cualquier posible sesgo. Además, estos sistemas deben ser trazables y auditables para confirmar que se mantenga la documentación adecuada, incluidos los datos utilizados para entrenar el algoritmo, para investigaciones posteriores a la implementación. Tanto antes como después del lanzamiento al mercado, es preciso que existan sistemas de cumplimiento para monitorear estos sistemas regularmente y abordar rápidamente cualquier riesgo potencial. La Ley europea de IA es una legislación significativa que se espera que moldee el futuro del desarrollo y uso de la IA. Es un paso importante hacia un uso responsable y seguro de la IA. Bostjan Makarovic, Socio Gerente de Aphaia, afirma que “También se debe notar que la Comisión Europea está facultada para enmendar los criterios para la IA de alto riesgo, lo que debería contribuir a la robustez a largo plazo de la Ley.”

Descubre cómo puede ayudarte Aphaia a cumplir con las leyes de protección de datos y diseñar tu estrategia de IA. Nos especializamos en impulsar a empresas como la tuya con soluciones innovadoras concebidas para cumplir y superar los requisitos normativos. Contacta con Aphaia hoy.

Prev post
Inteligencia Artificial de Uso General y Riesgo Sistémico conforme a la Ley europea de IA
julio 4, 2024