Loading

Blog details

Inteligencia Artificial de Uso General y Riesgo Sistémico conforme a la Ley europea de IA

Inteligencia Artificial de Uso General y Riesgo Sistémico conforme a la Ley europea de IA

A medida que Europa continúa adaptándose al potencial de la inteligencia artificial de uso general, es esencial que se tome un enfoque medido para abordar los riesgos sistémicos asociados con esta tecnología.

 

Los modelos de inteligencia artificial de uso general (GPAI) son aquellos que tienen una amplia gama de posibles usos. Pueden utilizarse para una variedad de tareas en diferentes sectores, con frecuencia con muy poca modificación o ajuste, y los modelos individuales pueden integrarse en un gran número de sistemas de IA. La GPAI ha sido durante mucho tiempo un tema de interés y también de preocupación debido a sus capacidades. A medida que la tecnología continúa avanzando a un ritmo significativo, el potencial de la GPAI para revolucionar industrias y mejorar la vida diaria es innegable. Sin embargo, se debe prestar atención a los riesgos asociados con la GPAI.

 

Una de las principales preocupaciones en torno a la inteligencia artificial de uso general es el potencial de riesgo sistémico.

 

Debido al hecho de que varios de estos modelos son altamente efectivos o frecuentemente utilizados, puede haber varios peligros asociados con ellos. La nueva Ley europea de IA considera que ciertos modelos tienen capacidades de alto impacto. Se presume que los modelos de GPAI entrenados con una potencia de cálculo total de más de 10^25 FLOPs (una unidad de medida utilizada para cuantificar la potencia de cálculo de una computadora o un procesador) implican riesgos sistémicos, con «efectos negativos actuales o razonablemente previsibles en la salud pública, la seguridad, la seguridad pública, los derechos fundamentales o la sociedad en su conjunto, que pueden propagarse a gran escala a lo largo de la cadena de valor». Las capacidades de los modelos por encima de este umbral, que incluye a los modelos de GPAI actualmente más avanzados, como GPT-4 de OpenAI y Gemini de Google DeepMind, no se entienden lo suficientemente bien en este momento. La Oficina de IA, creada por la Comisión, tiene la autoridad para modificar este criterio a la luz de los avances tecnológicos e incluir criterios adicionales. La Ley europea de IA también puede ser enmendada para actualizar el umbral de FLOP (mediante un acto delegado).

 

Se espera que los proveedores de modelos considerados susceptibles a riesgos sistémicos cumplan con obligaciones específicas.

 

Los proveedores de modelos considerados susceptibles a riesgos sistémicos deben evaluar y mitigar riesgos, reportar incidentes relevantes, llevar a cabo pruebas avanzadas y evaluaciones de modelos, mantener requisitos de ciberseguridad y revelar los datos de consumo de energía de sus modelos. Estos proveedores están obligados a trabajar con la Oficina de IA Europea para desarrollar Códigos de Conducta, que serán el instrumento principal para definir las directrices junto con otros expertos. Además, la Ley europea de IA obliga a los proveedores de dichos modelos a divulgar cierta información a los proveedores de sistemas en los siguientes eslabones de la cadena, ya que la transparencia es necesaria para permitir una mejor comprensión de estos modelos. Los proveedores de modelos también deben tener políticas en vigor para asegurar que respetan la ley de derechos de autor al entrenar sus modelos. Un proveedor que quiera expandirse sobre un modelo de inteligencia artificial de uso general debe asegurarse de tener toda la información requerida para garantizar que su sistema es seguro y cumple con la Ley europea de IA.

 

Al priorizar la seguridad, la ética y la colaboración, los países europeos pueden ayudar a garantizar que la GPAI se desarrolle de manera responsable y sostenible en beneficio de la sociedad en su conjunto.

 

Para mitigar de manera continua y efectiva los riesgos asociados con la inteligencia artificial de uso general, los legisladores europeos deben adoptar un enfoque proactivo para regular el desarrollo de la GPAI. Establecer directrices éticas para la investigación e implementación de la GPAI así como crear mecanismos de supervisión para garantizar el cumplimiento será crucial para protegerlos frente a posibles amenazas. Colaborar con socios internacionales para desarrollar un enfoque unificado para la regulación de la GPAI también será esencial para abordar la naturaleza global de la tecnología. Además, la inversión en investigación y desarrollo de medidas de seguridad para la GPAI será crítica para asegurar que la tecnología se desarrolle de manera responsable. Al priorizar consideraciones de seguridad y ética en el diseño e implementación de sistemas de GPAI, los países europeos pueden ayudar a minimizar los riesgos potenciales asociados con la tecnología.

Descubre cómo Aphaia puede elevar tu estrategia de protección de datos e IA. Estamos especializados en soluciones innovadoras diseñadas en línea con la tecnología y la normativa para superar las demandas del marco actual mientras te ayudamos a implementar tus proyectos. Contacta con Aphaia hoy.

Prev post
Nueva ley europea de IA: ¿Qué es y a quién se aplica?
junio 27, 2024
Next post
IA de alto riesgo en la Ley europea de IA
julio 11, 2024