Loading

Blog details

Las grandes tecnológicas presionan por normativa más ligera sobre IA en Europa

Las grandes tecnológicas presionan por normativa más ligera sobre IA en Europa

Las grandes tecnológicas presionan por una normativa más ligera sobre IA en Europa, tras diversas preocupaciones vinculadas con las multas previstas y las obligaciones de transparencia.

 

En un esfuerzo final que será determinante, las empresas tecnológicas más grandes del mundo están instando a la Unión Europea (UE) a adoptar una postura más flexible en la regulación de la inteligencia artificial (IA). Empresas como Amazon, Google y Meta se enfrentan actualmente a la posibilidad de recibir multas masivas bajo la nueva Ley de IA de la UE. Estas compañías están decididas a influir en los detalles finales de la ley, que busca proporcionar un marco integral para la gobernanza de la IA dentro de la UE. La UE alcanzó un acuerdo en mayo de 2023 sobre la Ley de IA, diseñada para regular esta tecnología en rápida evolución. Sin embargo, persisten incertidumbres sobre cómo se aplicará la ley, especialmente en lo que respecta a los sistemas de IA de «uso general» (IA-PG), como ChatGPT de OpenAI. Conforme a un artículo reciente de Reuters, la falta de claridad deja abierta la posibilidad de desafíos legales significativos, incluyendo demandas por infracción de derechos de autor y multas de miles de millones de euros.

 

La implementación de la Ley de IA depende de la finalización de los códigos de conducta relevantes, que delinean cómo las empresas deben cumplir con la ley.

 

La implementación de la Ley de IA depende de la finalización de sus códigos de conducta relevantes, que detallarán cómo se espera que las empresas cumplan con la ley. La UE ha invitado a actores de la industria, académicos y otras partes interesadas a contribuir en la redacción de estas directrices. La invitación recibió una gran respuesta, con casi 1.000 solicitudes, un número inusualmente alto, lo que evidencia la importancia de lo que está en juego para la industria tecnológica. Aunque el código de conducta no tendrá peso legal cuando entre en vigor a finales de 2025, se espera que funcione como una lista de verificación para el cumplimiento. No adherirse a él, mientras se afirma el cumplimiento con la Ley de IA en general, podría exponer a las empresas a riesgos legales. Boniface de Champris, gerente senior de políticas en la organización comercial CCIA Europe, que representa a importantes empresas tecnológicas como Amazon, Google y Meta, destacó la importancia de que el código sea adecuado. «Si es demasiado concreto o específico, se volverá muy difícil», dijo, señalando que un marco demasiado rígido podría frenar la innovación.

 

El debate sobre el uso de datos con derechos de autor en el entrenamiento de IA continúa, con la Ley de IA de la UE exigiendo resúmenes detallados de los datos de entrenamiento.

 

Uno de los temas controvertidos gira en torno al uso de datos con derechos de autor para entrenar modelos de IA. Empresas como OpenAI y Stability AI han sido criticadas por presuntamente usar materiales protegidos por derechos de autor, como libros y archivos fotográficos, sin permiso. Según la Ley de IA de la UE, las empresas tecnológicas deberán proporcionar resúmenes detallados de los datos utilizados para entrenar sus modelos. Esto ha generado un debate sobre la transparencia y los derechos de propiedad intelectual. Mientras algunas empresas argumentan que estos resúmenes deberían contener solo detalles mínimos para proteger secretos comerciales, otras insisten en que los creadores tienen derecho a saber si su trabajo ha sido utilizado sin consentimiento. OpenAI, que ha sido criticada por su falta de transparencia, está entre las empresas que solicitan participar en la creación del código de conducta, lo que muestra el alto nivel de interés de los principales desarrolladores de IA. Maximilian Gahntz, líder de políticas de IA en la Fundación Mozilla, expresó su preocupación por la renuencia de algunas empresas a ser completamente transparentes. «La Ley de IA presenta la mejor oportunidad para arrojar luz sobre este aspecto crucial e iluminar al menos parte de la caja negra», dijo, refiriéndose a la naturaleza a menudo opaca de los sistemas de IA.

 

Las startups tecnológicas buscan obligaciones viables bajo la Ley de IA que permitan el continuo crecimiento y desarrollo de la tecnología de IA.

 

A medida que los funcionarios de la UE trabajan en la redacción del texto final, se debe lograr un delicado equilibrio entre fomentar la innovación y garantizar una supervisión adecuada. Algunas voces de la industria han criticado a la UE por centrarse demasiado en la regulación a expensas del avance tecnológico. El expresidente del Banco Central Europeo, Mario Draghi, ha pedido una política industrial más coordinada y una toma de decisiones más rápida para ayudar a la UE a mantenerse al ritmo de competidores globales como China y Estados Unidos. Las startups tecnológicas europeas también están presionando por consideraciones especiales bajo la Ley de IA. Maxime Ricard, gerente de políticas en Allied for Startups, una red de organizaciones que representa a pequeñas empresas tecnológicas, subrayó la necesidad de obligaciones que sean viables para las startups. «Hemos insistido en que estas obligaciones deben ser manejables y, si es posible, adaptadas a las startups», afirmó.

 

La redacción de la Ley de IA de la UE involucra a ONGs y empresas tecnológicas, lo que ha generado algunas preocupaciones sobre que las grandes corporaciones debiliten los requisitos de transparencia.

 

Organizaciones sin fines de lucro, incluidas Access Now y el Future of Life Institute, se han unido a las empresas tecnológicas en la solicitud de participar en el proceso de redacción. Mientras algunos temen que las grandes corporaciones intenten diluir los requisitos de transparencia, Maximilian Gahntz, de Mozilla, destacó la importancia de mantener mandatos de transparencia fuertes para garantizar la rendición de cuentas en el desarrollo de IA. Una vez que el código se publique a principios de 2025, las empresas tecnológicas tendrán hasta agosto de 2025 para cumplir con él. Como líder global en regulación de IA, el enfoque de la UE podría tener implicaciones de largo alcance, no solo para Europa, sino para cómo se gobierna la IA en todo el mundo. El resultado de estas deliberaciones dará forma al futuro de la inteligencia artificial durante años.

Descubre cómo puede ayudarte Aphaia a cumplir con tu estrategia de protección de datos e IA. Ofrecemos soluciones de cumplimiento para la Ley de IA y el RGPD. Nos especializamos en impulsar a organizaciones como la tuya con un enfoque innovador diseñado para cubrir y superar las expectativas del marco actual. Contacta con Aphaia hoy.

Prev post
Notificaciones de brechas de datos personales: lecciones de la Autoridad de Protección de Datos de los Países Bajos
octubre 10, 2024
Next post
Interés legítimo como base legal: Orientaciones del CEPD
octubre 24, 2024