Loading

Blog details

La autoridad de control de Italia veta chatGPT temporalmente

La autoridad de control de Italia veta chatGPT temporalmente

Italia se convierte en el primer país occidental en vetar chatGPT temporalmente.

 

La autoridad de control Italiana (Garante) ha anunciado un veto temporal a chatGPT, una tecnología de chatbot que utiliza modelos de lenguaje GPT (Transformador Generativo Preeentrenado). Los chatbots que emplean modelos de lenguaje GPT están diseñados para emular las interacciones humanas y generar respuestas que pretenden ser lo más naturales posible. Sin embargo, esta tecnología está ahora en el foco de análisis porque se percibe una falta de control sobre los resultados y por la posibilidad de compartir datos sensibles de manera inadvertida. La decisión de Garante tiene lugar después de que surgieran una serie de preocupaciones sobre los riesgos potenciales para la privacidad y protección de datos. Así, Italia se convierte en el primer país occidental en bloquear el chatbot de IA ChatGPT. 

 

ChatGPT está vetado temporalmente en Italia hasta que se establezcan protocolos más robustos para mitigar los riesgos asociados con la app. 

 

Garante ha solicitado que se paralice el uso de chatGPT hasta que se establezcan protocolos más robustos para mitigar los riesgos. Se ha enfatizado la importancia de la transparencia y la rendición de cuentas en el uso de tecnologías impulsadas por IA, y la necesidad de garantizar un mayor nivel de protección de los derechos y libertades de los interesados. Hasta ahora parece que no existe una base legal que respalde la recopilación y el tratamiento masivos de datos con el objetivo de entrenar los algoritmos que constituyen esta app. Además, la plataforma tampoco cuenta con sistemas de verificación de edad que eviten que los niños sean expuestos a respuestas inapropiadas por parte de chatGPT. El anuncio de Garante ha creado conciencia sobre la importancia de hacer un uso responsable de las tecnologías de IA, especialmente en el contexto de las leyes de privacidad y protección de datos. Este movimiento va en línea con publicaciones recientes del Comité Europeo de Protección de Datos (CEPD), que requiere a las organizaciones llevar a cabo sólidas evaluaciones de riesgo antes de desarrollar IA y otras tecnologías emergentes. 

 

El veto temporal de chatGPT por parte de Garante destaca la importancia de hacer un uso responsable de la IA y de contar con protocolos estrictos que garanticen la privacidad y protección de datos. 

 

El veto temporal de chatGPT por la autoridad de control de Italia es parte de un esfuerzo más amplio por promover un uso responsable y ético de las tecnologías de IA en Italia. Garante ha defendido la adopción de principios de privacidad por diseño y por defecto y aboga por una mayor transparencia en el desarrollo de algoritmos. OpenAI tendrá veinte días para notificar a Garante las medidas implementadas para cumplir con esta orden. Si no lo hace, la compañía puede enfrentarse a multas de hasta 20 millones o el 4% del beneficio global del año anterior. Este veto temporal evidencia la importancia de un uso responsable de la IA y la necesidad de protocolos estrictos para asegurar el respeto por la privacidad y la protección de datos. Esta medida acompaña los esfuerzos de promover transparencia y buenas prácticas en este ámbito y subraya el panorama regulatorio de la IA, que evoluciona rápidamente en todo el mundo. Conforme las organizaciones navegan estos retos, es esencial mantenerse informado y adaptarse a los requisitos para promover un uso responsable y ético de la IA. 

¿Has implementado todas las medidas para cumplir con el RGPD, la LOPDGDD, la LSSI y la directiva ePrivacy? Nuestros servicios integrales abarcan, entre otras áreas, Evaluaciones de Impacto de Protección de Datos, Evaluaciones de la Ética de la IA, Implementación del RGPD, la LOPDGDD y la LSSI y subcontratación del Delegado De Protección de Datos. Infórmate aquí.

Prev post
Temporary ban on chatGPT by the Italian DPA
April 4, 2023
ICO guidance for companies
Next post
ICO guidance for companies that develop or use generative AI systems
April 6, 2023