OpenAI enfrenta una nueva denuncia en la Unión Europea

OpenAI se enfrenta a otra queja de privacidad en la Unión Europea. La misma ha sido presentada por noyb, una organización sin fines de lucro que defiende los derechos de privacidad, en nombre de un denunciante individual que apunta a la incapacidad del chatbot de IA, ChatGPT, para corregir la información errónea que genera sobre las personas.

La tendencia de las herramientas GenAI a producir información claramente errónea ha sido bien documentada. Pero también coloca a la tecnología en curso de colisión con el Reglamento General de Protección de Datos (RGPD) del bloque, que rige cómo se pueden procesar los datos personales de los usuarios regionales.

Las sanciones por incumplimiento del RGPD pueden alcanzar hasta el 4% de la facturación anual global. Lo que es mucho más importante para un gigante rico en recursos como OpenAI: los reguladores de protección de datos pueden ordenar cambios en la forma en que se procesa la información, por lo que la aplicación del RGPD podría remodelar la forma en que las herramientas de IA generativa pueden operar en la UE.

OpenAI ya se vio obligada a realizar algunos cambios después de una intervención temprana de la autoridad de protección de datos de Italia, que obligó brevemente a cerrar localmente ChatGPT en 2023.

Ahora noyb está presentando la última queja GDPR contra ChatGPT ante la autoridad de protección de datos de Austria en nombre de un denunciante anónimo (descrito como una «figura pública») que descubrió que el chatbot de IA les produjo una fecha de nacimiento incorrecta.

Según el RGPD, las personas en la UE tienen un conjunto de derechos asociados a la información sobre ellos, incluido el derecho a que se corrijan los datos erróneos. noyb sostiene que OpenAI no cumple con esta obligación con respecto a la producción de su chatbot. Dijo que la empresa rechazó la solicitud del demandante de rectificar la fecha de nacimiento incorrecta, respondiendo que era técnicamente imposible corregirla. En lugar de eso, ofreció filtrar o bloquear los datos según ciertas indicaciones, como el nombre del denunciante.

La política de privacidad de OpenAI establece que los usuarios que noten que el chatbot de IA ha generado «información objetivamente inexacta» pueden enviar una «solicitud de corrección» a través de Privacy.openai.com o enviando un correo electrónico a dsar@openai.com. Sin embargo, advierte: «Dada la complejidad técnica de cómo funcionan nuestros modelos, es posible que no podamos corregir la inexactitud en todos los casos». En ese caso, OpenAI sugiere que los usuarios soliciten que elimine por completo su información personal de la salida de ChatGPT, completando un formulario web.

El problema para el gigante de la IA es que los derechos del RGPD no son a la carta. Los ciudadanos de Europa tienen derecho a solicitar la rectificación. También tienen derecho a solicitar la supresión de sus datos. Pero, como señala noyb, no le corresponde a OpenAI elegir cuáles de estos derechos están disponibles.

Otros elementos de la queja se centran en preocupaciones sobre la transparencia del RGPD, y noyb sostiene que OpenAI no puede decir de dónde provienen los datos que genera sobre las personas, ni qué datos almacena el chatbot sobre las personas. Esto es importante porque, nuevamente, la regulación otorga a las personas el derecho de solicitar dicha información mediante la llamada solicitud de acceso al sujeto (SAR).

La compañía dijo que está pidiendo a la DPA de Austria que investigue la queja sobre el procesamiento de datos de OpenAI, además de instarla a imponer una multa para garantizar el cumplimiento futuro. Pero añadió que es «probable» que el caso se resuelva mediante la cooperación de la UE.

OpenAI se enfrenta a una queja muy similar en Polonia. En septiembre pasado, la autoridad local de protección de datos abrió una investigación de ChatGPT luego de la queja de un investigador de privacidad y seguridad que también descubrió que OpenAI no podía corregir información incorrecta sobre él. Esa denuncia también acusa al gigante de la IA de no cumplir con los requisitos de transparencia del reglamento.

Mientras tanto, la autoridad italiana de protección de datos todavía tiene una investigación abierta sobre ChatGPT. En enero presentó un borrador de decisión, diciendo entonces que creía que OpenAI había violado el RGPD de varias maneras, incluso en relación con la tendencia del chatbot a producir información errónea sobre las personas. Las conclusiones también se refieren a otras cuestiones cruciales, como la legalidad del procesamiento.

El otoño pasado, la compañía abrió una oficina regional en Dublín, en una medida que parece destinada a reducir su riesgo regulatorio al hacer que las quejas de privacidad sean canalizadas por la Comisión de Protección de Datos de Irlanda, gracias a un mecanismo en el GDPR que pretende agilizar la supervisión de las quejas transfronterizas. canalizándolos a una única autoridad estatal miembro donde la empresa está «principalmente establecida».

Vía – Techcrunch

Jeremías Rodríguez

Profesor de Historia. Amante de los libros, la tecnología y el buen café.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.