ChatGPT es acusado de violar la privacidad de los usuarios según la GDPR

La empresa responsable de ChatGPT podría enfrentarse a una multa millonaria por recoger y usar datos personales sin consentimiento, según una queja presentada en Polonia.

OpenAI, la empresa responsable de la inteligencia artificial generativa, ChatGPT, se enfrenta a una posible sanción por recoger y usar datos personales de los usuarios sin su consentimiento. Una queja presentada ante la Oficina Polaca de Protección de Datos Personales alega que la empresa ha infringido varias normas del Reglamento General de Protección de Datos (GDPR) de la Unión Europea, lo que podría suponer una multa millonaria.

¿Qué es ChatGPT y por qué es polémico?

ChatGPT es un chatbot basado en inteligencia artificial que puede generar respuestas a partir de cualquier texto introducido por el usuario. La herramienta utiliza un modelo de lenguaje llamado GPT-3, desarrollado por OpenAI, que es capaz de producir textos coherentes y creativos sobre cualquier tema.

Sin embargo, el funcionamiento de ChatGPT plantea algunas dudas sobre la privacidad y la ética de los datos que utiliza. Según la queja presentada por el investigador de seguridad y privacidad Lukasz Olejnik, ChatGPT viola el GDPR en varios aspectos:

Olejnik afirma que se dio cuenta de estas irregularidades cuando usó ChatGPT para generar una biografía de sí mismo, que resultó ser falsa e inexacta. Al solicitar a OpenAI que le proporcionara información sobre los datos que había recopilado sobre él y que rectificara la biografía errónea, dice que no recibió una respuesta satisfactoria.

 OpenAI, denunciado por violar la privacidad de los usuarios con su chatbot ChatGPT.

¿Qué consecuencias podría tener para OpenAI?

Si la Oficina Polaca de Protección de Datos Personales decide abrir una investigación y sancionar a OpenAI, la empresa podría enfrentarse a una multa de hasta el 4% de su facturación anual global, según el GDPR. Además, podría tener que modificar o retirar su chatbot ChatGPT para cumplir con las normas europeas.

No es la primera vez que OpenAI se encuentra en problemas por su chatbot. En marzo de 2023, los reguladores italianos prohibieron ChatGPT en Italia por violar la privacidad del usuario. Asimismo, la herramienta ha sido criticada por generar contenidos ofensivos, discriminatorios o falsos en algunas ocasiones.

El caso de OpenAI podría sentar un precedente para regular el uso de la inteligencia artificial generativa y proteger los datos personales de los usuarios. Estaremos atentos a cómo se desarrolla este asunto, ya que podría implicar cambios significativos no solo para ChatGPT, sino para los chatbots de IA en general.

Te puede interesar: La peligrosa razón por la que NO deberías tener ChatGPT en WhatsApp

Noticias Relacionadas

TE PUEDE INTERESAR

MÁS NOTICIAS

MÁS NOTICIAS