La OCU advierte: Desactiva la opción ‘compartir datos’ en ChatGPT para protegerte

La OCU advierte: Desactiva la opción ‘compartir datos’ en ChatGPT para protegerte

La organización explicó que el proceso es sencillo y puede realizarse en cuatro pasos desde la configuración de la cuenta en ChatGPT.

 

La Organización de Consumidores y Usuarios (OCU) ha emitido este viernes una recomendación urgente a los usuarios de ChatGPT, el popular chatbot desarrollado por OpenAI, instándoles a desactivar la opción de compartir datos para proteger su privacidad. Según la organización, la información que los usuarios comparten con esta herramienta, incluso en algunas de sus versiones de pago, podría estar siendo utilizada para entrenar los modelos de inteligencia artificial (IA) de la compañía, lo que plantea serias preocupaciones sobre el manejo de datos personales.

En un comunicado oficial, la OCU destacó que solo las versiones de pago «Team» (25 dólares al mes) y «Enterprise» (precio negociado) garantizan por defecto la privacidad de los datos compartidos por los usuarios. Por el contrario, las versiones gratuita («Free») y las de pago «Plus» (20 dólares al mes) y «Pro» (200 dólares al mes) permiten que las conversaciones registradas y los archivos subidos sean utilizados para mejorar la precisión y capacidad de los modelos de IA de OpenAI.

Aunque la compañía asegura que este uso no tiene fines comerciales, la OCU subraya que muchos usuarios desconocen esta práctica y aboga por tomar medidas para limitarla.

Recomendamos a todos los usuarios desactivar esta opción cuanto antes para proteger al máximo su privacidad.

Afirmó la OCU.

¿Cómo desactivar la opción ‘compartir datos’ en ChatGPT?

La organización explicó que el proceso es sencillo y puede realizarse en cuatro pasos desde la configuración de la cuenta en ChatGPT: Si prefieres que tu información no sea utilizada, tienes que desactivar esa función.

El proceso es fácil, aunque no está a simple vista:

  • Accede a tu cuenta de ChatGPT desde la plataforma de ChatGPT.
  • Haz clic en la imagen de tu perfil (ubicada en la esquina superior derecha) y elige Configuración.
  • En la ventana que aparece, dirígete a la sección de Controles de datos.
  • Desactiva la casilla que indica “Mejorar el modelo para todos”. (Al desactivar esta opción, tus conversaciones seguirán visibles en tu historial, pero no serán empleadas para entrenar la inteligencia artificial).

Este ajuste se aplica a toda tu cuenta, por lo que afecta tanto el uso que hagas desde la página web como desde dispositivos móviles, independientemente del lugar desde donde te conectes.

Otra alternativa es utilizar los chats temporales, en los cuales las conversaciones no se guardan en el historial (se mantienen por 30 días y solo se revisan si es necesario para identificar posibles usos indebidos, antes de eliminarse completamente) y no se emplean para entrenar los modelos, sin importar cómo tengas configurada tu cuenta.

De todas formas, el consejo de la OCU es,

Si utilizas esta IA con información delicada, como datos financieros, legales o médicos, tomes la precaución de desactivar esta función para resguardar tu privacidad.

Sin embargo, la OCU también advierte que, incluso con esta opción desactivada, OpenAI sigue recopilando datos básicos de los usuarios —como nombre, correo electrónico o método de pago— y otros relacionados con el uso técnico y legal, como la dirección IP o los metadatos de las sesiones.

Relacionados  La Escuela de la Felicidad se suma a Erasmus+ de Fundación Flors en Vila-real

Normativa Europea sobre Inteligencia Artificial y llamamiento a la acción

La advertencia de la OCU coincide con la entrada en vigor, desde febrero de 2025, de la nueva normativa de la Unión Europea sobre inteligencia artificial, que prohíbe prácticas como la manipulación de usuarios basada en vulnerabilidades (edad, discapacidad o situación socioeconómica) o la clasificación de personas según su comportamiento social.

Por la novedad de estas medidas, instamos a las administraciones a informar claramente a los consumidores para que puedan denunciar cualquier práctica que atente contra sus derechos fundamentales.

Señaló la organización.

Además, la OCU ha hecho un llamamiento a reforzar los recursos de la Agencia Española de Supervisión de Inteligencia Artificial (AESIA), el organismo encargado de velar por el cumplimiento de esta normativa y proteger a los usuarios. «Es esencial que la AESIA cuente con los medios suficientes para garantizar que herramientas como ChatGPT respeten las leyes de privacidad», añadieron.

Contexto Oficial y Respuesta de OpenAI

Según la política de privacidad de OpenAI, disponible en su sitio web oficial (https://openai.com/policies/privacy-policy), la compañía recopila datos de las interacciones de los usuarios para «mejorar sus servicios», lo que incluye el entrenamiento de sus modelos de IA. OpenAI asegura que realiza esfuerzos para anonimizar esta información, pero reconoce que las conversaciones pueden ser revisadas por empleados o proveedores autorizados en casos específicos, como la detección de abusos o el cumplimiento de obligaciones legales.

En respuesta a las crecientes preocupaciones sobre privacidad, OpenAI ha implementado desde 2023 opciones que permiten a los usuarios optar por no compartir sus datos para entrenamiento, una medida que fue anunciada tras críticas de reguladores europeos y que ahora la OCU busca que se generalice entre los usuarios. Sin embargo, expertos como Angus Allan, de la consultoría CreateFuture, han descrito la política de datos de OpenAI como una «recogida masiva de información» que sigue generando dudas sobre su alcance real.

Un debate global sobre IA y privacidad

El caso de ChatGPT no es aislado. En los últimos años, las agencias de protección de datos de países como Italia, España y Alemania han investigado a OpenAI por posibles violaciones del Reglamento General de Protección de Datos (RGPD) de la UE. En abril de 2023, Italia llegó a bloquear temporalmente el servicio hasta que la compañía cumpliera con ciertas exigencias legales, según informó el Garante per la Protezione dei Dati Personali (https://www.garanteprivacy.it).

Estas acciones reflejan un creciente escrutinio global sobre cómo las empresas de IA manejan la información de sus usuarios.

La OCU concluye que, mientras la tecnología de IA ofrece beneficios innegables, su desarrollo no debe comprometer los derechos de los consumidores.

Los usuarios tienen derecho a saber cómo se usa su información y a decidir si quieren contribuir al entrenamiento de estas herramientas.

Concluye la organización, que promete seguir vigilando el cumplimiento de las normativas en este ámbito.