Privacidad y seguridad de datos en ChatGPT: riesgos y recomendaciones clave

SAPIENSDATAAI - MIGUEL MARÍN PASCUAL
privacidad en ChatGPTseguridad de datos IAOpenAIvulnerabilidades técnicasfiltración de datosprotección de datos personalesregulación de IAconfiguración de privacidad ChatGPTataques de canal lateral

La privacidad y seguridad de los datos en el uso de ChatGPT y otras plataformas de inteligencia artificial (IA) se han convertido en temas críticos y controvertidos, a medida que estas tecnologías se integran en la vida cotidiana. Aunque empresas como OpenAI promueven estas herramientas como seguras y comprometidas con la protección de los usuarios, diversas investigaciones y eventos recientes evidencian múltiples riesgos, desde el almacenamiento y posible uso indebido de la información hasta vulnerabilidades técnicas que podrían exponer conversaciones privadas.

Almacenamiento y uso de datos en ChatGPT: advertencias oficiales

Sam Altman, CEO de OpenAI, ha aclarado que las conversaciones con ChatGPT no son privadas en el sentido tradicional. A diferencia de profesiones reguladas como psicólogos o abogados, cuyos diálogos están protegidos por el secreto profesional, la información compartida con la IA puede ser almacenada y utilizada, incluso en contra del usuario. Altman enfatiza especialmente que muchos usuarios, sobre todo jóvenes, emplean ChatGPT como una herramienta de terapia, situación que no cuenta con la protección legal que garantizaría la confidencialidad paciente-profesional. OpenAI reconoce este problema e intenta mejorar los mecanismos de privacidad, pero enfrenta retos regulatorios y legales complejos. Además, en casos judiciales extremos, la empresa podría verse obligada a entregar datos de usuarios bajo demanda legal.

Riesgos de filtración y exposición de información sensible

La exposición inadvertida de datos personales es una de las principales preocupaciones actuales. Investigaciones recientes han demostrado que miles de conversaciones con ChatGPT podrían estar siendo indexadas y accesibles públicamente mediante búsquedas en Google. Bruno Dangelo, experto en SEO, descubrió que, con el operador “site:chatgpt.com/share”, es posible encontrar chats privados sobre temáticas diversas, incluyendo consultas médicas, financieras o datos personales sensibles. Algunos usuarios están incluso optando por hacer públicas estas conversaciones con fines promocionales o de posicionamiento web, sin considerar las implicaciones de privacidad.

Adicionalmente, una investigación de Google reveló que mediante algunas técnicas se pueden extraer datos privados memorizados por ChatGPT, como nombres, direcciones y teléfonos, directamente de ejemplos utilizados para entrenar el modelo. Aunque OpenAI elimina estos datos definitavamente tras un periodo de 30 días, la posibilidad de exposición temporal persiste.

Consejos para evitar filtraciones y proteger la privacidad

  • No compartir información sensible con ChatGPT, incluyendo números de identidad, datos financieros, resultados médicos o contraseñas.
  • Desactivar el historial de chat y la opción de entrenamiento con datos personales en la configuración de ChatGPT para limitar su uso y almacenamiento.
  • Eliminar periódicamente las conversaciones almacenadas y usar el modo incógnito de los navegadores para minimizar registros locales y evitar rastros.
  • Crear cuentas gratuitas oficiales de OpenAI para activar opciones de privacidad avanzadas y evitar que las sesiones sean indexadas públicamente.

Vulnerabilidades técnicas que amenazan la confidencialidad

Más allá de políticas y configuraciones, existen riesgos derivados de la arquitectura tecnológica y ataques externos. Un estudio del Laboratorio de Investigación de IA Ofensiva de la Universidad Ben-Gurion en Israel demostró que es posible romper la encriptación de las conversaciones de ChatGPT mediante ataques de canal lateral. Estos ataques interceptan el tráfico cifrado para inferir la longitud de tokens y parte del contenido de las respuestas, lo que permite a potenciales atacantes acceder a detalles de chats que deberían ser privados, desvelando información sensible.

Marco legal y regulatorio: investigaciones y desafíos

La preocupación sobre el manejo de datos y la privacidad ha llegado también a instancias regulatorias. Por ejemplo, la Comisión Federal de Comercio (FTC) en Estados Unidos investiga si OpenAI ha incurrido en prácticas injustas o engañosas en cuanto a la seguridad y privacidad de datos, con potencial para representar una amenaza legal para la empresa. Estas investigaciones buscan establecer si existe un equilibrio adecuado entre innovación y protección del usuario final.

Actualmente, OpenAI puede utilizar los datos personales que comparte el usuario para mejorar sus servicios, desarrollar nuevas funcionalidades, llevar a cabo investigaciones o cumplir obligaciones legales, como prevenir abusos y fraudes. Esta política amplia crea un escenario donde la privacidad absoluta no está garantizada y los usuarios deben ser conscientes de los posibles usos secundarios que sus datos puedan tener.

Recomendaciones para usuarios: buenas prácticas y precauciones

Ante este escenario multifacético, la Organización de Consumidores y Usuarios (OCU) junto con otras entidades especializadas recomiendan que los usuarios adopten una actitud cautelosa al interactuar con ChatGPT:

  • Evitar compartir información personal o confidencial. Esto incluye no solo datos identificativos o financieros, sino también secretos empresariales o información sensible relacionada con salud o situaciones legales.
  • Gestionar las opciones de privacidad dentro de la plataforma, especialmente deshabilitando el historial de chats y el uso de las conversaciones para entrenar modelos futuros.
  • Mantener una higiene digital adecuada, borrando conversaciones previamente generadas y usando modos privados en navegadores.
  • Estar atentos a actualizaciones y mejoras aplicadas por OpenAI en materia de seguridad y políticas de privacidad.

Conclusión: un equilibrio complejo entre utilidad y privacidad

El uso de ChatGPT y otras inteligencias artificiales conversacionales ofrece enormes beneficios para usuarios de todo tipo, incluyendo aplicaciones terapéuticas, educativas, comerciales y recreativas. Sin embargo, el estado actual de la tecnología, sus políticas de datos y las vulnerabilidades detectadas evidencian que la privacidad no está garantizada de forma absoluta y que los usuarios deben ser conscientes de los riesgos que implica compartir información sensible.

El avance regulatorio y las mejoras tecnológicas en privacidad serán claves para fortalecer la confianza en estas plataformas. Hasta entonces, la recomendación general por parte de expertos y organismos es emplear estas herramientas con precaución, limitar la divulgación de datos personales y mantenerse informados sobre las prácticas y configuraciones que maximicen la seguridad.

Solicitar diagnóstico gratuito
Asesor VirtualAsesor Virtual 24h