Tus conversaciones con la IA podrían no ser tan privadas como crees

El rastreo publicitario habitual en la web ya está presente en ChatGPT (OpenAI), Claude (Anthropic), Grok y Perplexity AI

06 Mayo 2026

Un estudio llevado a cabo por investigadores de IMDEA Networks Institute ha revelado que ChatGPT (OpenAI), Claude (Anthropic), Grok y Perplexity AI emplean distintos tipos de rastreadores de Meta, Google, TikTok y otras compañías exponiendo datos de conversación y actividad de las personas usuarias.

En apenas unos años, estos sistemas de inteligencia artificial generativa se han extendido ampliamente y muchas personas los utilizan como asistentes de confianza, compartiendo información sensible (datos de salud, cuestiones personales o datos profesionales) bajo la percepción de que se trata de interacciones privadas. Sin embargo, la investigación advierte de que esta percepción puede resultar engañosa: aunque la interfaz simula una conversación, por debajo operan infraestructuras técnicas similares a las del ecosistema web tradicional, basadas en la recogida y tratamiento de datos mediante servicios de analítica y publicidad digital.

Riesgos clave

El trabajo identifica tres problemas principales: la exposición de enlaces permanentes de conversaciones a rastreadores de terceros; la capacidad de vincular estas interacciones con identidades de usuario mediante mecanismos de seguimiento; y la existencia de controles y políticas de privacidad que podrían no reflejar con precisión los flujos reales de datos.

Uno de los principales hallazgos es la posible transmisión de información sobre las conversaciones de las personas usuarias, como títulos de chats, direcciones URL que funcionan como enlaces permanentes (permalinks) o metadatos asociados, a rastreadores de terceros como Meta o Google, junto con cookies y otros identificadores.

“Aún más preocupante: en algunos casos, un control de acceso débil o inexistente significa que un simple enlace a una conversación puede otorgar acceso a su contenido, lo que hace que tus chats sean públicos para cualquiera (incluidos los rastreadores) que tenga la URL”, señala Narseo Vallina Rodríguez, profesor de investigación asociado en IMDEA Networks.

“Grok y Perplexity envían URL de conversaciones con un control de acceso débil (enlaces permanentes) a rastreadores de terceros como Meta Pixel. Grok incluso expone el texto de los mensajes tal cual en los metadatos de Open Graph que TikTok recopila”, añade Guillermo Suárez-Tangil, coautor y también profesor de investigación asociado en IMDEA Networks.

El estudio también identifica mecanismos que podrían permitir vincular la actividad en sistemas de IA con identidades reales. La combinación de identificadores como cookies (por ejemplo, utilizadas en servicios de seguimiento), correos electrónicos hasheados y técnicas de seguimiento del lado del servidor podría facilitar la creación de perfiles persistentes y la reidentificación de usuarios/as.

Estas prácticas reflejan, según los autores, la continuidad de modelos de negocio basados en datos dentro del ecosistema de la inteligencia artificial generativa. “La mayoría de los usuarios/as no tienen forma de saber que esto está ocurriendo; no hay nada visible en la interfaz que se lo indique. Rechazar las cookies no esenciales ayuda en algunos casos, pero nuestra investigación demuestra que no siempre es suficiente. Hasta que estas prácticas no se aborden a nivel de plataforma, las opciones de los usuarios/as son muy limitadas”, afirma Aniketh Girish, coautor e investigador postdoctoral en IMDEA Networks.

Controles de privacidad y transparencia bajo escrutinio

El análisis señala además que algunas herramientas ofrecen controles de privacidad que podrían inducir a error sobre el nivel real de protección. “Las políticas admiten el uso de rastreadores de anuncios y el intercambio de datos con ‘socios comerciales’, pero nunca indican claramente que las conversaciones reales forman parte de la información que se comparte”, subraya Suárez-Tangil.

Desde una perspectiva legal (RGPD), el problema es doble: por un lado, la falta de una base legal clara para el intercambio de datos; por otro, la escasa información proporcionada a las personas usuarias. Según el abogado y responsable de protección de datos Jorge García Herrero, quien ha colaborado ​​en el estudio, la advertencia de que nuestra información más sensible puede llegar a la industria publicitaria merece la misma atención que la omnipresente cláusula de exención de responsabilidad «La IA puede cometer errores, verifique sus respuestas» presente en todas las interfaces para limitar la responsabilidad cuando algo sale mal.

Los autores concluyen que, aunque los resultados son preliminares, apuntan a la necesidad de reforzar la transparencia, los mecanismos de control de acceso y la protección de datos en sistemas de inteligencia artificial generativa, así como de avanzar en su análisis desde la perspectiva regulatoria.

Más información: https://leakylm.github.io/

Download PDF
Fuente(s): IMDEA Networks Institute
Categorizado en: ,

Archivos

Categorías