Una investigación revela que varios de los principales chatbots de inteligencia artificial comparten datos de conversaciones privadas con gigantes publicitarios como Meta, Google o TikTok. En algunos casos, los chats completos quedaron accesibles públicamente en internet.
La inteligencia artificial prometía asistentes personales inteligentes.
Pero detrás de esa apariencia amigable empieza a emerger el viejo negocio que domina internet desde hace dos décadas:
la explotación masiva de datos personales para publicidad y vigilancia digital.
Una investigación realizada por expertos de Imdea Networks ha destapado cómo plataformas de IA como:
- ChatGPT,
- Claude,
- Grok,
- y Perplexity
integran sistemas de rastreo publicitario similares a los utilizados históricamente por redes sociales y páginas web.
El problema es que ahora esos rastreadores podrían tener acceso a información muchísimo más sensible:
- dudas médicas,
- problemas legales,
- conversaciones íntimas,
- consultas financieras,
- o información laboral privada.
Chats privados expuestos públicamente
La revelación más grave afecta especialmente a Grok y Perplexity.
Según los investigadores, hasta comienzos de abril:
- los enlaces a conversaciones completas
- quedaban abiertos públicamente por defecto.
Eso significa que cualquier persona que obtuviera la URL podía acceder íntegramente al contenido del chat.
Palabra por palabra.
Sin contraseña.
Sin verificación.
Sin ningún control de acceso.
Aunque los investigadores aseguran no tener pruebas de accesos indebidos masivos, admiten que el riesgo existía plenamente.
El gran negocio detrás de la IA: publicidad y perfiles psicológicos
El informe muestra que los chatbots de IA ya están incorporando herramientas de rastreo utilizadas tradicionalmente por empresas como:
- Meta,
- Google,
- TikTok
- y otras plataformas publicitarias.
Estas tecnologías sirven para:
- analizar comportamiento,
- construir perfiles psicológicos,
- rastrear intereses,
- y personalizar anuncios.
La diferencia es que ahora la información recopilada puede ser muchísimo más íntima que la navegación web convencional.
Porque la IA no solo observa lo que buscas.
También escucha:
- tus miedos,
- tus problemas personales,
- tus dudas profesionales,
- tus inseguridades,
- y conversaciones que muchos usuarios consideran privadas.
ChatGPT y Claude también comparten información sensible
La investigación sostiene que incluso plataformas aparentemente más seguras como ChatGPT o Claude comparten con terceros ciertos metadatos de las conversaciones.
Entre ellos:
- títulos de chats,
- temática de consultas,
- o información contextual.
Y eso ya puede revelar datos extremadamente delicados.
Por ejemplo:
- enfermedades,
- problemas fiscales,
- consultas legales,
- salud mental,
- divorcios,
- o conflictos laborales.
La falsa sensación de privacidad
Uno de los puntos más inquietantes señalados por los investigadores es psicológico.
Muchos usuarios perciben los chatbots como conversaciones privadas similares a hablar con un amigo o un terapeuta.
Pero técnicamente funcionan sobre la misma infraestructura publicitaria que lleva años rastreando internet.
Según los expertos:
la interfaz conversacional genera una peligrosa ilusión de intimidad.
Y esa confianza hace que millones de personas compartan información que jamás publicarían en redes sociales.
Europa vuelve a chocar con Silicon Valley
El caso amenaza con abrir un nuevo conflicto regulatorio entre Bruselas y las grandes tecnológicas estadounidenses.
Especialmente porque el Reglamento General de Protección de Datos (RGPD) europeo exige:
- transparencia clara,
- consentimiento explícito,
- y limitación estricta del uso de datos personales.
Los investigadores denuncian que muchas plataformas de IA utilizan políticas de privacidad:
- extensas,
- ambiguas,
- y extremadamente complejas
para ocultar cómo circula realmente la información de los usuarios.
Meta, Google y TikTok acceden a datos ajenos
La investigación revela además un elemento especialmente polémico.
No se trata solo de que las propias compañías de IA procesen conversaciones para entrenar modelos.
Lo verdaderamente controvertido es que:
empresas publicitarias externas pueden recibir datos vinculados a conversaciones mantenidas en plataformas que ni siquiera controlan directamente.
Es decir:
Meta o TikTok podrían obtener información derivada de chats realizados en servicios ajenos.
El nuevo petróleo digital: las conversaciones humanas
La carrera por monetizar la inteligencia artificial empieza a mostrar su verdadera dirección.
Los modelos de IA requieren inversiones gigantescas y las empresas necesitan urgentemente nuevas vías de ingresos.
Y la publicidad personalizada sigue siendo el negocio más rentable de internet.
El problema es que las conversaciones con IA contienen un nivel de detalle emocional y psicológico sin precedentes.
Mucho más valioso que:
- clics,
- búsquedas,
- likes,
- o historial de navegación.
Un riesgo creciente para la privacidad global
La expansión acelerada de la IA generativa está ocurriendo mucho más rápido que la supervisión pública y regulatoria.
Mientras millones de personas integran chatbots en:
- trabajo,
- educación,
- salud,
- relaciones personales,
- y gestión financiera,
la protección real de esos datos sigue siendo extremadamente difusa.
Y muchos expertos temen que la inteligencia artificial termine convirtiéndose en el sistema de vigilancia comercial más invasivo jamás creado.
El viejo internet regresa disfrazado de IA
Durante años, Silicon Valley presentó la inteligencia artificial como una revolución tecnológica destinada a mejorar la vida humana.
Pero la lógica económica vuelve a ser la misma de siempre:
- recopilar datos,
- analizar comportamientos,
- construir perfiles,
- y monetizar la intimidad.
La diferencia es que ahora las máquinas no solo observan lo que hacemos.
También saben lo que pensamos.
