Una investigación reciente ha puesto sobre la mesa una advertencia que obliga a repensar la seguridad digital: la tecnología de inteligencia artificial, especialmente los modelos de lenguaje grandes (LLM), ha alcanzado un punto en el que puede desanonimizar con éxito a usuarios en redes sociales, emparejando cuentas “secretas” con identidades reales.
Según un estudio citado por The Guardian, esta capacidad ya no es teórica, sino práctica y accesible, incluso para actores con recursos limitados, lo que fuerza una “revaluación fundamental de lo que puede considerarse privado en línea”.
La promesa del anonimato online ha sido un pilar para la libertad de expresión, el activismo y la simple privacidad personal durante décadas. Usuarios han confiado en cuentas separadas o “quemadas” (burner accounts) para participar en foros, criticar o explorar intereses sin vincularlos a su vida pública.
La tecnología subyacente a herramientas como ChatGPT, basada en LLMs, se desarrolló originalmente para tareas de generación y comprensión de lenguaje. Sin embargo, su capacidad para analizar patrones, correlacionar información dispar y realizar inferencias a gran escala la ha convertido en un instrumento potentísimo para el análisis de datos públicos.
Los investigadores Simon Lermen y Daniel Paleka, cuyos hallazgos se han replicado en varios análisis, señalaron que estos modelos hacen “económicamente viable” ejecutar sofisticados ataques a la privacidad que antes requerían grandes equipos humanos o recursos computacionales prohibitivos.

El núcleo del problema reside en la eficacia demostrada en escenarios de prueba. El proceso, según detallan las fuentes, no depende de hackear contraseñas, sino de conectar los puntos que cada usuario deja inevitablemente en la red.
- En la mayoría de los escenarios de prueba, los LLMs fueron capaces de emparejar usuarios anónimos con sus identidades verificadas en otras plataformas. El sistema analiza el estilo de escritura, temas de interés, menciones geográficas, eventos personales descritos e incluso referencias únicas (como el nombre de una mascota o un parque específico).
- La tecnología detrás de las plataformas de IA permite automatizar la búsqueda y cruce de información pública a una escala y velocidad imposible para un humano, reduciendo drásticamente la barrera de entrada para realizar estos ataques.
- Los investigadores ilustraron el método con un ejemplo hipotético: un usuario anónimo que menciona tener dificultades en la escuela y pasear a su perro “Biscuit” por el “parque Dolores”. Un LLM puede utilizar esas pistas para buscar coincidencias en otras redes sociales y perfiles públicos, logrando una identificación exitosa.
Las implicaciones de este avance son profundas y multifacéticas. Para los periodistas, activistas o disidentes políticos que dependen del anonimato para su seguridad, esta tecnología representa una amenaza existencial.
Según el análisis de Tech in Asia, la capacidad de la IA para desenmascarar identidades podría tener un “efecto escalofriante” en la libertad de expresión en entornos represivos.
Para el usuario promedio, el concepto de compartir pensamientos de manera anónima en foros como Reddit queda en entredicho.
Como resume The Verge, “Bitcoin inventor Satoshi Nakamoto is probably safe. Your Reddit burner account, on the other hand…” (El inventor de Bitcoin Satoshi Nakamoto probablemente esté a salvo. Tu cuenta quemada de Reddit, por otra parte…).
Los investigadores sostienen que los LLM obligan a una “revaluación fundamental de lo que puede considerarse privado online”, según su estudio publicado.
La preocupación se extiende también al ámbito de la vigilancia y el ciberacceso. La facilidad para identificar autores de comentarios o publicaciones podría ser explotada por actores maliciosos, tal como advierte National Today.
El estudio no sugiere que la inteligencia artificial sea inherentemente maliciosa, sino que es una herramienta de doble filo cuya potencia para el análisis de datos ha superado las protecciones de privacidad que se daban por sentadas.


