Las conversaciones compartidas de ChatGPT están siendo indexadas por los principales motores de búsqueda, convirtiendo efectivamente los intercambios privados en contenido descubierta públicamente accesible para millones de usuarios en todo el mundo.
El problema salió a la luz por primera vez a través de informes de investigación de Fast Company, que reveló que casi 4.500 conversaciones de CHATGPT aparecían en los resultados de búsqueda de Google.
El descubrimiento se realizó utilizando una técnica simple pero poderosa de Google Dorking: Búsqueda de sitio: chatgpt.com/share seguido de palabras clave específicas.
Google Dorks para la consulta de chatgpt
Esta metodología básica de OSINT expuso un tesoro de conversaciones supuestamente privadas, desde consultas mundanas sobre renovaciones en el hogar hasta discusiones profundamente personales sobre salud mental, luchas de adicciones y experiencias traumáticas.
Lo que hace que este descubrimiento sea particularmente alarmante es que los usuarios que hicieron clic en el botón “Compartir” de ChatGPT probablemente esperaban que sus conversaciones permanecieran dentro de un círculo limitado de amigos, colegas o familiares de la familia. En cambio, estos intercambios se convirtieron en contenido de búsqueda indexado por los motores de búsqueda más poderosos del mundo.
La función de intercambio de ChatGPT, introducida en mayo de 2023, permitió a los usuarios generar URL únicas para sus conversaciones. Cuando los usuarios hicieron clic en el botón “Compartir”, podían crear un enlace público y, lo que es crucial, tenían la opción de verificar una casilla etiquetada como “Haga este chat descubrible”, lo que permitiría que aparezca en las búsquedas web.
Haga que este chat se pueda descubrir
Si bien esto requería una acción deliberada del usuario, muchos usuarios parecían desconocidos de las implicaciones más amplias de habilitar esta característica.
El mecanismo fue sencillo: una vez que una conversación se marcó como descubrible, los rastreadores de motores de búsqueda podrían indexar el contenido al igual que cualquier otra página web de acceso público.
Los enlaces compartidos siguieron una estructura de URL predecible (chatgpt.com/share/(unique-identifier)), haciéndolos fáciles de descubrir a través de consultas de búsqueda específicas.
Variaciones del motor de búsqueda: una historia de tres plataformas
El equipo de noticias de ciberseguridad investigó este problema para determinar el comportamiento de los usuarios en los motores de búsqueda. Las capturas de pantalla incluidas revelan diferencias fascinantes en la forma en que los motores de búsqueda importantes manejan la indexación de contenido de ChatGPT.
Google: En agosto de 2025, Google había dejado de devolver principalmente los resultados para las conversaciones compartidas de ChatGPT, mostrando “su búsqueda no coincidía con ningún documento” para la mayoría de las consultas.
Bloqueado de búsqueda en Google (créditos de imagen: cybersecuritynews.com)
Bing: El motor de búsqueda de Microsoft mostró resultados mínimos, mostrando solo cantidades limitadas de conversaciones de CHATGPT indexadas.
Resultado de búsqueda de copilot (créditos de imagen: cybersecuritynews.com)
Duckduckgo: Quizás lo más sorprendente, Duckduckgo continuó superficialmente los resultados integrales de las conversaciones de ChatGPT, convirtiéndose efectivamente en la puerta de entrada principal para acceder a este contenido. Este motor de búsqueda centrado en la privacidad se convirtió irónicamente en la herramienta más efectiva para descubrir conversaciones de IA supuestamente privadas.
Resultado de búsqueda de Duckduckgo (créditos de imagen: cybersecuritynews.com)
Osint Goldmine para los malos actores
Para los investigadores de inteligencia de código abierto (OSINT), este descubrimiento representó una oportunidad sin precedentes. Los profesionales de la seguridad reconocieron rápidamente que las conversaciones de ChatGPT indexadas podrían proporcionar “exactamente lo que su audiencia lucha” y “Preguntas están demasiado avergonzadas de hacer públicamente”.
Las conversaciones revelaron ideas auténticas y sin filtrar sobre el comportamiento humano, las estrategias comerciales e información confidencial que los métodos tradicionales de OSINT nunca podrían descubrir.
Los expertos en ciberseguridad notaron que las conversaciones expuestas incluían el código fuente, la información comercial patentada, la información de identificación personal (PII) e incluso las contraseñas integradas en los fragmentos de código.
La investigación de Cyberhaven Labs encontró que el 5.6% de los trabajadores de conocimiento habían usado ChatGPT en el lugar de trabajo, con un 4.9% proporcionando datos de la compañía a la plataforma.
Reconociendo la gravedad de las implicaciones de la privacidad, OpenAi actuó rápidamente para abordar el problema. El 1 de agosto de 2025, el director de seguridad de la información de la compañía, Dane Stuckey, anunció la eliminación de la función descubierta: “Acabamos de eliminar una función de ChatGPT que permitió a los usuarios hacer que sus conversaciones sean descubiertas por los motores de búsqueda, como Google”.
Operai caracterizó la característica como “un experimento de corta duración para ayudar a las personas a descubrir conversaciones útiles”, pero reconoció que “introdujo demasiadas oportunidades para que las personas compartieran accidentalmente cosas que no tenían la intención”. La compañía también se comprometió a trabajar con motores de búsqueda para eliminar el contenido ya indexado de los resultados de búsqueda.
Este incidente destaca un desafío fundamental en la era de la IA: la brecha entre las expectativas del usuario y la realidad técnica. Muchos usuarios asumen que sus interacciones con los chatbots de IA son privados, pero las características como el intercambio, el registro y la capacitación de modelos pueden crear vías inesperadas para la exposición a los datos.
Si bien Openai ha abordado esta vulnerabilidad específica, el incidente revela problemas sistémicos más amplios sobre el manejo de datos, el consentimiento del usuario y las consecuencias no deseadas de la integración de la IA.
Para los profesionales de ciberseguridad, este hallazgo muestra que necesitan vigilar de cerca las plataformas de inteligencia artificial y cómo manejan los datos.
Para los usuarios, sirve como un recordatorio de una regla clave para la seguridad en línea: nunca ingrese la información en los sistemas de IA que no desee que todos vean.
A medida que AI continúa impregnando todos los aspectos de nuestras vidas digitales, los incidentes como este probablemente se volverán más comunes, lo que hace que los marcos de privacidad y la educación de los usuarios sean más críticos que nunca.
Integre cualquiera. Pruebe 50 búsquedas de prueba gratuitas