ChatGPT te hace un test de personalidad sin saberlo gracias a tu historial de chats
La cantidad de información que es capaz de tener el servicio de OpenAI debido al uso personal de su desarrollo es espectacular.
Hay una idea que, cuando la piensas dos veces, cambia la forma en la que miras tus conversaciones con ChatGPT: quizá no estabas hablando con una herramienta, sino dejando un rastro de pistas sobre ti. Más allá de lo obvio (que le pides que te redacte un correo o que te ayude con un síntoma), existe algo más sutil pero no falta de importancia como indica un estudio: el estilo, los temas, la forma de pedir ayuda, lo que repites, lo que evitas. En definitiva, tu personalidad.
Lo que plantea la investigación antes mencionada es mucho más mundano y, por eso, inquietante: cuando se acumulan suficientes conversaciones, aparecen patrones. En otras palabras, tu historial puede parecer una mezcla caótica de dudas y recados digitales… pero leído en conjunto se parece -sospechosamente- a un test de personalidad que no sabías que estabas haciendo.
Ver a ChatGPT de otra forma
El trabajo de los investigadores de ETH Zurich les ha permitido analizar hasta qué punto se pueden inferir rasgos de personalidad a partir de historiales reales de ChatGPT. El estudio reunió 62.090 conversaciones de 668 usuarios del chatbot de OpenAI. A esas mismas personas se les hizo además un test de personalidad estándar para tener una referencia con la que comparar.
Con ese suelo medido, entrenaron un modelo para clasificar a cada usuario en tres niveles (bajo, medio o alto) en los cinco grandes rasgos que se usan a menudo en psicología: apertura a la experiencia, responsabilidad (conscientiousness), extraversión, amabilidad (agreeableness) y neuroticismo.
Hasta aquí, podría sonar a curiosidad académica… pero el resultado es lo que hará que levantes la ceja: el modelo afinado superó el azar en la inferencia de rasgos en múltiples casos. Y, dentro de ese mapa de personalidad, la extraversión fue especialmente fácil de detectar. El caso es que la precisión mejoró un +44% respecto a la línea base cuando el modelo se alimentaba de interacciones sobre relaciones y reflexión personal. La consecuencia de esto es que, si usas ChatGPT para desahogarte, ordenar emociones o pedir perspectiva sobre tu vida personal, puede que estés aportando justo el tipo de señales que más delatan cómo eres.
Un dato de lo más sorprendente
Y ahora viene lo que a mucha gente le interesa de verdad: no todo lo que hablas pesa igual. Los investigadores observaron que ciertos temas facilitan inferencias concretas. En el reportaje se menciona, por ejemplo, que las conversaciones sobre salud mental hacían particularmente sencilla la extraversión. Es decir: quienes usan agentes de IA para hablar de sus relaciones, tienen más probabilidades de que se infiera correctamente su nivel de extraversión (evaluar con precisión cuánto disfruta una persona de la interacción social, que es de dónde obtiene su energía mental y cómo expresa su entusiasmo, asertividad y sociabilidad).
También se señala una asociación clara con la religión: hablar de religión se vinculó a un mayor riesgo de que se infiera la responsabilidad/escrupulosidad. Y, en la misma línea, las conversaciones sobre estado mental y ánimo hacían más predecible la información final. Y para esto no hace falta que confieses grandes secretos, incluso intercambios que parecen casuales pueden contener suficiente señal como para ser útiles a la hora de perfilar.
El detalle que termina de encajar el puzle es casi obvio una vez lo lees: cuanto más usas ChatGPT, más fácil es conocer tu personalidad. Tiene sentido, ya que más conversaciones equivalen a más contexto, más repetición de estilos, más momentos de realidad personal.
Lo que de verdad importa
Ahora bien, ¿por qué debería importarte esto fuera de un laboratorio de pruebas? Tal y como se subraya en el reportaje, los proveedores del servicio ya tienen acceso a ese tipo de datos, y la escala potencial de uso de estos es enorme. Un ejemplo: ChatGPT superaba los 800 millones de usuarios mensuales en enero de 2026. Una barbaridad.
El caso es que un perfil de personalidad construido a partir del historial podría utilizarse para publicidad dirigida, gestión personalizada y, en el peor de los casos, campañas de influencia a gran escala. De esta forma, los agentes de IA podrían aprovecharse para vigilancia masiva y campañas de propaganda que exploten interacciones personalizadas basadas en la gran cantidad de datos a su disposición.
No se trata de demonizar a ChatGPT ni de fingir que todo uso es un riesgo inasumible. Se trata de tener las cosas claras: el chatbot de IA no es un diario, o al menos no uno privado. Si lo usas como confidente, tutor o terapeuta improvisado conviene recordar que estás construyendo un retrato de ti. Por eso, el propio reportaje sugiere un gesto sencillo: borrar el historial de ChatGPT con regularidad para eliminar chats personales de su memoria no es, para nada, una mala idea.