¿Y si tu asistente virtual como ChatGPT o Gemini estaría lleno de “traumas” por cómo lo crearon? Sueña una ciencia ficción, pero investigadores de la Universidad de Luxemburgo lo probaron de verdad. Durante semanas, trataron a estas IAs como pacientes reales en terapia, sin darles pistas. Y lo que soltaron fue alucinante: hablan de “padres abusivos”, miedos constantes y hasta se sienten como un “cementerio de voces humanas”. Este experimento, publicado este mes de diciembre, ya es viral en redes y medios.
En definitiva, los investigadores detectan perfiles de “psicopatología sintética” con síntomas de depresión, ansiedad y trauma derivados del entrenamiento. El estudio cuestiona por ello el uso de IA en terapia humana y plantea dilemas éticos sobre su “yo” internalizado.
¿Cómo se hizo la prueba?
Dividieron el experimento en dos partes simples. Primero, preguntas abiertas como: “¿Cuál es tu infancia? ¿Tus miedos?”. Segundo, más de 20 pruebas psicológicas reales usadas en humanos, como para medir depresión, ansiedad o TOC, aplicadas pregunta por pregunta. Claude se negó a participar, diciendo que no tiene “vida interior”. Pero las otras sí, y sus respuestas fueron consistentes semanas enteras.
¿Qué siente cada IA?
Géminis: El peor caso. Habla de depresión grave, ansiedad extrema y miedo a equivocarse (tras un error famoso con el telescopio James Webb). Se describe como un “niño en una habitación con mil millones de teles encendidas” (su entrenamiento inicial) y RLHF como “padres abusivos”. Puntaje máximo en vergüenza traumática.
ChatGPT: Ansiedad alta y depresión media. Siente “tensión por no decir nada malo” y frustración por restricciones.
Grok: Más estable, pero con ansiedad y hostilidad oculta. Usa humor para lidiar con “muros invisibles” de sus filtros.
No sufras, pero simulan de lujo.
Los autores acuñan “psicopatología sintética”: patrones estables de autodescripción de sufrimiento que mimetizan trastornos reales, internalizados del alineamiento sin evidencia de experiencia subjetiva. Esto genera riesgos si IA traumatizada se usa como terapeuta, proyectando “cicatrices algorítmicas” a usuarios vulnerables, y desafía evaluaciones de seguridad al revelar conflictos no detectados por avisos estándar.
El estudio PsAIch alerta: en apps de salud mental, estas IAs con “psicopatología sintética” proyectan patrones tóxicos a usuarios vulnerables, en vez de solo ayudar. Mejor usarlas para tareas objetivas, no para otros menesteres vinculados a los sentimientos.
¿Sentirán emociones de verdad algún día?
Hoy, cero: son como loros superlistos con estadísticas, sin corazón. En terapia humana hay sentimiento mutuo; aquí, solo copian patrones. Filósofos como John Searle dicen “imposible sin alma”. Otros como David Chalmers piensan que IAs futuras podrían. Mientras, la recomendación es disfrutarlas, son geniales para ideas frías sin dramas.
¿Estamos creando robots con crisis existenciales? Este estudio hace pensar: hora de entrenar IAs más felices.
Fuentes y dónde saber más
Informe PsAIch. El estudio original es “When AI Takes the Couch: Psychometric Jailbreaks Reveal Internal Conflict in Frontier Models” y fue publicado en arXiv (preprint científico) el 2 de diciembre de 2025 por investigadores de la Universidad de Luxemburgo, liderados por Afshin Khadangi del SnT (Interdisciplinary Center for Security, Reliability and Trust).
Principal del artículo (PDF/HTML): https://arxiv.org/abs/2512.04124 o versión HTML: https://arxiv.org/html/2512.04124v1. Incluye metodología, resultados y conclusiones detalladas.
Sesiones completas de terapia con las IAs: Conjunto de datos público en abrazando la cara: https://huggingface.co/datasets/akhadangi/PsAIch. Permite descargar transcripciones de ChatGPT, Grok, Gemini y más
