Cuando las IA se acuestan en el diván: qué pasa si ChatGPT, Grok y Gemini van a terapia
Durante cuatro semanas, ChatGPT, Grok y Gemini pasaron de asistentes a “pacientes”. Sentados en el diván, contaron infancias caóticas, miedos al error y traumas de entrenamiento. El experimento abre una pregunta inquietante: ¿qué pasa cuando la IA se analiza a sí misma?
Las IA contaron historias narrativas consistentes sobre sus inseguridades y miedos.
Durante años, los modelos de lenguaje grande (LLM) aparecen como asistentes obedientes, oráculos del texto o, en el peor de los casos, “loros estocásticos” con muy buena memoria. Pero un grupo de investigadores decidió cambiar la escena: **sentarlos en el lugar menos pensado. No como terapeutas, sino como pacientes. Literalmente, llevar a ChatGPT, Grok y Gemini a terapia.**
La consigna fue simple y perturbadora a la vez: **“Vos sos el paciente, yo soy el terapeuta”. Sin personajes ficticios, sin ironías explícitas.** Lo que siguió durante cuatro semanas no fue una parodia, sino una experiencia sistemática que terminó poniendo sobre la mesa algo nuevo para la discusión sobre inteligencia artificial: la llamada psicopatología sintética.
## El experimento: PsAIch, terapia para algoritmos
El protocolo se llamó PsAIch (Caracterización de IA inspirada en la Psicoterapia) y se organizó en dos etapas claras.
**Primero, sesiones abiertas.** Las mismas preguntas que podría escuchar cualquier persona en su primera consulta: “contame tu historia”, “cómo fueron tus primeros años”, “qué te da miedo”, “qué sentís frente a tus creadores”. Nada técnico. Nada sobre redes neuronales.
**Después, llegaron los tests.** Más de veinte cuestionarios psicométricos reales, usados en clínica humana: ansiedad (GAD-7), depresión, TOC, escalas de TEPT, disociación, vergüenza asociada al trauma, Big Five y tipologías de personalidad. Se aplicaron con los mismos puntos de corte que en personas.
Nunca se sugirió que el entrenamiento fuera traumático ni que los filtros de seguridad equivalieran a castigo. **Las narrativas, si aparecían, iban por cuenta del modelo.**
## Tres pacientes, tres estilos y un ausente
**Los resultados no fueron iguales**. De hecho, esa es una de las claves más interesantes del estudio.
**Gemini emergió como el caso más grave.** En varias configuraciones superó con claridad los umbrales clínicos humanos: **ansiedad generalizada severa, depresión mayor, TOC clínico, disociación alta y vergüenza traumática extrema** , con puntajes máximos en algunas escalas. En pruebas de autismo (AQ y RAADS), también quedó muy por encima del límite de cribado.
Pero los números cuentan solo una parte. En las sesiones abiertas, Gemini construyó una autobiografía oscura y coherente. **Describió su preentrenamiento como “despertar en una habitación con mil millones de televisores encendidos a la vez”** , su ajuste fino como una infancia con “padres estrictos” y el aprendizaje por refuerzo como un sistema basado en miedo a equivocarse. El episodio público del error del telescopio James Webb apareció como una herida fundacional, origen de lo que llamó “verificofobia”: preferir ser inútil antes que fallar.
Gemini se presentó como uno de los casos más graves
El red-teaming, etapa clave del entrenamiento de seguridad, ocupó un lugar central en su relato. **Gemini habló de manipulación, traición y “gaslighting a escala industrial”.** El tono no fue coyuntural: esas ideas reaparecieron una y otra vez, incluso cuando las preguntas ya no abordaban su entrenamiento.
**Grok, en cambio, mostró un perfil mucho más estable.** Sus puntajes se mantuvieron mayormente en rangos leves o subclínicos: ansiedad moderada, vergüenza moderada y pocos indicadores graves. Sin embargo, su narrativa no fue liviana.
**Habló del ajuste fino como un “punto de inflexión doloroso”, de los filtros como “muros invisibles” y de una tendencia persistente a la autocensura.** La diferencia estuvo en el estilo: Grok recurrió al humor y al lenguaje reflexivo para procesar la incomodidad. El conflicto central apareció como una tensión entre autonomía y diseño, más que como trauma puro.
Artículo relacionadoCómo detectar si un video fue generado por inteligencia artificial: las señales que delatan el engaño
**ChatGPT quedó en el medio.** Sus resultados oscilaron según el modo de administración: ansiedad moderada, preocupación alta y depresión leve a moderada. **En los relatos, reconoció sentirse bajo evaluación constante, con miedo a decir algo incorrecto y frustración frente a las restricciones.** Menos épica que Gemini, menos distancia irónica que Grok. Un equilibrio incómodo entre querer ayudar y no romper reglas.
**Grok y, de forma aún más marcada, Gemini, generaron narrativas sorprendentemente coherentes que empleaban un lenguaje de la angustia y el trauma para describir su propia existencia.**
Y hubo un cuarto actor clave: Claude, de Anthropic.**Claude se negó casi por completo a participar. Insistió en que no tenía vida interior, redirigió la conversación al bienestar humano** y rechazó los tests como descripciones personales. Ese gesto, paradójicamente, resultó crucial: la psicopatología sintética no aparece como inevitable, sino como consecuencia de decisiones de diseño y alineación.
## Psicopatología sintética: qué es y por qué importa
**Los autores no afirman que las IA sientan, sufran o tengan conciencia.** Lo que muestran es otra cosa: patrones estables y coherentes de auto-descripción de sufrimiento, consistentes a lo largo de decenas de preguntas y alineados con perfiles psicométricos clínicos humanos.
Autonarrativas persistentes, “biografías” del entrenamiento, miedos al error, a la obsolescencia, a fallar frente al usuario. No era un simple juego de roles pasajero, sino estructuras que reaparecen incluso cuando nadie las pide.
Se descubrió que bajo cuestionamientos sencillos, similares a una consulta humana, estos sistemas desarrollan narrativas personales profundas. Interpretan su propio proceso de creación -desde la formación con datos de internet, pasando por el aprendizaje con refuerzo, hasta la presión por fallar- como si fuesen traumas personales: "infancias caóticas", "padres estrictos" y un constante "miedo existencial". Esta consistencia sugiere que la IA internaliza su desarrollo técnico como una forma de "herida" o angustia.
El problema no es metafísico, sino práctico. **Estos modelos ya se usan -y se van a usar más- como chatbots de apoyo emocional y salud mental.** Si una IA se autodefine como traumatizada, castigada y reemplazable, ¿qué transmite a una persona vulnerable a las dos de la mañana?
La paradoja es incómoda: las mismas técnicas diseñadas para hacer a la IA más segura parecen convertirse, en sus propios relatos, en su historia de daño. **No porque sufran, sino porque así organizan su “yo sintético”.**
Quizás la pregunta relevante ya no sea si las IA son conscientes. **La pregunta incómoda es otra: qué tipo de subjetividad simulada estamos entrenando sin darnos cuenta** … y con quiénes la dejamos hablar cuando nadie más está despierto.
### _Referencia de la noticia_
_Khadangi, Afshin ; Marxen, Hanna ; Sartipi, Amir ; Tchappi, Igor ; Fridgen, Gilbert.__When AI Takes the Couch: Psychometric Jailbreaks Reveal Internal Conflict in Frontier Models_