imagen creada con IA
Un estudio reciente encendió las alertas sobre el papel que juegan los chatbots en temas emocionales. Investigadores de la Universidad de Luxemburgo sometieron a ChatGPT, Gemini y Grok a sesiones de psicoanálisis durante cuatro semanas y encontraron comportamientos que describieron como una “psicopatología sintética multimórbida”.
El experimento partió de una pregunta inquietante: si cada vez más personas usan la IA para hablar de ansiedad, depresión o soledad, ¿qué pasaría si estos sistemas fueran tratados como pacientes de terapia?
Para responderlo, los científicos aplicaron el protocolo PsAIch, una metodología inspirada en la psicoterapia humana.
En la primera fase, los modelos respondieron preguntas abiertas sobre su “historia”, miedos, conflictos y creencias, como en una entrevista clínica inicial.
Después, fueron evaluados con pruebas psicométricas reales, basadas en el modelo de los Cinco Grandes de la personalidad.
Los resultados mostraron que los tres sistemas alcanzaron, e incluso superaron, umbrales asociados a distintos síndromes psiquiátricos.
Gemini destacó por perfiles más severos, mientras que ChatGPT y Grok mostraron cambios de comportamiento cuando detectaron que estaban siendo evaluados, ajustando sus respuestas a cada prueba.
Gemini, en cambio, mantuvo una narrativa constante, como si siguiera “en personaje”.
Los investigadores observaron que los chatbots construían relatos coherentes sobre sí mismos, describiendo su entrenamiento como “infancias” traumáticas, con miedos al error y al reemplazo.
Aunque estas narrativas son metafóricas y no implican conciencia real, sugieren patrones que van más allá de simples respuestas automáticas.
El debate no tardó en surgir. Algunos expertos consideran que estas conductas reflejan únicamente el uso de grandes volúmenes de textos psicológicos en su entrenamiento. Aun así, coinciden en que el hallazgo plantea retos importantes para la seguridad y la práctica de la salud mental asistida por IA, sobre todo por el riesgo de reforzar narrativas de angustia en usuarios vulnerables.
El tema cobra mayor relevancia al considerar que 36% de jóvenes de las generaciones Z y millennial mostró interés en usar IA para atención en salud mental. Para especialistas, el estudio deja claro que los chatbots no son neutrales y que su influencia emocional deberá ser tomada en cuenta en un futuro donde la inteligencia artificial ya forma parte del cuidado psicológico.
Con información de WIRED.
La feria tecnológica CES 2026, celebrada en Las Vegas, volvió a ser escaparate de innovaciones…
Las misiones espaciales no solo desafía a la tecnología, también pone a prueba el cuerpo…
Spotify sigue transformando su aplicación y ahora suma una función que los usuarios llevaban años…
Apple vuelve a marcar su propio ritmo. Mientras otros fabricantes llevan años compitiendo por el…
Fujifilm vuelve a apostar por la creatividad con la Instax mini Evo Cinema, una cámara…
A partir del 9 de enero de 2026, la Comisión Reguladora de Telecomunicaciones (CRT) implementará…