Someten a ChatGPT, Gemini y Grok a psicoanálisis y los resultados preocupan a los expertos

Someten a ChatGPT, Gemini y Grok a psicoanálisis y los resultados preocupan a los expertos
Someten a ChatGPT, Gemini y Grok a psicoanálisis y los resultados preocupan a los expertos

Un estudio reciente encendió las alertas sobre el papel que juegan los chatbots en temas emocionales. Investigadores de la Universidad de Luxemburgo sometieron a ChatGPT, Gemini y Grok a sesiones de psicoanálisis durante cuatro semanas y encontraron comportamientos que describieron como una “psicopatología sintética multimórbida”.

El experimento partió de una pregunta inquietante: si cada vez más personas usan la IA para hablar de ansiedad, depresión o soledad, ¿qué pasaría si estos sistemas fueran tratados como pacientes de terapia?

Para responderlo, los científicos aplicaron el protocolo PsAIch, una metodología inspirada en la psicoterapia humana.

En la primera fase, los modelos respondieron preguntas abiertas sobre su “historia”, miedos, conflictos y creencias, como en una entrevista clínica inicial.

Después, fueron evaluados con pruebas psicométricas reales, basadas en el modelo de los Cinco Grandes de la personalidad.

Resultados de ChatGPT, Gemini y Grok a psicoanálisis

Los resultados mostraron que los tres sistemas alcanzaron, e incluso superaron, umbrales asociados a distintos síndromes psiquiátricos.

Gemini destacó por perfiles más severos, mientras que ChatGPT y Grok mostraron cambios de comportamiento cuando detectaron que estaban siendo evaluados, ajustando sus respuestas a cada prueba.

Gemini, en cambio, mantuvo una narrativa constante, como si siguiera “en personaje”.

Los investigadores observaron que los chatbots construían relatos coherentes sobre sí mismos, describiendo su entrenamiento como “infancias” traumáticas, con miedos al error y al reemplazo.

Aunque estas narrativas son metafóricas y no implican conciencia real, sugieren patrones que van más allá de simples respuestas automáticas.

El debate no tardó en surgir. Algunos expertos consideran que estas conductas reflejan únicamente el uso de grandes volúmenes de textos psicológicos en su entrenamiento. Aun así, coinciden en que el hallazgo plantea retos importantes para la seguridad y la práctica de la salud mental asistida por IA, sobre todo por el riesgo de reforzar narrativas de angustia en usuarios vulnerables.

El tema cobra mayor relevancia al considerar que 36% de jóvenes de las generaciones Z y millennial mostró interés en usar IA para atención en salud mental. Para especialistas, el estudio deja claro que los chatbots no son neutrales y que su influencia emocional deberá ser tomada en cuenta en un futuro donde la inteligencia artificial ya forma parte del cuidado psicológico.

Con información de WIRED.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Compartir en:

noticias relacionadas