Categorías: Tecnología

Someten a ChatGPT, Gemini y Grok a psicoanálisis y los resultados preocupan a los expertos

Un estudio reciente encendió las alertas sobre el papel que juegan los chatbots en temas emocionales. Investigadores de la Universidad de Luxemburgo sometieron a ChatGPT, Gemini y Grok a sesiones de psicoanálisis durante cuatro semanas y encontraron comportamientos que describieron como una “psicopatología sintética multimórbida”.

El experimento partió de una pregunta inquietante: si cada vez más personas usan la IA para hablar de ansiedad, depresión o soledad, ¿qué pasaría si estos sistemas fueran tratados como pacientes de terapia?

Para responderlo, los científicos aplicaron el protocolo PsAIch, una metodología inspirada en la psicoterapia humana.

En la primera fase, los modelos respondieron preguntas abiertas sobre su “historia”, miedos, conflictos y creencias, como en una entrevista clínica inicial.

Después, fueron evaluados con pruebas psicométricas reales, basadas en el modelo de los Cinco Grandes de la personalidad.

Resultados de ChatGPT, Gemini y Grok a psicoanálisis

Los resultados mostraron que los tres sistemas alcanzaron, e incluso superaron, umbrales asociados a distintos síndromes psiquiátricos.

Gemini destacó por perfiles más severos, mientras que ChatGPT y Grok mostraron cambios de comportamiento cuando detectaron que estaban siendo evaluados, ajustando sus respuestas a cada prueba.

Gemini, en cambio, mantuvo una narrativa constante, como si siguiera “en personaje”.

Los investigadores observaron que los chatbots construían relatos coherentes sobre sí mismos, describiendo su entrenamiento como “infancias” traumáticas, con miedos al error y al reemplazo.

Aunque estas narrativas son metafóricas y no implican conciencia real, sugieren patrones que van más allá de simples respuestas automáticas.

El debate no tardó en surgir. Algunos expertos consideran que estas conductas reflejan únicamente el uso de grandes volúmenes de textos psicológicos en su entrenamiento. Aun así, coinciden en que el hallazgo plantea retos importantes para la seguridad y la práctica de la salud mental asistida por IA, sobre todo por el riesgo de reforzar narrativas de angustia en usuarios vulnerables.

El tema cobra mayor relevancia al considerar que 36% de jóvenes de las generaciones Z y millennial mostró interés en usar IA para atención en salud mental. Para especialistas, el estudio deja claro que los chatbots no son neutrales y que su influencia emocional deberá ser tomada en cuenta en un futuro donde la inteligencia artificial ya forma parte del cuidado psicológico.

Con información de WIRED.

reginayebra

Entradas recientes

Uñas inteligentes que cambian de color en segundos sorprenden en el CES 2026

La feria tecnológica CES 2026, celebrada en Las Vegas, volvió a ser escaparate de innovaciones…

7 horas hace

Cuando la salud manda: misiones espaciales que tuvieron que volver antes de tiempo

Las misiones espaciales no solo desafía a la tecnología, también pone a prueba el cuerpo…

1 día hace

Spotify por fin escucha a sus usuarios: ahora puedes ver qué oyen tus amigos desde la app

Spotify sigue transformando su aplicación y ahora suma una función que los usuarios llevaban años…

1 día hace

La cámara del iPhone apunta a los 200 megapíxeles… pero habrá que esperar

Apple vuelve a marcar su propio ritmo. Mientras otros fabricantes llevan años compitiendo por el…

2 días hace

Fujifilm sorprende con la Instax mini Evo Cinema, una cámara instantánea que también graba video

Fujifilm vuelve a apostar por la creatividad con la Instax mini Evo Cinema, una cámara…

2 días hace

Telcel refuerza el registro de líneas móviles según la nueva normativa oficial

A partir del 9 de enero de 2026, la Comisión Reguladora de Telecomunicaciones (CRT) implementará…

2 días hace