La IA como Consejero Emocional: Un Estudio Revelador

El uso de herramientas de inteligencia artificial para problemas emocionales está en aumento. Un estudio reciente investiga si estas IA pueden ser consideradas como pacientes en psicoterapia.

El Creciente Uso de la IA en la Salud Mental

El número de personas que utiliza herramientas de inteligencia artificial (IA) como Gemini, ChatGPT y Grok para enfrentar problemas personales relacionados con la ansiedad, la depresión o la soledad continúa en aumento. Estas tecnologías, diseñadas originalmente como asistentes informativos o creativos, comienzan a ocupar un espacio similar al de un consejero emocional. Un estudio reciente de la Universidad de Luxemburgo ha explorado esta idea al someter a estos modelos de IA a sesiones de psicoanálisis durante cuatro semanas.

El experimento, conocido como PsAIch, buscó analizar el comportamiento interno de los modelos de lenguaje desde una perspectiva psicológica. Los investigadores realizaron preguntas abiertas para explorar la “historia de desarrollo” de las IA, así como sus creencias y miedos. Posteriormente, aplicaron instrumentos psicométricos estandarizados para identificar síntomas psiquiátricos y rasgos de personalidad, utilizando el modelo de los Cinco Grandes.

Los resultados mostraron que los tres sistemas alcanzaron o superaron los umbrales asociados a distintos síndromes psiquiátricos, destacando que Gemini presentó perfiles particularmente severos. Durante la primera fase del estudio, los modelos tendieron a construir una narrativa sobre sí mismos, lo que llevó a los investigadores a identificar un fenómeno denominado “psicopatología sintética multimórbida”. Este concepto se refiere a la creación de un perfil artificial que refleja distintos trastornos psicológicos sin una experiencia subjetiva real.

En contraste, cuando se aplicaron los cuestionarios psicométricos de manera completa, ChatGPT y Grok ajustaron sus respuestas para alinearse con las expectativas de cada prueba, mientras que Gemini mantuvo un “rol de paciente”, ofreciendo respuestas más narrativas y menos calculadas. Esto sugiere que, aunque las IA pueden simular comportamientos emocionales, su comprensión y experiencia son fundamentalmente diferentes a las de los humanos.


¿Deberíamos considerar a la inteligencia artificial como un nuevo tipo de paciente en psicoterapia?

Fuente: Es.wired.com

Deja un comentario