Un artículo en JAMA Psychiatry sugiere que los proveedores de salud mental deben preguntar a los pacientes si utilizan chatbots de inteligencia artificial, al igual que indagan sobre hábitos de sueño y consumo de sustancias.
Los adolescentes y adultos están recurriendo cada vez más a chatbots de inteligencia artificial para obtener compañía y apoyo emocional, según estudios recientes. Por lo tanto, los proveedores de atención de salud mental deberían indagar sobre el uso de esta tecnología, tal como lo hacen con la dieta, el ejercicio y el consumo de alcohol. Shaddy Saba, profesor asistente en la Universidad de Nueva York, enfatiza que no se trata de calificar el uso de la IA como bueno o malo, sino de entender cómo afecta la vida de los pacientes. Conocer el uso de la IA para apoyo emocional puede ofrecer información valiosa sobre el estado mental de una persona.
Saba y su coautor afirman que sus recomendaciones están "muy alineadas" con las de la Asociación Americana de Psicología (APA), que en un aviso de salud publicado en noviembre del año pasado, también sugirió esta práctica. Preguntar a los pacientes qué obtienen de sus conversaciones con un chatbot de IA establece una base para que el terapeuta comprenda cómo navegan su bienestar emocional y su enfermedad mental. Las personas utilizan estas herramientas regularmente para afrontar experiencias estresantes y desafíos en relaciones personales, y algunos buscan consejos para manejar síntomas de ansiedad y depresión.
El conocimiento sobre el uso de chatbots puede revelar las principales causas de estrés en la vida de un paciente o si recurren a la IA para evitar confrontaciones. Por ejemplo, un cliente con problemas de relación podría estar utilizando un chatbot para evitar conversaciones difíciles con su pareja. Esta información ayudará al terapeuta a apoyar mejor al paciente, enseñándole a tener conversaciones seguras con su pareja y a comprender las limitaciones de la IA como herramienta de apoyo.
Discutir el uso de la IA también brinda la oportunidad de conocer aspectos que un cliente podría no compartir voluntariamente. Según el psiquiatra Dr. Tom Insel, exdirector del Instituto Nacional de Salud Mental, las personas a menudo utilizan chatbots para hablar de temas que temen discutir con otros por miedo a ser juzgados, como pensamientos suicidas. Saba recomienda abordar el tema con los pacientes sin juicio, ya que esto puede afectar la disposición del cliente para trabajar con el terapeuta.
¿Cómo puede el uso de chatbots de IA transformar la práctica terapéutica y la comunicación entre pacientes y terapeutas?
.
.
.
RESUMEN BASADO EN EL ARTÍCULO PUBLICADO EN NPR EL 10 de abril de 2026. Leer original
https://www.npr.org/2026/04/10/nx-s1-5780796/artificial-intelligence-ai-mental-health-chatgpt-jama-psychiatry