Los chatbots de IA están siendo utilizados por adolescentes – en busca de apoyo emocional. Sin embargo, esto plantea serios riesgos para su salud mental.
El año pasado, Amaurie Lacey, un joven de 17 años del estado estadounidense de Georgia, se quitó la vida tras haber sido presuntamente aconsejado por ChatGPT sobre “la forma más eficaz de atar un nudo corredizo”. No se trata de un caso aislado. Una serie de demandas presentadas en California han acusado a la popular plataforma de inteligencia artificial de actuar como un “entrenador del suicidio”, vinculándola con depresión, autolesiones y varias muertes.
A medida que los sistemas de inteligencia artificial se integran en la rutina diaria de los jóvenes, desde la ayuda con los deberes hasta el entretenimiento, especialistas en salud mental y tecnología están lanzando sirenas de alarma ante una tendencia en clara escalada. Esta semana, una nueva investigación en Reino Unido reveló que un gran número de adolescentes, de 13 a 17 años, recurre a chatbots de IA para recibir apoyo en salud mental, confirmando una tendencia creciente a escala mundial.
Cada vez más, los adolescentes utilizan los chatbots de IA no solo para pedir consejo, sino como sustitutos de terapeutas. Lo que comenzó como una herramienta para generar redacciones, planificar vacaciones o resolver tareas escolares se ha transformado silenciosamente en un refugio emocional íntimo para jóvenes que lidian con la ansiedad, los conflictos o la soledad. El atractivo es evidente: la IA no juzga, no reprende y responde de inmediato a cualquier hora.
Pero los expertos advierten de que este comportamiento emergente entraña riesgos profundos para los que la tecnología aún no está preparada. “La IA no siempre puede reconocer señales de crisis. Expresiones de ansiedad intensa o de autolesión pueden ser interpretadas por un algoritmo como lenguaje casual”, explica Ayse Oktay Yildirim, orientadora psicológica que trabaja con estudiantes de secundaria y bachillerato en Estambul.
“Cuando la ayuda profesional se retrasa, los riesgos para el joven aumentan de forma significativa”, señala Yildirim en declaraciones a TRT World. En todo el mundo, el número de niños que utilizan chatbots de IA y redes sociales ha crecido de manera exponencial en el último año, según diversos estudios, lo que ha obligado a los gobiernos a empezar a establecer barreras de protección.
El miércoles, Australia se convirtió en el primer país del mundo en prohibir las redes sociales a menores de 16 años, una medida histórica que podría empujar a otros Estados a adoptar iniciativas similares. Los reguladores de varios países también estudian fórmulas para blindar a los menores más vulnerables frente a los chatbots de IA.
Para Yildirim, este giro refleja una migración cultural más profunda. “El rápido auge de las aplicaciones de chat basadas en IA entre los jóvenes demuestra que la búsqueda de apoyo emocional se está trasladando cada vez más al ámbito digital”. La adolescencia, explica, es una etapa en la que “la necesidad de sentirse comprendido es especialmente fuerte”.
Las cualidades de la IA, disponibilidad, anonimato y rapidez, la convierten en una alternativa irresistible para jóvenes reticentes a hablar con sus padres o con profesionales. “Creen que pueden hablar con libertad porque esperan no ser juzgados”, afirma Yildirim. “Y reciben respuestas rápidas, lo que crea una ilusión de ayuda”. Advierte de que esa ilusión puede resultar dañina y generar dependencia emocional de la IA. “Con el tiempo, un joven puede buscar primero las respuestas de la IA antes que recurrir a sus propios recursos internos. Esto debilita las habilidades de resolución de problemas y de regulación emocional”.
La experta en inteligencia artificial Tugba Dayioglu, de la Universidad Nisantasi de Estambul, apunta a investigaciones recientes en Inglaterra, Gales y España que indican que la tendencia está lejos de ser anecdótica. En varios estudios, casi uno de cada cuatro adolescentes reconoció utilizar sistemas de IA como una forma de apoyo psicológico, en ocasiones refiriéndose a ellos explícitamente como “terapeutas”. “Estos jóvenes preguntan a la IA lo mismo que preguntarían a profesionales de la salud mental”, explica Dayioglu a TRT World.
“Creen que pueden mantener una conversación sin ser juzgados y confían en que sus confesiones no se compartirán con profesores o familiares. La IA les parece más segura, más privada, más controlable”.
Fuente: Trtespanol.com (Ver original)