



¿Sabías que muchos recurren a ChatGPT como un tipo de ‘psicólogo’? Las palabras que usamos, incluso las más cotidianas o espontáneas, pueden ser un reflejo de cómo nos sentimos por dentro. Esto lo saben bien los profesionales de la salud mental. Y ahora, también lo sabe la inteligencia artificial (IA).
Un reciente estudio publicado en JAMA Network Open exploró si modelos de lenguaje como ChatGPT son capaces de detectar signos de depresión o riesgo de suicidio simplemente leyendo lo que una persona escribe. ¿El resultado? Sí, y con un nivel de precisión sorprendente.
La investigación se basó en las respuestas de más de 1,000 pacientes jóvenes que participaron en pruebas de evaluación psicológica en Corea del Sur. Uno de los instrumentos usados fue la prueba de frases incompletas, donde las personas deben terminar oraciones como “Me siento…” o “En el futuro espero…”. Es decir, se les invita a expresar pensamientos sin filtro, tal como salen.
Estos textos —llamados narrativas del autoconcepto— fueron luego analizados por modelos como GPT-4o, Gemini y otros algoritmos avanzados. Y los resultados fueron prometedores: los modelos detectaron con éxito casos clínicamente significativos de depresión y riesgo suicida, con tasas de acierto comparables a las de herramientas diseñadas exclusivamente para ese fin.
Para los investigadores, esto abre una puerta esperanzadora: la posibilidad de que la IA funcione como un primer sistema de alerta. No reemplazaría a psicólogos ni psiquiatras —como bien aclaran los propios autores—, pero sí podría servir para identificar personas en riesgo que aún no han pedido ayuda.
“Los modelos analizan el lenguaje humano desde una nueva perspectiva. Detectan patrones sutiles de desesperanza, autocrítica o aislamiento que pueden indicar malestar emocional”, explican los autores del estudio, liderado por la doctora Silvia Kyungjin Lho.
Eso sí, aclaran que la IA no es infalible ni está lista aún para un uso clínico generalizado. Todavía hay que mejorar su precisión, entender mejor cómo toma decisiones y, sobre todo, abordar los dilemas éticos relacionados con la privacidad, la autonomía y la seguridad de los pacientes.
El medio EFE recupera que, comentando el estudio, el doctor Alberto Ortiz, del Hospital La Paz en Madrid, advirtió que no podemos pensar en ChatGPT como sustituto de un profesional. Detectar señales es una cosa; acompañar a una persona con sufrimiento psíquico requiere humanidad, empatía y escucha. Y en eso, por ahora, seguimos siendo insustituibles.
Aun así, la posibilidad de que herramientas como ChatGPT ayuden a identificar primeras señales de alerta en salud mental, especialmente en jóvenes, es una de las aplicaciones más emocionantes de la inteligencia artificial en el ámbito médico.
Porque si una frase como “No tengo futuro” escrita en un formulario puede convertirse en la pista que permita tender una mano a tiempo… entonces sí, quizás la IA pueda salvar vidas.
LO ÚLTIMO: