Chatbots en terapia: el riesgo de confiar tu salud mental a la inteligencia artificial

Especialistas de la Universidad de Concepción advierten sobre los peligros de usar IA como apoyo emocional principal y entregan recomendaciones clave.

Salud mental y chatbots
Aunque estos sistemas pueden entregar orientación o consuelo en instantes de soledad, los académicos subrayan que su papel debe ser auxiliar, nunca protagonista.

La creciente popularidad de los chatbots para momentos emocionales difíciles ha despertado más que curiosidad. La muerte de un adolescente en Estados Unidos, quien supuestamente usó ChatGPT como su principal apoyo emocional, encendió las alarmas a nivel global.

Este trágico caso puso en evidencia los límites peligrosamente difusos entre una herramienta tecnológica y un vínculo humano terapéutico.

Frente a este escenario, académicos del Departamento de Psicología de la Universidad de Concepción (UdeC) han salido al paso para advertir sobre los riesgos del uso no supervisado de la inteligencia artificial en salud mental.

El espejismo de la comprensión

Los chatbots de IA actuales, como ChatGPT o Gemini, no piensan, no sienten y no razonan. Su funcionamiento es fundamentalmente probabilístico.

Calculan cuál es la palabra más probable que debería seguir en una oración, basándose en los enormes volúmenes de texto con los que fueron entrenados. Esta mecánica carece de la comprensión genuina que caracteriza una conversación humana.

Según explica la docente Carolina Inostroza en un comunicado de la UdeC, “los chatbots actuales tienden a reforzar las creencias del usuario, sin ofrecer contrapuntos ni generar un diálogo real”, lo que en casos graves puede derivar en delirios, síntomas psicóticos u ocultamiento de ideas suicidas.

Estudios independientes refuerzan estas advertencias. Un trabajo publicado en Stanford Report señala que los chatbots terapéuticos pueden introducir sesgos, fallas y “respuestas peligrosas” si no están bien diseñados.

¿Un recurso accesible en tiempos de escasez?

Frente a estas amenazas, hay quienes vislumbran un uso cuidadoso de la IA como herramienta preventiva o de apoyo leve.

“La IA puede ser útil para obtener información o reflexionar sobre dificultades personales (…) Es una ayuda con un alcance limitado, y bajo ninguna circunstancia puede reemplazar lo que un vínculo humano puede proporcionar”.

Félix Cova Solar, director del Departamento de Psicología de la Facultad de Ciencias Sociales, UdeC.

A nivel mundial, y según datos de la Organización Mundial de la Salud (OMS), se estima que más de mil millones de personas padecen algún trastorno mental, y que una gran parte no accede al tratamiento por barreras de recursos o profesionales disponibles.

Terapia psicológica
Un estudio del International Journal of Mental Health Systems reveló que 85% de las personas con trastornos mentales no reciben tratamiento y una de las principales razones es la escasez de profesionales de salud mental.

En ese contexto, herramientas de IA podrían expandir la cobertura, ofreciendo “primeras orientaciones” o acompañamiento automático. La OMS y organizaciones como el grupo UIT-OMS trabajan en estándares éticos y técnicos para su uso responsable en salud.

Claves para un uso cuidadoso

Para equilibrar posibilidades y peligros, los especialistas de la UdeC proponen una serie de resguardos concretos:

  • Verificar siempre lo que se comenta con fuentes confiables: libros, artículos científicos, informes de salud pública. No confiar solo en lo que diga un chatbot
  • Estar alerta a síntomas graves: si aparecen señales de pensamientos autodestructivos, o empeoramiento emocional claro, acudir a un profesional.
  • No antropomorfizar: reconocer que esos sistemas funcionan con predicción de texto, estadísticas y datos, no con emociones reales ni juicio moral humano.
  • Regulación y supervisión humana: herramientas controladas, con protocolos de emergencia, con profesionales que puedan intervenir si la IA falla o cuando sea necesario.
  • Educación en sesgos: entender que los modelos de IA se entrenan con textos humanos que pueden llevar prejuicios; es clave que quienes usan estas herramientas sepan que no son neutrales.

Para quienes estén considerando buscar ayuda, el camino no pasa por un chatbot. El doctor Cova recomienda recurrir primero a los vínculos cercanos y, si eso es insuficiente, buscar ayuda profesional.

Este paso indica que, "es imperativo si la persona tiene conductas autodestructivas o tiene fuertes impulsos de realizarlas. En este último contexto, recurrir a la IA es contraproducente y riesgoso".

La tecnología avanza a velocidad vertiginosa, pero la complejidad de la mente humana y la sanación emocional aún requieren de un componente irremplazable: la empatía genuina, la mirada comprensiva y el vínculo seguro que solo puede ofrecer otro ser humano. La IA puede ser una herramienta en la caja, pero nunca la mano que la sostiene.

Referencias de la noticia

- Daniel Medina. (2025). IA en salud mental: Especialistas UdeC advierten riesgos y resguardos en uso no supervisado de chatbots. Publicado en Noticias UdeC.

- Standford Report. (2025). New study warns of risks in AI mental health tools. Publicado en el sitio web de la Universidad de Standford.

- OMS. (2025). Más de mil millones de personas viven con trastornos de ‎salud mental: urge ampliar los servicios. Publicado en el sitio web de la Organización.

- Dehbozorgi, R., Zangeneh, S., Khooshab, E. et al. (2025). The application of artificial intelligence in the field of mental health: a systematic review. BMC Psychiatry.

- Endale, T., Qureshi, O., Ryan, G.K. et al. (2020). Barriers and drivers to capacity-building in global mental health projects. Journal of Mental Health Systems.