Estamos por terminar el año y, como ya es costumbre empiezan a circular diversas estadísticas y resúmenes de los acontecimientos ocurridos durante este 2025.
En particular me llamó la atención el informe “Top 100 de casos de uso de GenAI, en 2025”, publicado por Harvard Business Review, este informe revela los principales usos de la inteligencia artificial en este año y, los tres primeros lugares son: 1. Terapia y compañía emocional; 2. Organización de la rutina y; 3. Búsqueda de propósito.
Lo anterior, revela que la inteligencia artificial está dejando de ser un instrumento para mejorar la productividad, para que volverse un asistente personal y emocional. Es decir, este año miles de personas utilizaron asistentes virtuales y chatbots como si fueran psicólogos, buscando en ellos un espacio seguro para desahogarse, recibir orientación emocional o incluso gestionar crisis personales.
Para muchos la IA, representa algo que cada vez menos se encuentra en su entorno: la disponibilidad absoluta y ausencia de juicio. La posibilidad de hablar con un sistema que escucha a cualquier hora, no interrumpe y no critica resulta sumamente atractiva.
Este tipo de plataformas suelen emplear lenguaje empático, preguntas abiertas y técnicas inspiradas en la terapia cognitivo-conductual, lo que genera una percepción en los usuarios de un primer acercamiento, aunque informal, al cuidado de la salud mental.
El acceso inmediato, es uno de los principales motivos por los que estos sistemas ganan popularidad. En un contexto donde los sistemas de salud pública siguen sin priorizar la salud mental y la atención psicológica particular es poco accesible, aunado a que las dolencias psicológicas sigue siendo un tema estigmatizado, la IA aparece como una alternativa rápida y discreta.
Además, el anonimato elimina el temor al juicio y al rechazo, un factor que afecta especialmente a los adolescentes. Las plataformas permiten expresar emociones difíciles sin tener que revelar la identidad, lo que facilita la apertura emocional.
Sin embargo, estas estadísticas también muestran una crisis alarmante de salud mental. Preguntarle a una inteligencia artificial por un propósito de vida, refleja la existencia de un vacío emocional que las herramientas tecnológicas no pueden ayudar a llenar, como sí lo haría un especialista humano.
A pesar de sus beneficios, la IA no puede ni debe funcionar como sustituto de un psicólogo o psiquiatra. Aunque los modelos actuales pueden ofrecer apoyo emocional básico, carecen de la capacidad para evaluar riesgos complejos, trabajar traumas o intervenir en situaciones graves.
La IA puede ser una herramienta útil, pero no está diseñada para asumir la responsabilidad clínica de un profesional y el mayor peligro está en la interpretación que los usuarios puedan hacer de sus respuestas como “diagnósticos”.
Lejos de desaparecer, la tendencia seguirá creciendo. Algunos especialistas consideran que la IA podría convertirse en una herramienta complementaria para la salud mental, especialmente si se integra con protocolos de seguridad adecuados y mecanismos claros para derivar a profesionales humanos.
Mientras tanto, educar a los jóvenes en el uso responsable de estos sistemas es crucial, la IA puede acompañar, apoyar y escuchar, pero no reemplazar el criterio clínico ni el seguimiento especializado que brinda un psicólogo real.
La crisis de salud mental en la población más joven es un gran desafío; no se trata sólo de atender emergencias, sino de construir una cultura de cuidado emocional que permita a las nuevas generaciones desarrollarse con resiliencia, seguridad y esperanza. El desafío, entonces, no es evitar que busquen ayuda digital, sino enseñarles a diferenciar el apoyo conversacional de la atención terapéutica. En ese equilibrio puede encontrarse el futuro de la relación entre la salud mental y la inteligencia artificial.

