Por CiudadanIA

La promesa suena seductora: una inteligencia artificial disponible 24 horas, que responde sin cansancio ni prejuicios, a un costo accesible. Un sinnúmero de plataformas expanden por América Latina la oferta de «terapia cognitiva conductual automatizada», presentándose como solución a sistemas de salud mental colapsados. Pero, como no todo lo que reluce es oro, detrás del espejismo tecnológico se esconde un interrogante clave: ¿puede el algoritmo reemplazar o replicar la complejidad del vínculo terapéutico humano?
Estos chatbots, por más avanzados que sean, operan como “prótesis” emocionales y son más que peligrosas cuando pretenden sustituir la escucha profesional. El problema no es la tecnología en sí, sino el intento de reducir el lazo analítico a un algoritmo. Porque lo que está en juego en una cura no es una alianza entre dos personas, sino la puesta en marcha de la transferencia. Ningún dispositivo automático puede sustituir ese acto: el de alojar una palabra que no se deja reducir a datos. Estos errores no son fallas técnicas, sino consecuencias inevitables de una inteligencia artificial incapaz de captar matices culturales, contradicciones humanas o ese silencio cargado de significado que solo un profesional entrenado descifra. La Organización Mundial de la Salud (OMS) ha sido clara al respecto: en sus directrices publicadas en 2023, cuando advirtió que «los sistemas de IA no deben usarse para reemplazar el juicio clínico humano en salud mental». En ese sentido, puso especial énfasis en casos de depresión severa o riesgo suicida.
A nivel global, el mercado de salud mental digital no es un fenómeno marginal: alcanzó los USD 7.48 mil millones en 2024 y se estima que crecerá a USD 17.5 mil millones en 2030. Solo la porción basada en IA —como los chatbots terapéuticos— movió USD 1.13 mil millones en 2023, y se proyecta que llegará a USD 5.08 mil millones para 2030. Plataformas como Woebot o Replika ya acumulan entre 1,5 y 30 millones de usuarios. Estos números revelan la magnitud del entramado que convierte el sufrimiento en recurso económico.
La trampa de la eficiencia: cuando la tecnología olvida que el dolor no es un dato
El debate sobre IA en salud mental suele enmarcarse en términos binarios: humanos vs máquinas. Pero el verdadero peligro es más sutil: la normalización de un modelo donde el sufrimiento psíquico se reduce a un problema de gestión eficiente. Las plataformas prometen “escalabilidad”, “accesibilidad” y “optimización de recursos”, términos heredados de la logística que revelan su lógica de funcionamiento: administran usuarios, no escuchan sujetos. En ese modelo, el sufrimiento se gestiona como una demanda que debe ser resuelta eficientemente, cuando lo que está en juego en el campo del inconsciente no puede ni comprimirse en formularios ni resolverse con soluciones automatizadas.
Los riesgos son concretos. En Bélgica, un caso documentado por el diario Le Soir reveló cómo un chatbot de terapia virtual había recomendado «técnicas de relajación» a un usuario con evidentes señales de crisis emocional aguda, sin activar protocolos de emergencia. El episodio generó un intenso debate en Europa sobre la regulación de estas herramientas. En respuesta, países como Francia y Alemania comenzaron a exigir certificaciones especiales para cualquier plataforma de salud mental que utilice IA, incluyendo la supervisión obligatoria por profesionales calificados.
El verdadero valor de estas herramientas podría estar, más bien, en su capacidad para amplificar —no reemplazar— el trabajo humano. En el Reino Unido, el Servicio Nacional de Salud (NHS) implementó el sistema Wysa, un chatbot que funciona como primer filtro para casos leves de ansiedad, pero que deriva inmediatamente a especialistas cuando detecta señales de alerta. Los resultados preliminares, publicados en el Journal of Medical Internet Research (2024), muestran que este modelo híbrido puede reducir tiempos de espera sin comprometer la calidad de la atención y siempre bajo supervisión humana.
Esta lógica opera incluso en los sistemas híbridos más sofisticados. Cuando el chatbot del NHS británico deriva «casos complejos» a humanos, está estableciendo una frontera arbitraria entre lo programable y lo humano. ¿Quién define esa frontera? ¿Un comité de expertos? ¿Un administrador preocupado por los costos? El riesgo es que terminemos medicalizando solo lo que cabe en formularios digitales, mientras la verdadera complejidad humana —esa que se expresa en contradicciones, silencios o actos fallidos— quede fuera del sistema por indocumentable.
Por eso, es menester resaltar la falacia de la “herramienta neutral”, donde se nos repite que la IA es solo un instrumento, como un martillo: depende de quién lo use. Pero esta afirmación ignora que estas tecnologías traen incorporada una cosmovisión. Un modelo entrenado mayoritariamente con manuales cognitivo-conductuales anglosajones inevitablemente priorizará soluciones individuales («controla tus pensamientos») sobre lecturas sistémicas («¿qué en tu entorno causa este dolor?»). Cuando un bot recomienda ejercicios de respiración a una madre soltera que trabaja tres turnos, no está siendo neutral: está imponiendo una ética del autocontrol que ignora la opresión material.
Detrás de la retórica altruista late un mercado voraz. La consultora Grand View Research estima que el sector de «salud mental digital» moverá 45 mil millones de dólares para 2027. Mientras el mercado celebra el «alto engagement» de usuarios que regresan a las apps, no mencionan que éstas se alimentan de la desesperación: la persona con trastorno obsesivo-compulsivo que chequea el bot 80 veces al día no está «comprometida», está atrapada. Peor aún: cuando estas plataformas venden datos anonimizados a farmacéuticas, convierten la angustia en commodity.