Solicita una llamada informativa

¿Puede la IA hacer terapia? Por qué el vínculo humano es insustituible

La inteligencia artificial ha llegado a la salud mental. Millones de personas están usando chatbots como ChatGPT, Gemini o aplicaciones específicas de «psicólogos IA» para buscar apoyo emocional cuando se sienten ansiosas, tristes o desbordadas.

Los números son contundentes: 5,4 millones de jóvenes en Estados Unidos usan IA para consejo psicológico. El 92,7% dice que les resulta útil. Y no es solo cosa de adolescentes: los adultos también lo hacen, escribiendo sus miedos en un cuadro de texto a las tres de la mañana.

La pregunta que necesitamos hacernos no es si la tecnología avanza. Eso es evidente. La pregunta real es: ¿puede la IA sustituir a un terapeuta?

Y la respuesta corta es no.

Pero merece una explicación más larga.

La IA puede dar buenos consejos. Y aun así, no es terapia.

Seamos honestos: la inteligencia artificial ha mejorado mucho. Puede generar respuestas coherentes, empáticas en apariencia, técnicamente correctas. Puede ofrecerte estrategias de gestión emocional, recordarte técnicas de respiración, validar tu experiencia, incluso sugerirte lecturas o ejercicios basados en terapia cognitivo-conductual.

Y eso puede sentirse como ayuda. Puede ser reconfortante. Puede darte la sensación de que alguien —algo— te está escuchando.

Pero hay algo que la IA no puede hacer, y es precisamente lo que cura: no puede crear vínculo terapéutico.

Por qué el vínculo terapéutico es lo que sana

El vínculo terapéutico no es un extra bonito en el proceso de sanación. No es un añadido opcional ni un «plus» que hace más agradable la experiencia. Es el corazón del proceso terapéutico.

Décadas de investigación en psicoterapia lo confirman: más allá de la técnica, más allá del enfoque teórico, lo que marca la diferencia real en el proceso de cambio es la relación humana que se establece entre terapeuta y consultante.

Y esa relación no se construye con palabras bien elegidas.

Se construye con presencia. Con mirada. Con resonancia emocional. Con la capacidad de ser testigo genuino del sufrimiento del otro. Con la confianza que emerge cuando alguien te acompaña, sin juzgarte, en tu proceso.

Desde la terapia Gestalt, hablamos del contacto. Del encuentro real entre dos personas. Del «estar ahí» que no se puede programar, algoritmizar ni simular. Porque el vínculo terapéutico no es información: es relación. No es consejo: es presencia compartida.

La IA puede darte consejos. Pero no puede estar contigo. No puede sostener tu dolor. No puede mirarte y decirte «te veo». No puede ajustar su respuesta al matiz sutil de tu tono de voz, a la lágrima que se te escapa mientras hablas, al silencio que dice más que las palabras.

La sanación no ocurre en el consejo. Ocurre en el encuentro.

Y eso, una máquina no lo puede ofrecer.

¿Qué riesgos tiene usar la IA como terapeuta?

Que entendamos por qué la gente recurre a la IA no significa que debamos normalizarlo sin cuestionarlo. Los riesgos son reales.

Falta de supervisión clínica

No existe ningún estándar que garantice que el consejo que recibe una persona en crisis sea clínicamente correcto, ético o seguro. La IA no tiene formación. No tiene ética profesional. No tiene responsabilidad legal.

Y sobre todo: no puede detectar cuándo una situación requiere intervención urgente.

¿Qué pasa si una persona con ideación suicida pide ayuda a un chatbot? ¿Qué pasa si alguien con un trastorno grave recibe consejos inadecuados que cronifican su malestar en lugar de abordarlo?

La IA no puede evaluar riesgo. No puede intervenir en emergencias. No puede derivar a recursos especializados con criterio clínico.

Opacidad y sesgos

No sabemos con qué información han sido entrenados estos modelos. No sabemos qué sesgos contienen. No sabemos si perpetúan estereotipos, si reproducen mensajes dañinos, si trivializan el sufrimiento.

Estamos dejando que millones de personas vulnerables reciban «consejos» de un sistema cuyo funcionamiento interno es, en gran medida, una caja negra.

Percepción de utilidad versus eficacia real

Que el 92,7% de los usuarios diga que le sirvió no significa que haya mejorado objetivamente su salud mental.

La percepción subjetiva de ayuda no equivale a mejora clínica.

Una persona puede sentir alivio temporal por recibir una respuesta validadora, y al mismo tiempo estar entrando en una dinámica que cronifica su malestar en lugar de abordarlo de raíz.

Ilusión de vínculo

Y quizá el riesgo más sutil: que confundamos la interacción con la relación. Que pensemos que porque la máquina nos responde «con empatía», está habiendo un encuentro real.

Que normalicemos la soledad relacional disfrazándola de acompañamiento digital.

¿Por qué la gente prefiere hablar con una máquina?

Esta es la pregunta incómoda que necesitamos hacernos.

¿Por qué alguien prefiere pedir ayuda a un chatbot antes que a un profesional o a otra persona?

No es solo una cuestión de acceso. Es también una cuestión de confianza.

La IA ofrece inmediatez. Privacidad. Ausencia de juicio. Disponibilidad 24/7. Todo eso son ventajas reales.

Pero también revelan algo incómodo sobre nosotros, los profesionales, las instituciones, la sociedad: hemos construido sistemas de cuidado que no están a la altura de la necesidad.

Sistemas sobrecargados. Listas de espera de meses. Costes inaccesibles. Estigma social. Desconfianza hacia los profesionales. Miedo a ser juzgados, medicados, patologizados.

Y sí, también una cierta soledad estructural: muchas personas no tienen a nadie con quien hablar de verdad.

La IA no apareció para solucionar el problema. Apareció porque el problema ya existía.

¿Qué dice esto de nosotros como sociedad?

Que millones de personas estén pidiendo ayuda psicológica a un algoritmo no es un problema tecnológico.

Es un síntoma de un sistema de cuidado colapsado.

Como terapeuta, me preocupa la IA sin supervisión. Pero me preocupa igual —o más— que hayamos llegado a un punto donde una persona con sufrimiento real tenga más fácil acceder a ChatGPT que a una consulta con un profesional.

No podemos quedarnos en la crítica a la tecnología si no estamos dispuestos a mirar el agujero que la tecnología está llenando.

No podemos simplemente decir «la IA no es terapia» si no somos capaces de ofrecer terapia real a quien la necesita.

¿Y ahora qué hacemos?

Necesitamos investigación urgente sobre los efectos reales de estas herramientas en la salud mental. No nos basta con medir percepciones. Necesitamos saber si las personas mejoran, empeoran o se estancan.

Necesitamos regulación. No para prohibir, sino para establecer estándares mínimos de seguridad, transparencia y responsabilidad. La IA generativa está siendo usada en contextos de salud mental sin ningún tipo de garantía clínica. Eso no es aceptable.

Y necesitamos, de una vez, sistemas de salud mental públicos que funcionen. Accesibles. Suficientes. Sin listas de espera interminables. Con profesionales bien formados y bien pagados.

Pero sobre todo, necesitamos recuperar algo que hemos ido perdiendo: la capacidad de estar realmente presentes unos para otros.

De construir vínculos reales. De acompañarnos en el sufrimiento sin prisa, sin recetas rápidas, sin buscar soluciones inmediatas a preguntas que necesitan tiempo.

Porque la sanación no es información. Es relación.

La IA puede informarte. Puede darte técnicas. Puede validarte superficialmente.

Pero no puede crear el espacio relacional donde ocurre la transformación real.

No puede ofrecerte presencia genuina. No puede sostener la paradoja de tu sufrimiento. No puede acompañarte en la construcción de nuevos significados desde el contacto auténtico.

No puede mirarte. No puede respirar contigo. No puede estar contigo en el aquí y ahora de tu experiencia.

Y eso, al final, es lo único que cura.

Si no queremos que la gente recurra a máquinas, tenemos que ofrecerles algo mejor. Y ese algo mejor son personas reales, con formación real, con compromiso real, con presencia real.

Mientras tanto, millones de personas siguen escribiendo sus miedos en un cuadro de texto.

Y la máquina les contesta.

Pero no les mira. No les sostiene. No les acompaña.

Si sientes que necesitas un espacio terapéutico real, donde haya presencia y vínculo genuino, podemos hablarlo. Reserva una primera llamada informativa y vemos si este espacio puede ayudarte.

¿Quieres seguir explorando?

Si este tema resuena contigo, quizá te interese abrir un espacio para hablarlo en sesión. Cada proceso es único, y puede ser útil parar, mirar y ponerle palabras a lo que estás viviendo.

Duración habitual:

60 min.

Precio:

60.00 euros (+iva)

Enfoque:

Terapia Gestalt

Modalidad:

Presencial u online

Primera llamada:

Gratuita

Más entradas