¿Puede ChatGPT sustituir a tu psicólogo? Los peligros de esta popular moda entre los jóvenes de dejar a un lado la terapia convencional y recurrir a la IA

El psicólogo Nicolás Salcedo, muy popular en redes, asegura a COPE que el mayor problema "es que muchas personas están jugando con algo que no entienden realmente"

Imagen de recurso
00:00
Patricia Blázquez Serna

Nicolás Salcedo, psicólogo

Patricia Blázquez Serna

Publicado el - Actualizado

4 min lectura

"Solo quiero que alguien me entienda como lo hace ChatGPT", "ChatGPT es mi psicólogo y, además, gratis" o "ChatGPT, el verdadero psicólogo privado". Podrían ser frases extraídas de series similares a Black Mirror, pero no hace falta irse tan lejos. Basta con buscar en X o en TikTok y podrás encontrar cientos de mensajes de jóvenes asegurando que la Inteligencia Artificial les sirve como un trabajador de la salud, lo que cada vez más preocupa a los verdaderos profesionales.

Y muchos de ellos no son conscientes del verdadero peligro que entraña su uso como psicólogo, obviando así que no es más que una máquina que, simplemente, tiene acceso a Internet. 

Nicolás Salcedo es psicólogo y hace solo unos días lanzó esta pregunta en sus redes sociales: "¿Puedes usar a ChatGPT como psicólogo?". 

En COPE hemos querido hablar con él y ha sido muy contundente: "La IA actualmente no puede sustituir a ningún profesional de la salud". Si bien es cierto que ya se está estudiando para que sirva como un complemento dentro de lo que es la terapia, este servicio jamás podrá sustituir a un psicólogo ya, que aún como un sencillo complemento, "tiene sus fallas". 

CHATGPT COMO PSICÓLOGO: ¿POR QUÉ LOS JÓVENES LO ELIGEN?

Salcedo apunta que un psicólogo o un terapeuta, al final, tienen formación "en trato con las personas, en relación terapéutica y estudios demuestran que es un porcentaje muy amplio del éxito de la terapia". Por lo tanto, agrega, no todo "es conocimiento", sino también el "entender, el lenguaje no verbal", algo de lo que no es capaz la IA, por mucho que los jóvenes acaben recurriendo a ella.

Imagen de recurso

Alamy Stock Photo

Imagen de recurso

"Cuando una persona le cuenta sus problemas a la Inteligencia Artificial, lo que está ignorando es que es un modelo de lenguaje", asegura el psicólogo. Y no solo eso, estamos hablando de una Inteligencia que "no es un ser independiente, no tiene emociones, ni el concepto de las emociones", así como tampoco "las puede sentir". 

Una persona, cuando recurre a este sistema para paliar sus miedos, sus ansiedades, en busca de una respuesta para un problema muy concreto y particular, no está hablando con otra persona que pueda entenderlo, sintetizarlo y devolverle una respuesta acorde a su problema. Se trata de un sistema informático, una máquina... una irrealidad. Para Salcedo no es más que "una búsqueda en Google muy, muy avanzada". 

"Si tú esperas una respuesta terapéutica, lo que vas a encontrar es que te va a decir exactamente lo que tú le digas que te quiere decir, aunque sea de una forma directa o indirecta", subraya categóricamente. De hecho, explica que a día de hoy se están haciendo estudios para comparar las respuestas que dan los psicólogos titulados o incluso psiquiatras con respecto a las que ofrece la IA. En cualquier caso, recuerda que una persona no tiene la obligación de identificar si una respuesta que ofrece ChatGPT "le va a venir bien o no para cumplir su objetivo". 

De hecho, hace un claro matiz, y es que mucha gente recurre a este sistema como terapia, cuando realmente se encuentran ante una "herramienta de gestión emocional". Recuerda, de todos modos, que lo único que puede hacer una persona es identificar si esa respuesta le hace bien o no a la persona, y ese "no es el objetivo de ningún tipo de terapia ni de ningún proceso". 

¿Y COMO COMPLEMENTO A LA TERAPIA?

El dicho "si no puedes con tu enemigo, únete a él" podría tener, en este caso, más fuerza que nunca. Si ya partimos de la base de que una IA nunca podrá sustituir a un psicólogo o a un psiquiatra, ¿podría, al menos, servir como herramienta de apoyo a la terapia? A juicio del psicólogo, sí podría serlo. Eso sí, en casos "de extrema necesidad" y muy de cara a futuro. 

"Ahora mismo el problema es que muchas personas están jugando con algo que no entienden realmente" y, matiza, ya se han detectado "casos de suicidios" de personas que han hablado y han tenido conversaciones con otras Inteligencias Artificiales; con otros "bots creados por terceros", porque se trata de algo que "no está regulado".

Una persona usando en su ordenador ChatGPT
00:00
Patricia Blázquez Serna

Nicolás Salcedo, psicólogo

"La tecnología está avanzando mucho más rápido de lo que podemos regular y esto está originando problemas fundamentales que una persona en una situación de extrema vulnerabilidad, tendrá muchísimos problemas", apunta. Y es que una persona que esté en una situación de crisis, no necesita hablar con una máquina que le diga todo aquello que quiere o necesita escuchar, sino una persona con los conocimientos adecuados que sí puedan ayudarle a salir de ese momento de crisis. 

"Necesitas hablar con alguien, sentirte apoyado... tener una conexión humana", agrega. Además, recuerda que en casos de extrema necesidad, ya existen líneas de teléfono gratuitas y otros recursos que puedan cobijarles en esos momentos de crisis. 

Finalmente, Salcedo admite que él ha tenido pacientes que le ha confesado que han hecho uso de ChatGPT fuera de las sesiones. "Obviamente no tengo ningún problema porque lo usan como complemento a la terapia; mientras no lo sustituyan, algo bien estamos haciendo", apostilla. De hecho, él mismo agradece que se lo digan, porque así puede también guiarles para identificar si la IA les ha metido en esa "cámara de eco", es decir, que esa inteligencia "le está dando una respuesta que quiere escuchar o si, efectivamente, va alineado con el proceso". 

Herrera en COPE

Herrera en COPE

Con Carlos Herrera

Lunes a viernes de 06:00h a 13:00h

Programas

Último boletín

05:00H | 13 JUN 2025 | BOLETÍN

Boletines COPE
Tracking