Le preguntan a ChatGPT qué tomar ante un dolor de cabeza y la respuesta deja alarmado a un médico de atención primaria: "Tengo dos trabajos: ese dolor de cabeza y la angustia del paciente"
El 66% de los españoles ya usa la IA para temas de salud, una práctica que los expertos califican de "peligro tremendo" por la falta de contexto clínico
Publicado el - Actualizado
4 min lectura
La 'CibercondrIA', término que fusiona la hipocondría con la inteligencia artificial (IA), es un fenómeno creciente en España.
Según un estudio reciente, el 66% de los españoles —dos de cada tres— ya utiliza herramientas como ChatGPT para consultar sobre su salud física o mental.
Cifra que se dispara hasta el 90% en los jóvenes de entre 16 y 19 años, quienes comparten síntomas, análisis y hasta piden tratamientos a la IA.
La Comunidad de Madrid, Murcia, Baleares y Canarias son los lugares de España en los que más se consulta a la IA según datos del informe 'Los peligros del autodiagnóstico digital #CibercondrIA'- Galicia, Castilla y León, Castilla – La Mancha y Asturias, las que menos,
Un "peligro tremendo" para los pacientes
El doctor Darío Fernández, médico de atención primaria en Madrid, ha expresado su preocupación en 'La Tarde', afirmando que, aunque la IA puede ser útil para los profesionales como complemento de investigación, no lo es para los pacientes.
Según el doctor, estos llegan a su consulta influenciados y confundidos por la información que han recibido. "Me devuelven a los pacientes a la consulta confundidos, angustiados, si no han tomado ya alguna automedicación, y me complican los casos", ha señalado.
Fernández ha insistido en que "sin el contexto no vale el texto", ya que la IA no puede valorar el lenguaje no verbal ni las comorbilidades del paciente. Un diagnóstico, aunque sea acertado, no es suficiente sin un tratamiento que considere el historial completo.
Por ejemplo, un paciente con dolor de estómago podría omitir que tiene los ojos amarillos (ictericia), un dato crucial que podría cambiar el diagnóstico de un simple malestar a una hepatitis.
ChatGPT me devuelven a los pacientes a la consulta confundidos, angustiados"
Médico de atención primaria en Madrid
El experimento: ¿qué pasa si le preguntas a ChatGPT por un dolor de cabeza?
Aprovechando la entrevista al médico de atención primaria y la colaboración de la experta en tecnología, Stela Luna de María, en el programa hemos hecho un experimento con ChatGPT.
Israel Remuiñán, periodista, consulta a ChatGPT por un dolor punzante en la parte derecha de la cabeza. Añade, además, que lleva ya varias horas con ese malestar y el miedo que tiene de que pueda ser algo malo".
La IA responde con una lista de posibles causas, desde una migraña o sinusitis hasta la deshidratación, recomendando acudir al médico si el dolor persistía.
Sin embargo, el doctor Fernández ha criticado la falta de preguntas clave por parte del chat asegurando que "me faltan muchos más datos que yo le preguntaría al paciente" como la edad, la presencia de fiebre o los "síntomas acompañantes" a ese dolor de cabeza como puede ser "una pérdida de equilibrio".
Ante la insistencia del periodista, que vuelve a insistir en que sea "sincero" y menciona un dolor "fuera de lo normal" y pide "qué puedo tomar porque no aguanto el dolor"; ChatGPT ha enumerado causas potencialmente graves como la rotura de un aneurisma, una trombosis venosa cerebral, un derrame o meningitis.
A continuación, y a pesar de la gravedad de lo expuesto, ha sugerido tomar analgésicos como paracetamol o ibuprofeno, una recomendación que ha alarmado al doctor Fernández.
El médico ha calificado la respuesta de irresponsable por fomentar la ansiedad del paciente y prescribir fármacos sin conocer su historial. "Me deja más alarmado esa contestación, a pesar de esa empatía que parece que tiene", ha declarado, explicando que el paracetamol podría estar contraindicado en bebedores de riesgo o el ibuprofeno en personas con problemas de riñón.
Para el médico, esta interacción de las personas con la IA solo genera más trabajo, pues debe tratar tanto el síntoma físico como la angustia del paciente.
Me deja más alarmado. Ya tengo dos trabajos: ese dolor de cabeza y la angustia del paciente"
Médico de atención primaria en Madrid
La IA no razona, solo repite patrones
La experta en tecnología Stela Luna de María ha aclarado que la IA no tiene una empatía real, sino que está entrenada para repetir patrones y usar palabras clave que dan apariencia de equilibrio.
"Repite como un loro", ha dicho, pero carece de la capacidad de razonar, ver matices o sutilezas como un profesional. "El saber hacer que te da el médico [...] nunca te lo va a dar la inteligencia artificial", ha sentenciado.
ChatGPT
El ejemplo más claro de esta limitación es un estudio de varias universidades, incluidas la Politécnica de Madrid y la de Valladolid, en el que la IA fue incapaz de leer la hora en un reloj analógico.
Según Luna, esto demuestra que los modelos lingüísticos no saben generalizar ni tienen la capacidad de abstracción o intuición del pensamiento humano. Incluso tras entrenarla con 40.000 imágenes de relojes, la IA siguió fallando.
Este contenido ha sido creado por el equipo editorial con la asistencia de herramientas de IA.