La IA inventa un destino turístico y decenas de viajeros acaban en un lugar donde no hay nada
El caso de Weldborough no es un simple error anecdótico. Ilustra un riesgo creciente en el sector turístico, donde la presión por generar contenido rápido y atractivo puede llevar a delegar funciones críticas en sistemas automatizados sin garantías suficientes.

Monte Michael
Granada - Publicado el
3 min lectura
El uso de inteligencia artificial en el sector turístico ha vuelto a situarse en el centro del debate tras un episodio ocurrido en el noreste de Tasmania, en Australia. Una empresa dedicada a la promoción de viajes publicó en su web un artículo que describía unas supuestas fuentes termales naturales situadas cerca de la localidad rural de Weldborough. El problema: esas termas no existen.
El contenido, generado automáticamente mediante una herramienta de inteligencia artificial, presentaba el lugar como un atractivo natural ideal para viajeros interesados en el bienestar y el turismo de naturaleza. La información era detallada, convincente y coherente, pero completamente falsa. Como consecuencia, numerosos turistas se desplazaron hasta la zona con la expectativa de encontrar un enclave termal que nunca ha formado parte del territorio.
Un destino real, una atracción inventada
Weldborough es una pequeña población situada en una región boscosa de Tasmania, conocida por su entorno natural, sus rutas rurales y un río de aguas frías frecuentado por aficionados a la búsqueda de minerales. Sin embargo, no existen fuentes de aguas calientes ni instalaciones termales en la zona, ni registros geológicos que indiquen su presencia pasada o actual.
Aun así, el artículo generado por IA describía con precisión ficticia un entorno de aguas cálidas, accesos sencillos y una experiencia relajante en plena naturaleza. Esta información fue suficiente para que visitantes nacionales e internacionales incluyeran el supuesto enclave en sus rutas de viaje, desplazándose hasta un lugar donde no había nada que encontrar.
Impacto directo en la comunidad local
Los primeros en detectar el problema fueron los residentes y negocios locales. Alojamientos y establecimientos de la zona comenzaron a recibir consultas constantes de turistas preguntando por la ubicación exacta de las termas. Algunos visitantes llegaron incluso al pueblo convencidos de que se trataba de un lugar poco señalizado o “secreto”.
La situación generó confusión, frustración y pérdida de tiempo para los viajeros, pero también un impacto inesperado en la comunidad local, que se vio obligada a explicar repetidamente que el destino promocionado no existía. Aunque no se registraron incidentes graves, el episodio puso de manifiesto cómo un error digital puede trasladarse rápidamente al mundo real.
La empresa responsable reconoció posteriormente que el texto había sido producido mediante una herramienta de inteligencia artificial utilizada para generar contenidos de forma automática. El artículo fue publicado sin una revisión humana previa, lo que permitió que una información completamente inventada pasara por válida.
Este tipo de error responde a un fenómeno conocido en el ámbito tecnológico: los sistemas de IA generativa pueden producir textos plausibles desde el punto de vista lingüístico, pero no verifican la realidad de los datos que presentan. Si no se les imponen límites, fuentes contrastadas o supervisión editorial, pueden “crear” lugares, hechos o referencias inexistentes.
Tras detectar el fallo, la empresa retiró el contenido y revisó su estrategia de uso de inteligencia artificial en la comunicación digital.
Un aviso para el sector turístico
En turismo, la información no es neutra: influye en decisiones de viaje, desplazamientos, gastos económicos y expectativas personales. Una descripción incorrecta no solo afecta a la credibilidad de una empresa, sino que puede alterar flujos de visitantes y generar desinformación territorial.
La inteligencia artificial puede ser una herramienta valiosa para el sector, siempre que se utilice como apoyo y no como sustituto del criterio humano. La generación automática de textos exige verificación, contraste y responsabilidad editorial, especialmente cuando se habla de lugares físicos y experiencias reales.
El episodio de las falsas termas de Tasmania deja una lección clara: la automatización sin control no elimina errores, los amplifica. Y cuando esos errores se publican en entornos de alta visibilidad, las consecuencias ya no son digitales, sino reales.



