Un estudio de la UGR destapa con IA el fraude masivo en Telegram: el 78% de los canales de editoriales científicas son falsos
La investigación confirma un ecosistema digital fraudulento y analiza el uso de ChatGPT y DeepSeek para monitorizar la suplantación de identidad en la plataforma
Herrero-Solana, Víctor, & Carlos Castro-Castro
Granada - Publicado el
2 min lectura
La plataforma de mensajería Telegram se ha convertido en un hervidero de canales falsos que suplantan a grandes editoriales científicas. Un estudio de la Universidad de Granada (UGR) ha revelado la magnitud del problema: el 78,38% de los canales que usan los nombres de estas instituciones son fraudulentos. La investigación, publicada en la revista BID: Textos Universitarios de Biblioteconomía y Documentación, ha utilizado por primera vez modelos de Inteligencia Artificial como ChatGPT y DeepSeek para detectar esta suplantación de identidad.
IA para destapar el fraude
Los investigadores Víctor Herrero Solana y Carlos Castro Castro analizaron 37 canales asociados a 13 editoriales líderes como Elsevier, Springer o Nature. Aplicaron un prompt estandarizado a ambos modelos de lenguaje (LLM) para que evaluaran la autenticidad de cada canal, contrastando después los resultados con una verificación manual.
Los datos confirmaron que solo 8 de los 37 canales (21,62%) eran auténticos. Los canales fraudulentos compartían tácticas como la distribución no autorizada de libros o la oferta de servicios editoriales con plazos de publicación sospechosamente rápidos.
Limitaciones y retos de la IA
El análisis ha demostrado que ChatGPT y DeepSeek son eficaces para identificar canales claramente falsos. Sin embargo, los modelos han presentado dificultades para validar canales reales, sobre todo si carecían de verificaciones oficiales como el check azul de Telegram. DeepSeek se centró en la coherencia del contenido, mientras que ChatGPT priorizó la verificación formal de las afiliaciones.
El estudio también ha detectado un claro sesgo hacia fuentes occidentales en los datos consultados por la IA, lo que refleja el dominio del contenido en inglés en la web y en sus sistemas de entrenamiento.
Un llamado a la acción
El trabajo concluye que el ecosistema de Telegram en este ámbito está estructuralmente distorsionado, creando un alto riesgo para la integridad académica. Los investigadores señalan la paradoja de cómo la desatención de las propias editoriales cede el espacio a los estafadores.
La investigación propone el uso de sistemas híbridos que combinen la IA con el criterio experto humano para una monitorización más fiable. A futuro, el enfoque podría ampliarse para detectar otro tipo de desinformación, como fake news y narrativas conspirativas en la plataforma.
Finalmente, el estudio es una llamada a la acción para que las editoriales científicas desarrollen una presencia verificada y activa en estas plataformas, cerrando el vacío que actualmente explotan los actores fraudulentos.
Este contenido ha sido creado por el equipo editorial con la asistencia de herramientas de IA.