VOLVER

Share

Detectan con inteligencia artificial que el 78% de los canales de editoriales científicas en Telegram son falsos

Una investigación de la Universidad de Granada constata un ecosistema digital distorsionado por la suplantación y señala el potencial de los modelos de lenguaje ChatGPT y DeepSeek como herramientas de monitorización, aunque con limitaciones.

Fuente: Universidad de Granada


Granada |
09 de enero de 2026

La plataforma de mensajería Telegram se ha consolidado como un espacio de difusión masiva donde conviven muchas fuentes legítimas, pero también una proliferación de canales falsos que suplantan la identidad de instituciones académicas y científicas. Los investigadores de la Unidad de Humanidades y Ciencias Sociales Computacionales (U-CHASS) de la Universidad de Granada, Víctor Herrero Solana y Carlos Castro Castro, han realizado un estudio que ha analizado este fenómeno centrándose en las principales editoriales científicas internacionales, con un resultado alarmante: el 78,38% de los canales que utilizan sus nombres son fraudulentos. Este estudio ha sido publicado por la revista BID: Textos Universitarios de Biblioteconomía y Documentación, en su número de diciembre de 2025, con el título Principales editores científicos en los canales de Telegram: una aproximación a la detección de fake channels con ChatGPT y DeepSeek.

Los investigadores de la Unidad de Humanidades y Ciencias Sociales Computacionales (U-CHASS) de la Universidad de Granada, Víctor Herrero Solana y Carlos Castro Castro.

Los investigadores de la Unidad de Humanidades y Ciencias Sociales Computacionales (U-CHASS) de la Universidad de Granada, Víctor Herrero Solana y Carlos Castro Castro.

La investigación, que ha empleado de forma pionera los modelos de lenguaje ChatGPT y DeepSeek como herramientas de análisis, examinó 37 canales asociables a 13 editoriales líderes como Elsevier, Springer, Wiley-Blackwell, Nature y Cambridge University Press, seleccionadas por su volumen de títulos en el portal SCImago.

El estudio se basó en un diseño de caso múltiple, aplicando un prompt estandarizado a ambos modelos de lenguaje (LLM) para que evaluaran la autenticidad de cada canal, con la función de búsqueda web activada. Posteriormente, las clasificaciones generadas por la IA fueron contrastadas con una verificación manual realizada por los investigadores, estableciendo una verdad de referencia (ground truth).

Los datos confirmaron la existencia de una red extensa y organizada de canales no oficiales. De los 37 canales analizados, solo 8 (21,62%) eran reales, legítimamente afiliados a las editoriales. Los canales fraudulentos mostraron tácticas recurrentes, como la distribución no autorizada de libros, ofertas de servicios editoriales con plazos de publicación anómalamente rápidos y el uso de lenguaje promocional inconsistente con lo usual en el mundo de la edición científica.

El análisis evidenció que ambos modelos de IA demostraron una alta efectividad para identificar canales claramente falsos, coincidiendo en la detección de patrones de suplantación. No obstante, el estudio también reveló limitaciones estructurales importantes: los modelos mostraron significativas dificultades para validar canales reales, especialmente aquellos que carecían de señales de verificación fuerte como el check azul de Telegram o enlaces web corporativos explícitos.

Los modelos mostraron enfoques distintos: DeepSeek evaluó la coherencia contextual del contenido, mientras que ChatGPT priorizó la verificación formal de afiliaciones institucionales. Al analizar las fuentes consultadas por ambos, se detectó un claro predominio de referencias occidentales y una mínima presencia de fuentes chinas, incluso en DeepSeek, lo que refleja la hegemonía del contenido en inglés en la web y en los datos de entrenamiento de estos sistemas.

El trabajo concluye que el ecosistema de Telegram referente a las editoriales científicas está estructuralmente distorsionado, lo que configura un entorno de alto riesgo para la integridad académica y la propiedad intelectual. Se subraya la paradoja de la desatención institucional: pese al potencial de Telegram como canal de divulgación robusta, la falta de verificación y presencia activa de las editoriales cede el espacio a actores fraudulentos.

Foto: Pixabay.

La investigación demuestra que los LLMs son herramientas viables para el mapeo y la caracterización inicial a gran escala de este tipo de desinformación, aunque su fiabilidad como detectores autónomos al servicio de usuarios no experto es limitada. Los resultados refuerzan la necesidad de plantear sistemas híbridos donde la escala computacional de la IA se combine con el criterio experto humano.

En el plano aplicado, el enfoque buscará ampliarse a otros tipos de desinformación científica y política en Telegram, incluyendo la detección de fake news y narrativas conspirativas. La progresiva integración de capacidades de análisis masivo en los LLMs ofrece una oportunidad para diseñar herramientas de monitorización proactiva que ayuden a instituciones y plataformas a proteger la integridad de la comunicación científica.

Esta investigación supone una llamada a la acción dirigida a las propias editoriales científicas, para que desarrollen una presencia verificada y activa en estas plataformas, aprovechando las capacidades de difusión que atesoran, y cerrando el vacío que actualmente explotan los actores malintencionados.

Referencias

Herrero-Solana, Víctor, & Carlos Castro-Castro (2025). Principales editores científicos en los canales de Telegram: una aproximación a la detección de fake channels con ChatGPT y DeepSeekBiD: textos universitaris de biblioteconomia i documentació, 55. https://doi.org/10.1344/BID2025.55.07


Share

Últimas publicaciones

‘Vacunan’ plantas de tomate con hongos para obtener frutos con más antioxidantes
Granada | 31 de enero de 2026

Un equipo de investigación de la Estación Experimental del Zaidín (EEZ-CSIC) de Granada ha demostrado que la incorporación temprana de hongos beneficiosos del suelo a las plantas de tomate aumenta sus cualidades saludables. Esta estrategia, aplicada en vivero y validada en condiciones de producción en campo, se presenta como una alternativa sostenible para reducir el uso de fertilizantes en la agricultura.

Sigue leyendo
Córdoba celebra la VIII edición de Infaciencia, una feria que pretende construir una ciencia ciudadana desde las primeras edades
Córdoba | 30 de enero de 2026

La cita es un referente en la promoción de la ciencia en los más pequeños, según ha destacado en la inauguración el consejero de Universidad, Investigación e Innovación, José Carlos Gómez Villamandos.

Sigue leyendo
La exposición al frío y el tratamiento con litio pueden retrasar la pérdida de memoria, según un estudio internacional
29 de enero de 2026

La investigación, publicada en Nature Neuroscience, se ha desarrollado en el organismo modelo Caenorhabditis elegans y ha identificado mecanismos neuronales que regulan activamente la duración de la memoria. El trabajo ha contado con la participación del Instituto de Biomedicina de Sevilla (IBiS).

Sigue leyendo

#CienciaDirecta

Tu fuente de noticias sobre ciencia andaluza

Más información Suscríbete

Ir al contenido