El 78% de los canales de editoriales científicas en Telegram son falsos

  • Un estudio de la Universidad de Granada revela que más del 78% de los canales de Telegram que usan nombres de editoriales científicas son fraudulentos.
  • La investigación analizó 37 canales asociados a 13 grandes editoriales internacionales usando modelos de IA como ChatGPT y DeepSeek.
  • La mayoría de los canales falsos distribuyen libros sin autorización y ofrecen servicios editoriales sospechosamente rápidos.
  • El trabajo propone sistemas híbridos que combinen inteligencia artificial y verificación humana, y reclama una presencia oficial más sólida de las editoriales en Telegram.

Canales falsos de editoriales científicas en Telegram

Telegram se ha convertido en uno de los grandes espacios para compartir información científica, pero también en un lugar donde abundan las suplantaciones de editoriales académicas. Un nuevo estudio desarrollado en España ha puesto cifras muy concretas a un fenómeno que hasta ahora se intuía, pero que no se había medido con tanto detalle.

Según esta investigación, liderada por la Universidad de Granada (UGR), casi ocho de cada diez canales que operan en Telegram usando el nombre de grandes editoriales científicas internacionales no son oficiales. Hablamos de un 78% de canales falsos, un dato que enciende todas las alarmas en un contexto donde la desinformación científica ya es un problema de primer orden en Europa y en el resto del mundo.

Un mapa del fraude en los canales de editoriales científicas

La investigación, realizada por la Unidad de Humanidades y Ciencias Sociales Computacionales (U-CHASS) de la UGR, se propuso cartografiar el ecosistema de Telegram vinculado a las grandes editoriales académicas. Los responsables del trabajo, los investigadores Víctor Herrero Solana y Carlos Castro Castro, quisieron comprobar hasta qué punto los canales que se presentan como oficiales lo son realmente.

Para ello, seleccionaron 13 editoriales científicas líderes a escala internacional, entre las que se encuentran nombres de referencia como Elsevier, Springer, Wiley-Blackwell, Nature o Cambridge University Press. La elección no fue aleatoria: se tomaron como base su volumen de publicaciones indexadas en el portal SCImago, uno de los principales referentes internacionales en métricas científicas.

Una vez definidas las editoriales a analizar, el equipo localizó en Telegram un total de 37 canales que podían asociarse a estos sellos. El objetivo era doble: por un lado, determinar si esos canales eran realmente oficiales; por otro, estudiar qué tipo de contenidos y prácticas estaban desarrollando los que suplantaban identidades.

Los resultados fueron contundentes: de los 37 canales revisados, solo 8 resultaron ser legítimos y estar vinculados de forma directa y verificable a las editoriales correspondientes. Es decir, únicamente un 21,62% de los canales era auténtico, frente a un 78,38% de canales fraudulentos que operaban utilizando nombres, logotipos o referencias de estas instituciones sin ningún tipo de autorización.

Un estudio pionero con ChatGPT y DeepSeek

Uno de los aspectos más llamativos del trabajo es la metodología empleada. Los investigadores de la UGR han utilizado, de forma pionera en este ámbito, modelos de lenguaje de inteligencia artificial como ChatGPT y DeepSeek para ayudar a detectar estos canales falsos. El estudio se publicó en la revista académica «BID: Textos Universitarios de Biblioteconomía y Documentación», en su número de diciembre de 2025.

Lejos de limitarse a una simple búsqueda manual, el equipo diseñó un esquema de caso múltiple en el que cada canal identificado se analizaba siguiendo un procedimiento estándar. Para ello, se elaboró un prompt estandarizado que se aplicó por igual a ChatGPT y a DeepSeek, con la opción de búsqueda web activada, de manera que estos sistemas pudiesen contrastar información en tiempo real.

La tarea de los modelos de IA consistía en valorar la autenticidad de cada canal de Telegram, teniendo en cuenta indicadores como la relación con sitios web oficiales, la existencia de cuentas verificadas, la coherencia entre el contenido publicado y la línea editorial de la marca, o la presencia de enlaces corporativos fiables.

Tras recibir las clasificaciones proporcionadas por ChatGPT y DeepSeek, los investigadores llevaron a cabo una verificación manual independiente, que actuó como referencia final (ground truth). Es decir, la decisión definitiva sobre si un canal era falso o verdadero no se dejó en manos de la IA, sino que la IA se usó como herramienta de apoyo que luego se comparó con el criterio humano experto.

Cómo operan los canales falsos en Telegram

El análisis de los 37 canales permitió perfilar un patrón bastante claro sobre cómo actúan quienes suplantan a las editoriales científicas. La táctica más común es la distribución masiva de libros y artículos en formato digital sin autorización, presentados muchas veces como “acceso gratuito” o “descarga directa” de títulos que, en realidad, están sujetos a derechos de autor.

Además, muchos de estos canales ofrecen servicios editoriales de dudosa credibilidad, como la promesa de publicar artículos científicos en revistas de alto impacto en plazos extremadamente cortos y con procesos de revisión que poco tienen que ver con la práctica académica real. Este tipo de propuestas pueden confundir especialmente a investigadores jóvenes o con menor experiencia, que buscan vías rápidas para ampliar su currículum.

Otra característica detectada es el uso de lenguaje muy promocional y poco riguroso, con mensajes que recuerdan más a campañas de marketing agresivo que a comunicaciones habituales de una editorial científica. Desde la UGR señalan que esa retórica, llena de promesas y descuentos, encaja mal con la forma en que se comunica normalmente el sector editorial académico.

En algunos casos, los canales falsos emplean logotipos, nombres de colecciones o enlaces acortados que aparentan legitimidad, lo que hace que, a primera vista, puedan resultar convincentes para un usuario poco familiarizado con el funcionamiento interno de las editoriales. Esta mezcla de apariencia profesional y prácticas irregulares alimenta un entorno especialmente vulnerable a la desinformación.

Todo ello, concluye el estudio, configura un ecosistema distorsionado en Telegram, donde la presencia de los actores fraudulentos es muy superior a la de las editoriales reales. Ese desequilibrio incrementa el riesgo para la integridad académica y la propiedad intelectual, tanto en España como en el resto de Europa, al facilitar la circulación de contenidos no autorizados y de promesas editoriales engañosas.

Qué acierta y en qué falla la inteligencia artificial

En términos de rendimiento, el trabajo señala que tanto ChatGPT como DeepSeek mostraron una alta capacidad para detectar canales claramente falsos. Cuando los signos de suplantación eran evidentes —por ejemplo, ausencia total de enlaces oficiales, promesas desmedidas o contenidos abiertamente piratas—, los modelos coincidieron en clasificarlos como no legítimos.

Sin embargo, el estudio también pone sobre la mesa las limitaciones estructurales de estos sistemas a la hora de validar canales auténticos. Los casos que generaron más dudas fueron aquellos en los que el canal sí parecía vinculado a una editorial, pero carecía de marcas claras de verificación, como el check azul de Telegram o enlaces explícitos a páginas corporativas fácilmente rastreables.

Los autores detectaron que DeepSeek tendía a fijarse más en la coherencia contextual del contenido: revisaba si los mensajes, el tipo de publicaciones y el tono encajaban con lo que cabe esperar de una editorial científica consolidada. ChatGPT, por su parte, puso más énfasis en la verificación formal de las afiliaciones institucionales, priorizando señales como la presencia en webs oficiales, perfiles enlazados o menciones verificadas.

Este doble enfoque permitió observar que, aunque ambos modelos son útiles para un cribado inicial de grandes volúmenes de canales, no son infalibles. En particular, cuando faltan señales fuertes de autenticidad, la IA puede tener dificultades para diferenciar entre un canal real con poca información pública y uno falso bien construido.

El trabajo recuerda que, por ahora, la fiabilidad de estos modelos como detectores autónomos para usuarios sin formación específica es limitada. Su mejor uso, según la investigación, es integrarlos en sistemas híbridos donde la capacidad de análisis masivo de la IA se complemente con el criterio experto de bibliotecarios, documentalistas y personal académico.

Sesgos en las fuentes y hegemonía del contenido en inglés

Más allá de la detección de canales falsos, el estudio de la UGR se detuvo en analizar qué tipo de fuentes consultan ChatGPT y DeepSeek para fundamentar sus respuestas. Una de las conclusiones fue la fuerte presencia de referencias occidentales frente a otras áreas geográficas, incluso en el caso de DeepSeek, que podría presumirse más orientado a fuentes asiáticas.

Este desequilibrio ilustra la hegemonía del contenido en inglés en la web, especialmente en lo relativo a información científica y académica. Al estar entrenados mayoritariamente con datos en ese idioma y procedentes de determinadas regiones, los sistemas tienden a reproducir esa distribución, lo que se traduce en un sesgo estructural cuando se trata de identificar o valorar fuentes de otras zonas, como China u otros países no occidentales.

En la práctica, esto puede tener implicaciones relevantes en la evaluación de canales vinculados a editoriales no occidentales, cuyos sitios web, patrones comunicativos o sistemas de verificación quizá no encajen tan bien con los criterios predominantes en el entorno anglosajón. El resultado es que algunos canales legítimos pueden ser clasificados con mayor incertidumbre o sospecha.

Los autores del trabajo consideran que este hallazgo debería tenerse en cuenta a la hora de diseñar herramientas de monitorización global basadas en IA, especialmente en el ámbito europeo, donde conviven actores científicos de muy diversos contextos lingüísticos y culturales. Sin correcciones específicas, se corre el riesgo de amplificar desigualdades en la visibilidad y reconocimiento de algunas instituciones.

El estudio sugiere que, en futuras investigaciones, sería conveniente abordar de forma explícita estas carencias, ya sea entrenando modelos con corpus más equilibrados o ajustando los criterios de evaluación para adaptarlos mejor a la diversidad del sistema académico internacional.

Un entorno de alto riesgo para la integridad académica

Con todos los datos sobre la mesa, la investigación concluye que el universo de canales de Telegram relacionados con editoriales científicas se encuentra profundamente distorsionado. La presencia mayoritaria de canales falsos, frente a un número reducido de cuentas oficiales, genera un escenario de alto riesgo para la integridad académica y la protección de la propiedad intelectual.

Entre los peligros detectados figura la difusión de material científico sin control, lo que no solo vulnera derechos de autor, sino que puede fomentar la circulación de versiones desactualizadas, incompletas o manipuladas de artículos y libros. En paralelo, los servicios editoriales fraudulentos erosionan la confianza en el sistema de publicación científica y pueden perjudicar seriamente la carrera de quienes caen en estas redes.

Los autores del estudio hablan de una auténtica paradoja institucional: mientras Telegram ofrece un gran potencial como canal de comunicación y divulgación científica robusta, la escasa presencia activa y verificada de las propias editoriales deja un vacío que los actores malintencionados están aprovechando sin demasiada resistencia.

En el contexto europeo, donde la lucha contra la desinformación científica es ya una prioridad política y regulatoria, este tipo de entornos poco regulados representa un desafío añadido. La facilidad con la que se pueden crear canales y difundir contenidos en Telegram hace que resulte especialmente atractivo para quienes buscan explotar la marca de instituciones de prestigio.

Por todo ello, el trabajo de la Universidad de Granada funciona no solo como diagnóstico, sino también como llamada de atención a comunidades académicas, bibliotecas y organismos reguladores, que deben considerar este tipo de prácticas a la hora de diseñar políticas de integridad y acceso abierto.

Hacia sistemas híbridos de vigilancia y nuevas líneas de investigación

Frente a este panorama, los investigadores de la UGR defienden el desarrollo de sistemas híbridos de detección que combinen las capacidades de la inteligencia artificial con la supervisión humana especializada. La idea es aprovechar la escala computacional de los modelos de lenguaje para peinar grandes volúmenes de canales y contenidos, pero reservando la decisión final para equipos expertos.

En este enfoque mixto, la IA serviría como herramienta de mapeo inicial, identificando patrones sospechosos, repeticiones de tácticas de fraude o nuevas cuentas que imiten la identidad de editoriales consolidadas. A partir de ahí, documentalistas, bibliotecarios y personal de las propias editoriales podrían confirmar o descartar los casos detectados.

El estudio apunta además a la posibilidad de expandir este tipo de metodología a otros ámbitos de la desinformación, más allá del terreno editorial. Los autores mencionan expresamente la detección de fake news y narrativas conspirativas en Telegram, tanto de carácter científico como político, lo que abre la puerta a investigaciones futuras que podrían interesar de forma directa a instituciones europeas.

La progresiva integración de funciones avanzadas de análisis de texto y contexto en los modelos de lenguaje ofrece una oportunidad para desarrollar sistemas de monitorización proactiva. Estos sistemas podrían alertar tempranamente de la aparición de nuevas redes de canales falsos, facilitando una respuesta más rápida por parte de editoriales, universidades u organismos públicos.

En paralelo, se subraya la necesidad de que las editoriales científicas se impliquen más en la construcción de una presencia oficial sólida en Telegram. Cuentas verificadas, políticas claras de comunicación y mayor transparencia en los canales autorizados ayudarían a los usuarios a identificar mejor las fuentes fiables y reducirían el margen de maniobra de los suplantadores.

El trabajo de la Universidad de Granada pone de relieve que el problema de los canales falsos de editoriales científicas en Telegram no es anecdótico, sino estructural, y que su abordaje exige combinar tecnología, criterio experto y una implicación activa de las propias instituciones académicas para recuperar terreno en un espacio digital donde, hoy por hoy, los actores fraudulentos llevan una clara ventaja.

Jesús G. Maestro
Artículo relacionado:
Jesús G. Maestro: su visión crítica sobre la universidad y el papel del idealismo