Lejos de los bots tradicionales —fáciles de identificar por su comportamiento repetitivo— estos sistemas se basan en agentes autónomos diseñados para simular identidades humanas con un alto grado de realismo. Su capacidad no se limita a publicar mensajes: pueden interactuar, aprender del entorno, coordinarse entre sí y adaptar sus discursos en tiempo real.
El estudio describe cómo estos enjambres de IA podrían generar una ilusión de consenso social al amplificar determinadas ideas o narrativas. Este fenómeno, conocido en ciencias sociales como “falso consenso”, tiene implicaciones directas en la formación de opiniones, especialmente en contextos polarizados o durante procesos electorales.
Según los investigadores, la clave de su potencial radica en la escala y la sofisticación. A diferencia de campañas de desinformación anteriores, que dependían de intervención humana o scripts simples, estos sistemas pueden operar de forma coordinada y masiva, perfeccionando sus mensajes a medida que interactúan con usuarios reales.
En este contexto, la amenaza no reside únicamente en la difusión de información falsa, sino en la capacidad de estos agentes para integrarse en conversaciones legítimas, ganarse la confianza de las comunidades y orientar gradualmente el debate público. La manipulación, por tanto, podría producirse de manera sutil, acumulativa y difícil de rastrear.
El informe también subraya que, aunque el despliegue generalizado de estos enjambres sigue siendo en gran medida teórico, ya existen precedentes que apuntan en esta dirección. Tecnologías como los deepfakes o las redes coordinadas de propaganda digital muestran que la automatización de la influencia es una tendencia en crecimiento.
Otro aspecto relevante es la dificultad para detectarlos. Al comportarse como usuarios humanos —con estilos de escritura variados, tiempos de respuesta naturales y coherencia contextual— estos sistemas podrían eludir los mecanismos actuales de moderación y verificación.
Los autores del estudio insisten en la necesidad de anticiparse a estos riesgos mediante marcos regulatorios, herramientas de detección más avanzadas y una mayor alfabetización digital de la ciudadanía. En su análisis, la defensa de los procesos democráticos pasa no solo por la tecnología, sino también por la comprensión crítica del entorno informativo.
Este trabajo se inscribe en un debate más amplio sobre el impacto de la inteligencia artificial en la esfera pública, donde el equilibrio entre innovación y protección institucional se presenta como uno de los grandes retos de la próxima década.
Fuentes:
University of British Columbia. «AI swarms could hijack democracy without anyone noticing.»
ScienceDaily. ScienceDaily, 20 April 2026.
Daniel Thilo Schroeder, Meeyoung Cha, Andrea Baronchelli, Nick Bostrom, Nicholas A. Christakis, David Garcia, Amit Goldenberg, Yara Kyrychenko, Kevin Leyton-Brown, Nina Lutz, Gary Marcus, Filippo Menczer, Gordon Pennycook, David G. Rand, Maria Ressa, Frank Schweitzer, Dawn Song, Christopher Summerfield, Audrey Tang, Jay J. Van Bavel, Sander van der Linden, Jonas R. Kunst. How malicious AI swarms can threaten democracy. Science, 2026; 391 (6783): 354 DOI
Artículo redactado con asistencia de IA (Ref. APA: OpenAI. (2026). ChatGPT (versión GPT-5.3, 28 de abril). OpenAI)
