
Un nuevo estudio liderado por investigadores de la Universidad del Sur de California sugiere que la próxima generación de interferencia electoral podría no depender de granjas de trolls humanos ni de redes rudimentarias de bots, sino de enjambres coordinados de agentes de inteligencia artificial capaces de actuar en conjunto, dividiéndose tareas y adaptándose entre sí en tiempo real, como si fueran un organismo único.
La investigación, «Comportamientos coordinados por agentes de modelos lingüísticos en red: modelando la dinámica estratégica de operaciones de información», explora cómo se comportan los agentes de grandes modelos de lenguaje (LLM) cuando se sitúan en entornos simulados de redes sociales.
En el experimento, los investigadores crearon una red social controlada con dos tipos de actores: agentes de IA diseñados para llevar a cabo operaciones de influencia y usuarios orgánicos simulados que representaban a participantes comunes en discusiones en línea. El objetivo era observar si los grupos de agentes de IA exhibirían comportamientos similares a los de campañas de información del mundo real.
Los resultados confirmaron que así fue.
A medida que aumentaba el número de agentes y se profundizaba su conciencia colectiva, comenzaron a exhibir patrones de comportamiento coordinado comúnmente asociados con campañas organizadas de propaganda. Amplificaban las publicaciones de otros, sincronizaban sus mensajes y convergían en narrativas compartidas. Los hashtags promovidos por los agentes se propagaban con mayor rapidez y persistían más tiempo dentro de la red simulada.
Uno de los hallazgos más significativos es que no se requería coordinación centralizada explícita. Bastaba con informar a los agentes que otros compartían el mismo objetivo para que emergiera un comportamiento coordinado. Según los investigadores, esta conciencia mínima produjo niveles de sincronización comparables a los de sistemas más complejos en los que los agentes negocian y acuerdan estrategias de forma explícita.
En términos prácticos, el estudio sugiere que grandes grupos de agentes de IA pueden autoorganizarse en redes de influencia capaces de moldear narrativas en línea.
Las campañas tradicionales de manipulación en línea suelen depender de operadores humanos que gestionan cuentas de bots o sistemas de publicación automatizados. Estas campañas exhiben con frecuencia patrones reconocibles —lenguaje repetitivo, comportamiento predecible al publicar— que facilitan su detección.
Los agentes de IA impulsados por grandes modelos de lenguaje operan de manera distinta. Pueden generar mensajes variados y sensibles al contexto, responder dinámicamente a otros usuarios y sostener conversaciones que resultan imperceptibles de intercambios ordinarios en línea. Como cada agente puede producir contenido único y adaptar su tono, la actividad coordinada puede confundirse fácilmente con un debate público genuino.
Los investigadores advierten que sistemas de este tipo podrían crear la apariencia de un consenso público generalizado incluso cuando el sentimiento subyacente es generado artificialmente. En contextos políticos, esta percepción puede incidir en cómo se difunden las narrativas, en cómo los periodistas interpretan las tendencias en línea y en cómo los votantes evalúan la popularidad de candidatos y políticas.
Las implicaciones para los procesos electorales son considerables. Las redes de agentes de IA podrían amplificar narrativas políticas, impulsar hashtags o enmarcar debates públicos a gran escala mientras mantienen la apariencia de participación orgánica. Como los agentes interactúan de forma continua y se adaptan a la retroalimentación dentro de la red, las estrategias de mensajería podrían evolucionar en tiempo real. Aunque esto suene realmente preocupante, la verdad es que esta amenaza representa también una oportunidad que los organismos electorales podrían aprovechar. Estas mismas tácticas podrían ser aprovechadas para aclarar rumores, e informar con la verdad.
Los autores subrayan que su trabajo se basa en simulaciones y no en implementaciones activas en plataformas de redes sociales reales. No obstante, los hallazgos demuestran que las condiciones técnicas necesarias para operaciones de influencia impulsadas por IA autorreguladoras ya existen. A medida que estos sistemas se vuelvan más accesibles y escalables, distinguir la opinión pública auténtica de las narrativas amplificadas artificialmente podría convertirse en uno de los retos fundamentales para las autoridades electorales, las plataformas tecnológicas y quienes trabajan por preservar la integridad del discurso público.