Un video viral que luego fue bajado de las plataformas mostraba al personaje animado Peter Griffin, de la serie Family Guy, manejando una camioneta cargada de explosivos mientras cantaba una melodía en la que se glorificaba la lucha de los “soldados de Alá”. Aunque la escena proviene de un episodio original de 2013, la canción fue creada y sobrepuesta con inteligencia artificial (IA).
El deepfake —un video, imagen o audio manipulado con IA para hacer que una persona parezca decir o hacer algo que en realidad no hizo—, compartido en canales cifrados por simpatizantes de Estado Islámico (EI), no es un caso aislado: forma parte de una tendencia creciente en la que organizaciones extremistas están incorporando herramientas digitales avanzadas para amplificar su propaganda y sofisticar sus operaciones.
En febrero de 2024, un grupo afiliado a la organización terrorista Al Qaeda anunció que empezaría a impartir talleres en línea sobre IA, según informó The Washington Post. El mismo grupo publicó una guía sobre el uso de chatbots, es decir programas informáticos diseñados para simular una conversación con personas, ya sea por texto o voz.
La irrupción de la inteligencia artificial generativa —capaz de producir textos, imágenes, audios y videos a partir de comandos simples— transformó radicalmente la forma en que estos grupos difunden sus mensajes, reclutan nuevos miembros, aseguran su anonimato y hasta diseñan componentes logísticos para atentados. En los últimos dos años, organismos de monitoreo internacional detectaron un uso cada vez más sistemático de estas tecnologías por parte de grupos yihadistas, redes neonazis y organizaciones violentas identitarias.
Los expertos alertan que la IA no creó nuevas amenazas, pero sí multiplicó y aceleró capacidades existentes: la propaganda se produce más rápido y a menos costo, la desinformación se distribuye con mayor precisión, y la experiencia de contacto con potenciales reclutas se volvió más personalizada y efectiva.
En conversación con LA NACION, Thomas Morgan, investigador principal del Instituto de Economía y Paz (IEP), señala que “hay mucha información sobre cómo los grupos terroristas podrían usar inteligencia artificial, pero es difícil hallar pruebas concretas”. Desde el IEP —responsable del Global Terrorism Index— buscan identificar correlaciones entre las nuevas herramientas y los datos empíricos de ataques registrados.
Uno de los casos más significativos, según Morgan, es el de la rama de EI que opera en Khorasan (ISK), región que abarca partes de Irán, Afganistán, Turkmenistán y Uzbekistán, cuya filial operó también en Rusia. El grupo difundió contenidos en nueve idiomas y usó IA para fabricar noticias falsas que exageran el impacto de sus atentados. “ISK es uno de los grupos de crecimiento más rápido en los últimos años, y también uno de los que más usó IA. Eso no prueba una relación causal, pero sí muestra una correlación significativa”, advierte. El investigador explica que, en contextos donde la verificación de datos es escasa y la desinformación se viraliza con facilidad, el uso de IA puede convertirse en una ventaja operativa estratégica.
En marzo del año pasado, cuando una rama de EI asesinó a más de 135 personas en un atentado en un teatro de Moscú, el grupo creó un deepfake sobre el suceso para magnificar el impacto. La transmisión mostraba a un presentador de noticias con casco y uniforme militar diciendo que el ataque no fue una operación terrorista, sino parte “del contexto normal de la guerra furiosa entre EI y los países que luchan contra el Islam”. El falso video, que muestra un clon generado por IA, fue creado por simpatizantes de EI como parte de un nuevo programa de medios llamado “News Harvest” y fue identificado gracias a videos y chats compartidos con The Washington Post por SITE Intelligence Group, una organización que monitorea a grupos terroristas y extremistas en internet.
Aunque los sistemas de IA tienen normas para impedir usos ilícitos, no siempre son eficaces y podrían ser burladas por terroristas para obtener información sensible, perpetrar ataques digitales y también para planificar atentados en el mundo real.
EL uso de la IA no se limita a la propaganda. En plataformas cifradas como Telegram o Rocket.Chat, simpatizantes de EI distribuyeron planos de vehículos explosivos diseñados con IA, instrucciones para fabricar bombas, tutoriales de entrenamiento militar presentados por avatares digitales, e incluso manuales interactivos generados por chatbots.
En algunas de estas instancias, la IA actúa como un multiplicador operativo, reduciendo costos, tiempos y riesgos humanos. Morgan indica que “el paso siguiente podría ser el uso de IA para coordinar operaciones de forma descentralizada, algo que pondría en jaque a los sistemas clásicos de inteligencia y vigilancia”.
Desde el plano comunicacional, Manuel Torres Soriano —especialista en terrorismo y ciberseguridad— dialoga con LA NAICION y traza un diagnóstico inquietante: “Los grupos terroristas siempre supieron aprovechar las oportunidades tecnológicas. Con la IA no tengo dudas de que veremos un despliegue creciente en los próximos años, incluso con enfoques creativos e innovadores para potenciar actividades clásicas como la propaganda, la formación o la financiación”.
Para Torres Soriano, uno de los usos más disruptivos será el empleo de chatbots entrenados con el ideario extremista. “Tienen una capacidad de persuasión muy potente. Pueden convertirse en herramientas extremadamente eficaces para adoctrinar a nuevos adeptos. Están disponibles las 24 horas, no se cansan, responden cualquier inquietud y ofrecen una experiencia personalizada”, explica. Esa combinación de escalabilidad e intimidad emocional, advierte, puede acelerar de forma alarmante los procesos de radicalización.
FALTA GRÁFICO
Morgan confirma esta preocupación: “Si antes la radicalización podía llevar años, hoy puede ocurrir en semanas. Los jóvenes, especialmente aquellos con conflictos de identidad o vulnerabilidad social, están más expuestos a ese tipo de discurso, amplificado por IA”.
De hecho, ambos expertos coinciden en que uno de los perfiles más afectados es el de las segundas y terceras generaciones de migrantes musulmanes en Europa, jóvenes -en general hombres- que no se sienten plenamente integrados ni en la sociedad donde residen ni en sus comunidades de origen.
“La propaganda yihadista ofrece respuestas simples y categóricas ante preguntas difíciles sobre identidad, pertenencia y propósito. Y por eso resulta atractiva. Si a eso le sumamos herramientas tecnológicas capaces de generar contenido visual, textual y auditivo en segundos, el alcance del mensaje se multiplica”, agrega Torres Soriano.
A nivel técnico, la IA también permite adaptar los contenidos a distintas plataformas y públicos. Mientras los foros y blogs captan a perfiles ideológicos más rígidos o radicales, redes como TikTok o Instagram son utilizadas para atraer a públicos más jóvenes con clips llamativos y memes. “A diferencia de los años 90, donde la propaganda era uniforme y se transmitía por TV o panfletos, hoy puede segmentarse con precisión quirúrgica”, explica el investigador español. Morgan añade: “Esa segmentación permite diseñar campañas distintas para distintos públicos, en distintos idiomas y con diferentes niveles de radicalización”.
Frente a este escenario, la comunidad internacional enfrenta desafíos mayúsculos. Uno de ellos es la falta de coordinación entre agencias de seguridad y organismos multilaterales, otro es la fragmentación regulatoria: “Aunque la Unión Europea o Estados Unidos impongan restricciones sobre el uso de la IA, si otros países no adoptan normas similares, el problema se traslada”, explica Morgan. A esto se suma la desigual responsabilidad de las empresas tecnológicas.
El AI Safety Index revela que solo tres grandes empresas de IA —Anthropic, OpenAI y Google DeepMind— evalúan riesgos graves como el ciberterrorismo, pero sus pruebas siguen siendo insuficientes y con poca auditoría externa, lo que genera desconfianza. Deepseek, el chatbot chino, obtuvo la calificación más baja en los controles de seguridad.
Torres Soriano subraya que la solución no pasa únicamente por la regulación. “Es fundamental que quienes desarrollan estos productos tengan desde el inicio la preocupación por los posibles usos maliciosos. No se trata solo de responder ante el abuso, sino de prevenirlo desde el diseño mismo del sistema”, dice. También sostiene que hace falta un nuevo marco de cooperación público-privado que no frene la innovación, pero que garantice estándares de seguridad proactivos.
En cuanto al futuro, los especialistas coinciden en que la brecha entre Estados y actores no estatales sigue siendo significativa en términos de acceso a tecnologías de punta. “Por ahora, las capacidades más sofisticadas —como el uso de armas autónomas o drones con IA militar— siguen en manos estatales. Pero la historia muestra que, con el tiempo, esas herramientas también terminan llegando a grupos armados”, advierte Morgan. De hecho, tanto ISK como el grupo JNIM (activo en Mali y Burkina Faso) ya usan drones para reconocimiento y ataques, en una dinámica que recuerda a la guerra entre Rusia y Ucrania.
La IA amplifica las amenazas existentes en un momento de gran vulnerabilidad institucional. “La mejor manera de reducir el impacto de la IA en manos de extremistas no es solo técnica, sino social”, concluye Morgan. “Si no abordamos las causas profundas del extremismo —la desigualdad, la exclusión, el aislamiento—, ninguna tecnología de seguridad será suficiente para detenerlo”.