Un informe de ciberseguridad alerta sobre el uso masivo de inteligencia artificial para crear y viralizar contenido falso sobre guerras, manipulando la percepción pública y desafiando los mecanismos de verificación.
El uso de inteligencia artificial para la creación de piezas visuales y sonoras falsas, conocidas como deepfakes, alcanzó niveles significativos en la plataforma X durante recientes escaladas bélicas. Estos archivos simulan éxitos militares y bombardeos que no ocurrieron, con el objetivo de influir en la opinión pública internacional de forma inmediata.
Un estudio de la firma de ciberseguridad NewsGuard confirmó que las herramientas de IA generativa producen narrativas polarizantes. El análisis detectó que aproximadamente el 70% de los videos virales sobre supuestas derrotas enemigas en una región del Golfo contenían elementos de edición sintética o eran recreaciones de videojuegos presentadas como reales.
La herramienta de verificación Grok, integrada en la red social de Elon Musk, enfrentó cuestionamientos por validar información falsa extraída de publicaciones satíricas o hilos de propaganda. El chatbot confundió bromas de usuarios con noticias de última hora, generando resúmenes que daban por ciertos ataques ficticios. Agencias de inteligencia occidentales identificaron granjas de bots que utilizan Grok y otros modelos de lenguaje para «verificar» noticias falsas en tiempo real, en una técnica de validación circular que otorga una apariencia de legitimidad al contenido sintético.
La arquitectura de estos modelos de lenguaje prioriza la relevancia y el engagement por sobre la exactitud de los datos. En varios incidentes documentados, la IA describió explosiones en ciudades donde no se registraron movimientos militares, basándose en la frecuencia de palabras clave que circulaban en la red.
Los atacantes también emplean IA generativa para clonar voces de líderes políticos y mandos militares con el fin de emitir órdenes de rendición falsas. Estos audios circulan primero por canales de Telegram y grupos de WhatsApp antes de saltar a plataformas masivas, donde los algoritmos de recomendación los impulsan.
Empresas tecnológicas como Meta y Google implementaron marcas de agua digitales, pero los creadores de contenido malicioso encuentran métodos para eludirlas. El uso de redes neuronales para detectar deepfakes ha demostrado ser un desafío ante el avance constante de los algoritmos de creación.
Las regulaciones internacionales aún no logran contener la exportación de estas tecnologías hacia grupos paramilitares o servicios de inteligencia extranjeros. La falta de un marco legal global permite que desarrolladores operen en zonas grises. Además, la monetización a través de sistemas de reparto de ingresos de las plataformas incentiva a algunos usuarios a publicar falsedades en busca de clics.
El Centro de Análisis de Amenazas de Microsoft detectó operaciones coordinadas que vinculan la creación de imágenes por IA con campañas de desprestigio contra organismos internacionales, mostrando a trabajadores humanitarios en situaciones falsas o alterando documentos de Naciones Unidas.
