Un informe de ciberseguridad revela el uso creciente de inteligencia artificial para crear y difundir contenido falso sobre guerras, afectando la percepción pública global.
El uso de inteligencia artificial para crear videos y audios falsos, conocidos como deepfakes, alcanzó niveles significativos en la plataforma X durante recientes escaladas bélicas. Estos archivos simulan éxitos militares y bombardeos que no ocurrieron, con el objetivo de influir en la opinión pública internacional de forma rápida.
Un estudio de la firma NewsGuard confirmó que las herramientas de IA generativa producen narrativas polarizantes que apelan directamente al miedo y la ansiedad de los usuarios. La investigación detectó que el 70% de los videos virales sobre supuestas derrotas enemigas en el Golfo contenían elementos de edición sintética o eran recreaciones de videojuegos presentadas como reales.
La herramienta de verificación Grok, integrada en la red social de Elon Musk, enfrentó cuestionamientos por validar información falsa extraída de publicaciones satíricas o hilos de propaganda. El chatbot confundió bromas de usuarios con noticias de última hora, generando resúmenes que daban por ciertos ataques ficticios. Agencias de inteligencia occidentales identificaron granjas de bots que utilizan Grok y otros modelos de lenguaje para ‘verificar’ noticias falsas en tiempo real, en una técnica de validación circular que otorga una apariencia de legitimidad.
Los atacantes también emplean IA generativa para clonar voces de líderes políticos y mandos militares con el fin de emitir órdenes de rendición falsas. Estos audios circulan primero por canales como Telegram y WhatsApp antes de saltar a plataformas masivas, donde los algoritmos de recomendación los impulsan.
Aunque empresas tecnológicas como Meta y Google implementaron marcas de agua digitales, los creadores de contenido malicioso encuentran métodos para eliminarlas. El uso de redes neuronales para detectar deepfakes ha demostrado ser insuficiente ante el avance de los algoritmos de creación.
La falta de un marco legal global permite que los desarrolladores de IA operen en zonas grises, mientras sus productos se utilizan en campañas de desinformación. La monetización de estos contenidos a través de sistemas de reparto de ingresos de las plataformas incentiva a algunos usuarios a publicar falsedades sin verificar su origen.