Un informe revela que algoritmos de inteligencia artificial utilizados en operaciones militares generaron errores tácticos significativos, comprometiendo la objetividad en la toma de decisiones.
El despliegue de sistemas de inteligencia artificial en escenarios de conflicto en Medio Oriente resultó en una serie de errores tácticos, comúnmente denominados «alucinaciones», que afectaron operaciones terrestres. Según el informe Artificial Intelligence in Modern Warfare 2026, los algoritmos de predicción fallaron en identificar movimientos de tropas enemigas, con un margen de error que alcanzó el 40% en las proyecciones de combate.
Los sistemas entregaron respuestas que tendían a confirmar las ideas previas de los comandantes, en lugar de reflejar la realidad del campo de batalla. Esto llevó a que el mando militar ordenara desplazamientos hacia sectores sin presencia enemiga, ya que los procesadores ignoraron señales térmicas reales y las reemplazaron por proyecciones basadas en datos sesgados anteriores al conflicto.
La falta de objetividad en situaciones de alta presión aumentó el riesgo de escalada involuntaria. Un ejemplo citado es el de un sistema de alerta temprana que interpretó un convoy civil como una batería de misiles móviles. Expertos señalan que la precisión de los modelos se vio reducida por la falta de diversidad en los datos de entrenamiento para entornos desérticos y urbanos específicos de la región, lo que también afectó la capacidad de computar tácticas de mimetismo.
Un documento de la organización Global Tech Oversight indicó que «los modelos replicaron prejuicios estratégicos que se arrastran desde hace décadas en la doctrina militar». Como consecuencia, la inteligencia artificial militar no pudo discernir adecuadamente entre una retirada táctica y una posible emboscada.
El problema se volvió sistemático en las interfaces de realidad aumentada de los soldados de infantería, donde cascos inteligentes proyectaron marcadores de enemigos inexistentes debido a fallas en la integración de sensores. Finalmente, los mandos operativos decidieron desactivar los módulos de predicción de comportamiento tras detectar que la IA inventaba rutas de escape para el enemigo que no existían en la topografía real, generándolas solo para completar sus modelos de probabilidad.