既往战争经验,是我们创新下一场战争打法的起点与参考,而不是复制模仿的“模板”。
在智能化作战研究成果中,有一种观点认为,未来智能化技术发展到高级阶段,将会出现“人在回路外”的智能化指挥“自主决策”,即由智能化系统自主侦察、自主决策、自主打击、自主评估。该观点存在诸多风险,应该审慎看待。
算法逻辑被利用欺骗的风险。智能化技术,本质还是建立在海量数据、高速计算系统与特定算法基础上的数据统计分析与挖掘上。2018年,诺贝尔经济学奖获得者托马斯·萨金特在世界科技创新论坛尖锐指出,“人工智能其实就是统计学,只不过用了一个很华丽的辞藻”。在可预见的未来智能化作战活动中,计算机数据挖掘分析能力急速提高,但仍需遵循一定的算法逻辑,一旦对手分析出这些背后的算法逻辑,就能采取针对性的措施,实现隐藏或欺骗的目的,致使系统做出错误判断。比如,现代图像识别技术的基本原理是检测图像的像素或像素组合所形成的模式,与原有模式进行比对进而识别,在不改变物体宏观形状的情况下,只要对图片的微观像素做一定修改,就可以欺骗图像识别系统。2017年,麻省理工学院的学生就通过修改图片像素欺骗了谷歌的图像识别系统,误把一只小狗识别成两名滑雪爱好者。研究表明,戴着特殊设计的、能让人产生错觉的眼镜会让人脸识别系统误以为某些人是明星;在句子中加入特定的词语或拼错一个单词,可以完全干扰用于文本分析的自然语言理解系统。由此可见,一旦对手分析出智能化系统所依赖的算法逻辑后,即可实施欺骗或伪装,导致系统产生误判。
缺乏创造性思维能力的风险。自1956年提出人工智能后,人工智能技术长时间停滞不前,直到 “阿尔法狗”击败人类围棋选手后,才打破这一僵局,引发了以深度学习技术为代表的新一轮人工智能技术研究热潮。但是,目前人工智能技术仍处于“弱智能”阶段,仍然是在既有规则框架下的学习,无法应对千差万别的作战环境。即便是“阿尔法狗”的深度增强学习技术,虽然实现了利用深度学习得到神经元网络,能够对经验直觉进行捕捉和表达,但其前提是遵循围棋固定的行棋、胜负规则。与围棋相比,战争要复杂得多。“战胜不复,而应形于无穷”,人类永远不可能重复上一场战争。既往战争经验,是我们创新下一场战争打法的起点与参考,而不是复制模仿的“模板”。法军沉迷于一战“堑壕+机枪”的阵地防御经验,在德军的闪击战前不堪一击。基于既定规则、经验、知识学习的智能化作战系统,无法应对不可预知的未来进行自主创新,一旦对手的作战样式跳出既往窠臼,系统就不知道“向谁学、学什么”,无法及时做出对应的决策判断,失败的风险大为增加。
违背战争道德伦理的风险。现代战争,敌对双方的交战行动受到一定国际法律法规限制,参战军人都是有血有肉的人,行为也自觉接受人类社会基本的道德准则约束,不是冷冰冰的“杀戮机器”。这些基本的道德伦理观念,是人类社会文明进步的体现。但是,智能化作战系统缺乏人类情感,自然很难受到道德伦理的约束。它学习成长的主要来源就是既往作战行动的经验或教训,若没有人工干预控制,计算机并不能分辨哪些经验教训可以遵循,哪些无法遵循。比如,美军在阿富汗的 “红翼行动”,失败的重要原因之一就是海豹队员的潜伏踪迹被3名牧羊人发现,并被后者报告给塔利班。若不加人工约束,智能化系统将从这一战例中学习到“不能放过交战地区的平民”的教训,并可能在后续的作战行动中,不分青红皂白地攻击交战地区无辜平民,必定会对作战行动抹上阴影,陷入舆论和道德困境。
忽视主观能动性作用的风险。智能化指挥,本质在“算”,仅是对人类认知过程与规律的模仿,无法考虑人的情感与意识因素对战争的影响,无法计算实战中军心、士气对军队战斗力造成的影响。即便在作战行动建模过程中考虑到人的因素,通过加权因子进行修正,仍无法科学、准确地计算人在作战行动中的作用与地位。据说,美军通过兵棋推演,认为可在一天内拿下上甘岭高地,可实际结果与推演结果大相径庭。按照人工智能的决策分析,我军很多战例都将会是失败的结局。同样,在也门战场,拥有最先进武器装备的沙特联军不敌落后的胡塞武装,背后最重要的原因之一就是联军战斗人员的战斗意志、战斗素养比较薄弱,并不能充分发挥武器的战斗效能。不同的战场、不同战斗样式有各自特点,人的主观能动性发挥程度各不相同,但都能对战斗结果造成重要影响,一味地依赖系统来决策,将犯下机械决定论的错误。
应该讲,智能化技术发展到高级阶段后,作战系统的态势感知、判断决策、指挥控制等能力将远远高于人的生理能力,智能化指挥的“自主决策”,在特定作战样式、特定作战场景中,具备实现的可能性与使用价值。但就普遍性而言,应当慎重做出结论,深入研究其背后的制胜机理,方能真正发挥智能化指挥的加速器、倍增器作用。 |