从“缸中之脑”看智能化作战指挥
■刘 奎 秦芳菲
要点提示
●现代人工智能,本质上就如同“缸中之脑”,如果让它实施作战指挥,始终会面临主体缺失即“自我”缺失的问题。这使得人工智能存在天然的、根本的缺陷,必须基于人的主体性,通过人机混合来提升作战指挥效能和水平
●智能化作战指挥中,指挥员主要负责规划做什么、按什么思路做,智能模型则负责规划具体怎么做
“缸中之脑”是一项著名科学假设。意思是,假如人的大脑被取出放在营养液中,神经末梢接上计算机,由计算机模拟出各种感知信号。这时候,“缸中之脑”能不能意识到“我是缸中之脑”?答案是不能,因为人作为一个封闭的系统,当与外界缺乏真实的交互体验时,人是无法跳出自身、从自身之外观察自身并形成自我意识的。而现代人工智能,本质上就如同“缸中之脑”,如果让它实施作战指挥,始终会面临主体缺失即“自我”缺失的问题。这使得人工智能存在天然的、根本的缺陷,必须基于人的主体性,通过人机混合来提升作战指挥效能和水平。
基于“自由选择”,构建“人谋机划”的指挥模式
战场上,指挥员可以选择打哪一个目标,可以选择从正面打、从翼侧打、从背后打、从空中打;可以隔而不打、围而不打、谈而不打……这就是人的自主性,可以自由选择做什么、怎么做。但机器不行,它给出的作战方案,只能是智能模型中蕴含的方案。就每次给出的特定方案而言,也是概率统计意义上可能性最大的方案。这使得人工智能生成的方案呈现“模板化”倾向,相当于一个“复刻机”,同样的问题,它给出的是相似的回答,同样的作战场景,它给出的就是相似的作战方案。
与人工智能相比,同样的作战场景,不同的指挥员设计的作战方案完全不同;同一指挥员在不同的时间面对相似的作战场景,设计的作战方案也不相同。“攻其无备,出其不意”,最有效的方案很可能看上去是最危险、最不可能的方案。对于指挥员,面对作战场景,一瞬间有无限可能,而对于人工智能,一瞬间却只有看上去最好的确定,缺乏创意、缺少谋略,很容易为对方所预料。所以,在智能化作战指挥中,要基于人的自主性,由指挥员负责筹谋算计、创新战法打法、设计基本策略,由机器负责将基本策略转化为可执行可操作的作战方案,形成“人谋机划”的指挥模式。更为重要的是,自主性是人作为人而存在的独特标志,这种自由作决定的权力不可能也不允许让渡给机器,使人沦为机器的附庸。
基于“自我批判”,构建“人反机正”的指挥模式
人类的成长进步,通常是立足现实自我,着眼理想自我,对历史自我进行否定之否定式的批判。人工智能没有“自我”,同时也就丧失了自我批判能力。这使得它只能停留在原有认知框架内解决问题,模型拥有的作战思想、作战原则、战法打法,是在训练完成时所给予的。如果想获得知识和想法的更新提升,就必须从外部对模型进行持续训练。映射到特定作战场景,智能模型给指挥员提供的只能是事先给定的问题解决方案,要想在一次作战中不断地动态调整更新是做不到的。
具有自我批判精神的人类,可以跳出指挥决策思考过程,对指挥决策进行审视、评价、批判。在持续地自我批判中不断对作战方案进行调整,甚至推翻原有方案,形成新的方案。在指挥机构群体中,其他指挥人员也可能对作战方案提出不同意见,指挥员在充分吸纳这些意见的基础上,调整改进原有方案,实现作战方案的动态进化。所以,作战指挥本质上是一个不断向前探索的动态过程,不是作战方案事先给定的静态过程。当机器生成作战方案时,指挥员不能不加思考地盲目接受,而应充当“反对者”“找茬人”,对作战方案展开反思批判,提出反对意见,机器根据人的反对意见,辅助指挥员不断调整、优化作战方案,形成“人反机正”的指挥模式。
基于“自觉能动”,构建“人引机随”的指挥模式
毛泽东同志说过,我们名之曰“自觉的能动性”,是人之所以区别于物的特点。任何一项改造世界的复杂实践活动,都是从粗糙的、抽象的想法开始的,要将抽象观念转化为具体行动,需要克服各种风险和挑战,充分发挥自觉能动性,主动定目标、出主意、想办法。没有自觉能动性的人工智能,人们向它提出问题,它给出的只是模型中蕴含的答案,而不会管这个答案能不能用、有没有针对性、可不可以实际操作,即提出抽象、空洞的问题,它给出的就是抽象、空洞的回答。这也是为什么时下流行的大模型统一的运行模式是“人问机答”,而不是“机器提出问题”。
依靠自觉能动性,再抽象、空洞的问题都能由人一步一步转化为具体的行动方案、具体的行动实践。因此,智能化作战指挥中,指挥员主要负责规划做什么、按什么思路做,智能模型则负责规划具体怎么做。如果作战任务太过抽象笼统,应先由指挥员对问题进行分解细化,再由智能模型对细化后的问题进行求解。在指挥员引导下,分阶段、分领域逐步解决问题,最终达成作战目标,形成“人引机随”的指挥模式。这就像写一篇论文,先列出提纲,再进行写作,列提纲由人负责,具体写作由机器完成,如果感觉一级纲目不够具体,可由人细化为二级乃至三级纲目。
基于“自主负责”,构建“人断机算”的指挥模式
现代先进的舰载防空反导系统,通常有手动、半自动、标准自动、特殊自动四种作战模式,一旦启用特殊自动模式,系统发射导弹将不再需要人的授权干预。但该模式无论在实战还是在训练中都很少启用。究其原因,人作为责任主体要对自己的所有行为负责,而机器行为背后却是责任主体的缺失,当要为重大失误追责时,机器是无法负责的。所以,生死攸关的大事决不能让一个没有自主责任的机器决定。况且,现代人工智能是一个“黑箱”,它展现的智能行为具有不可解释性,对与错的原因无从知晓,让人无法轻易将重大决定权完全交给机器。
由于人工智能缺乏“自主责任”,会使它眼中的问题全是“驯化问题”,也就是该类问题产生的后果与回答者没有关系,问题解决的成功也罢、失败也罢,对回答者来说无所谓。与之相应的是“野生问题”,也就是该类问题产生的后果与回答者息息相关,回答者必须置身其中。所以,在缺失自我的人工智能眼中没有“野生问题”,都是“驯化问题”,它对任何问题都置身事外。因此,智能化作战指挥中,机器不能代替指挥员作出判断和决策。它可以为指挥员提供关键知识、识别战场目标、整编战场情报、分析战场情况、预测战场态势,甚至可以形成作战方案、制订作战计划、拟制作战命令,但它给出的方案计划命令,只能作为草稿和参考,至于采不采用、在多大程度上采用,还得指挥员说了算。简单来说,就是双方共同作出决策,人工智能负责预测,人负责判断,形成“人断机算”的指挥模式。