AGI带来的战争思考
■荣 明 胡晓峰
编者按
科技与战争总是交织在一起,科技创新在不断改变战争面貌的同时,并没有改变战争的暴力性性质和强迫性目的。近年来,随着人工智能技术的快速发展应用,人们关于人工智能对战争影响的争论从未停止。与人工智能(AI)相比,通用人工智能(AGI)的智能程度更高,被认为是与人类智能相当的智能形式。AGI的出现将如何影响战争,会不会改变战争的暴力性和强迫性?本文将带着一系列思考与大家共同探讨这个问题。
AGI只是赋能技术吗
很多人认为,虽然大模型以及生成式人工智能展现出未来AGI强大的军事应用潜力,但它们毕竟只是一种赋能技术,即只能对武器装备赋能优化,使现有装备更加智能,提高作战效率,难以带来真正的军事革命。就如同“网络战武器”在刚出现时也曾被许多国家寄予厚望,但现在看来确实有点夸大。
AGI的颠覆性其实完全不同。它以远超人类的反应速度和知识广度给战场带来巨大改变。更为重要的是,它通过促进科技的快速进步,涌现出巨大的颠覆性结果。未来战场上,自主武器将被AGI赋予高级智能,性能得到普遍增强,并且凭借其速度和集群优势变得“攻强守难”。届时,一些科学家曾预言的高智能自主武器将成为现实,而AGI在其中起到了关键性作用。当前,人工智能的军事化应用领域包括自主武器、情报分析、智能决策、智能训练、智能保障等,这些应用很难用“赋能”来简单概括。而且,AGI发展速度快、迭代周期短,处于不断进化的状态。未来作战,需要将AGI作为优先事项,格外关注其带来的可能改变。
AGI会让战争消失吗
历史学家杰弗里·布莱尼认为“战争总是因为对各自力量或意愿错误的判断而发生”,而随着AGI在军事领域的应用,误判将变得越来越少。因此,有学者推测,战争将随之减少或消失。其实,依托AGI确实可以减少大量误判,但即便如此,也不可能消除所有不确定性,因为战争的特征之一就是不确定性。何况并非所有战争都因误判而产生,而且,AGI固有的不可预测性、不可解释性,以及人们对AGI使用经验的缺乏,都会带来新的不确定性,使人们陷入更加浓重的“人工智能迷雾”之中。
AGI算法还存在理性难题。有学者认为,AGI对重大情报的挖掘和精确预测,会带来双重影响。AGI在实际操作层面,确实比人类犯错少,能够提高情报准确性,有利于减少误判;但有时也可能会使人类盲目自信,刺激其铤而走险。AGI带来的进攻优势,导致最佳防御战略就是“先发制人”,打破了进攻与防御的平衡,引发了新型安全困境,反而增加了战争爆发的风险。
AGI具有通用性强的特点,很容易与武器装备结合。与核、生化等技术不同,它使用门槛低,特别易于扩散。由于各个国家间存在技术差距,导致人们很可能将不成熟的AGI武器运用于战场,带来巨大风险。比如,无人机在最新局部战争实践中的应用,就刺激很多中小国家开始大量采购无人机。AGI带来的低成本装备和技术,极有可能刺激新型军备竞赛的发生。
AGI会是终极威慑吗
威慑是维持某种能力以恐吓对手使其不采取超越自身利益的行动。当威慑强大到无法使用时就是终极威慑,比如确保相互摧毁的核威慑。但最终决定结果的却是“人性”,这是战争永远不会缺失的关键。
如果没有了“人性”的各种权衡,AGI是否会成为令人生畏的威慑?AGI速度很快但缺乏同理心,执行坚决,博弈空间被极度压缩。AGI是未来战场的关键性因素,但因缺乏实践经验很难进行准确评估,很容易高估对手能力。此外,在自主武器控制方面,是人在环内、全程监督,还是人在环外、完全放手,这无疑需要深思。智能化武器的开火控制权能交给AGI吗?如果不能,威慑效果将大打折扣;如果能,人类的生死就真的可以交由与其无关的机器来决定?康奈尔大学的研究中,兵棋推演大模型经常“突然使用核攻击”升级战争,即使其处于中立状态。
或许未来某一天,AGI会在能力上超过人类,我们是不是就无法对其进行监管控制了?提出深度学习概念的杰弗里·辛顿说,从没见过更高智能水平的东西被更低智能水平的东西控制的案例。有研究团队认为,人类可能无法监督超级人工智能。未来面对强大的AGI,我们真的能够控制住它们吗?这是一个值得人们深思的问题。
AGI会改变战争本质吗
随着AGI的大量运用,充满暴力和血腥的战场会不会消失?有人说,人工智能战争远超人类能力范围,反而会将人类推到战场之外。当人工智能将战争变成全部由自主机器人对抗时,那它还是“暴力和血腥的战争”吗?当能力不对等的对手对抗时,弱者可能根本就没有行动的机会,战争是不是通过兵棋推演就可以在战前被结束?AGI会因此改变战争的本质吗?“无人”的“战争”还是战争吗?
《人类简史》作者尤瓦尔·赫拉利说,人类的一切行为都通过语言作为中介并影响我们的历史。大语言模型是一种典型的AGI,它与其他发明最大的不同在于可以创造全新的想法和文化,“会讲故事的人工智能将改变人类历史的进程”。当AGI触及对语言的掌控时,人类构建的整个文明体系就可能被颠覆,在这个过程中甚至不需要其产生意识。如同柏拉图的“洞穴寓言”,人类会不会将AGI当成新的“神明”加以膜拜?
AGI通过人类语言和人类建立亲密关系,并改变人类的看法,使人类难以区分和辨别,从而存在战争意志被别有用心之人控制的危险。赫拉利说,计算机不需要派出杀手机器人,如果真的需要,它会让人类自己扣动扳机。AGI精准制造和打磨态势信息,通过深度伪造控制战场认知,既可用无人机对战场态势进行伪造,也可以在战前进行舆论造势,在近几场局部战争中已初见端倪。战争成本会因此大幅度下降,从而导致新的战争形态产生,小国弱国还会有机会吗?战争意志是否可以不用流血就可改变,“武力”是否不再是战争定义的必要条件?
战争形态或被改变,但本质仍在。无论战争是否“血腥”,其仍会强迫敌人服从自己的意志并带有大量“附带损伤”,只不过对抗方式可能会完全不同。战争本质在于内心深处的“人性”,而“人性”是由文化、历史、行为和价值观等决定的,是很难用某种人工智能技术完全复刻出来的,所以不能将伦理、政治和决策问题全部外包给人工智能,更不能期望人工智能会自动产生“人性”。人工智能技术可能会因激情冲动而被滥用,所以必须在人类掌控之中。既然人工智能是人类训练的,它就不会永远都没有偏见,所以它们就不能完全脱离人类的监督。在未来,人工智能可以成为有创意的工具或伙伴,增强“战术想象力”,但必须“对齐”人类的价值观。这些问题需要在实践中不断地去思考和理解。
AGI会颠覆战争理论吗
大多数的学科知识是用自然语言表述的。集人类著述之大成的大语言模型,可以将很难相容的语言著述与科学研究联系起来。比如,有人将古典名著甚至哲学、历史学、政治学、经济学等输入大语言模型,进行分析重构。发现它既可以对所有学者观点进行全面分析,也可以提出它“自己的见解”,而且不失创见。因此有人说,是否也可以通过AGI对战争理论重新加以分析解释,激发人类创新,以驱使战争理论及体系发生重大演化和重构?也许从理论上确实会有一定的改进和发展,但战争科学不仅具有理论性,而且还具有实践性,但实践性、现实性却是AGI根本做不到的。经典战争理论真的可以重新解释吗?若是,则理论的意义何在?
总之,AGI对战争概念的颠覆将远超“机械化”“信息化”。对于AGI的到来,人们既要大胆拥抱,又要心存谨慎。理解概念,不至于无知;深入研究,不至于落伍;强化监管,不至于失察。如何学会与AGI合作,防范对手AGI技术突袭,是我们未来首先需要关注的事情。
编 后
以开阔思维前瞻未来
■野钞洋
未来学家罗伊·阿玛拉有一个著名论断,人们总是倾向于高估一项技术带来的短期效益,却又低估了它的长期影响,后被称作“阿玛拉定律”。这一定律,强调了科技发展的非线性特征,即科技的实际影响往往需要在更长的时间尺度上才能完全显现,反映了科技发展的脉动与趋势,体现人类对科技的接纳与憧憬。
当前,人工智能由弱人工智能到强人工智能、由专用人工智能到通用人工智能的发展过程中,每次人们认为已走完全程的90%时,回首一看,可能才刚不到全程的10%。科技革命对军事革命驱动作用愈发凸显,尤其是以人工智能技术为代表的高新技术多方位向军事领域渗透,使得战争制胜机理、制胜要素、制胜方式正在发生深刻演变。
在可以预见的未来,AGI等智能化技术不会停止迭代的步伐,而智能化技术交叉演化以及在军事领域的赋能应用等都将趋于多元化,或许会跳脱出人类对现有战争形态认知的边界。科技的发展已势不可挡、也无人能挡,谁能以敏锐的眼光、清醒的头脑,看清科技的趋势和未来、看到科技的潜质和威力,洞穿“战争迷雾”,谁就更有可能抢占制胜先机。
这提醒着人们,对于未来战争形态发展的探索应持更加开阔的视角和思维,才可能更加接近被低估的现实。AGI向何处去?智能化战争往何处去?这考验着人类的智慧。