警惕“AI幻觉”引发风险
■胡建新
所谓“AI(即人工智能,以下简称AI)幻觉”,是指对AI进行提问时,输出的内容看似合理,但实则经常出现“与输入问题意图不一致,与世界知识不一致,与现实或已知数据不符合或无法验证”等问题。而且,研究人员发现,AI除了对复杂规则理解不到位之外,有时还会不懂装懂,胡编乱造。究其原因,主要是AI输出的内容大多是互联网上内容的归纳、总结和推理,但互联网上的内容往往良莠不齐、真假难辨。
从技术角度看,“AI幻觉”的本质是算法在概率空间中的强制收敛,其主要源于三个维度:一是数据熵增陷阱。AI训练数据可能包含“噪声”污染与知识断层,AI模型在学习过程中产生偏差,迫使其通过虚构完成逻辑闭环。二是语义坍缩效应。AI模型将多维语义压缩为线性输出时,易产生信息畸变或错误应用老旧模式,导致其在新场景中得出不合理的结论。三是认知拟态悖论。AI对人类思维过程的表层模仿,缺乏深层认知架构支撑,在处理复杂文本和海量信息时,因无法全面准确理解而出错。
在未来信息化智能化战争中,AI必将得到越来越广泛的应用,“AI幻觉”也可能越来越多地出现在战场情境之中。明者远见于未萌,智者避危于无形。要切实提前谋划、科学应对,在借助AI进行战场侦察、情报获取、决策辅助、方案选择等过程中,时刻警惕和防范“AI幻觉”导致的信息谬误以及由此带来的决策失误。
要做到运用而不迷信。AI作为一种先进的无人操作工具,其智能性、快捷性等优势突出,理所应当成为人们提升工作效率的有益工具。但应该看到,AI不是万能的,它在处理复杂问题时可能出现各种错误,所以不能迷信它,应该在深入了解它、熟练驾驭它的基础上,对其输出的信息、得出的判断、形成的方案保持应有警惕。在获取重要信息时,应通过多种信息渠道进行验证,检查其来源是否可靠、数据是否准确、结论是否科学,确保其信息、判断和方案等内容准确无误。同时,对AI生成的内容始终保持必要的怀疑态度和批判思维,防止掉入“AI幻觉”陷阱。
要做到依托而不依赖。无论AI功能如何强大,它毕竟只是基于人类需要由人类研制的“物”,而决定战争胜负的因素始终是人不是物,我们可以有效依托它却不能过度依赖它。过度依赖的结果,不仅会让“AI幻觉”产生直接危害,而且会使人的思维日趋迟钝和懒惰。为此,需要深刻了解AI的功能和功效,明白其优长和缺陷,懂得其技术边界和能力范围。要不断强化人的自主思考和创新思维能力,凡事要开动脑筋,勤于思考各种复杂问题,对攸关战争胜负的重要信息、关键决策,更要进行深入而缜密的观察、分析、判断、比较和甄别,不能把辅助手段当成替代工具,不能将AI技术看作万能武器,不能让机器智能削弱人脑功能。
要做到扬其长避其短。像任何事物一样,AI既有其特定长处,也有其明显短处。在军事领域其长处在于擅长快速处理包括卫星图像、通信信息等在内的海量数据并进行复杂运算,可以依托它进行情报分析与预警;擅长武器系统的精确制导和目标识别,可以借助它提高火力打击的命中率和精准度;擅长后勤管理和资源配置,可以通过它进行物资消耗预测、战场资源调配等。其短处主要是难以应对复杂情况和突发事件、易受敌网络攻击和数据篡改、危及战争伦理和人类道德等,对此需要极力避免。只有扬长避短才能兴利除弊,使其真正为我所用。否则,“AI幻觉”等弊端可能随时出现并引发恶果。
在AI技术尚不成熟的情况下,军事领域面临的AI风险挑战无疑高于其他领域,无论平时练兵还是战时打仗,都应该时刻警惕和防范“AI幻觉”等乱象导致的信息谬误、决策失误和行动失败,避免和消除由此带来的负面影响乃至严重后果。只有这样,才能在AI应用和信息化智能化战争中掌握主动。