任何技术都是双刃剑,人工智能技术也不例外。人工智能技术在军事上可以帮助隐真示假,造势用势,在民用上可以提高产品的实用性。然而近年来,大量人工智能合成信息充斥互联网空间和人们日常生活中,如“骚扰电话”“好评灌水”、合成声音、人工智能生成真人视频或图像等。鉴于此,不少专家认为,人工智能的快速发展使得在现实和网络空间中,人与人的交流正在被智能化、自动化的交互影响。那么,该如何认识人工智能造假现象,进而改变这一现象?这是当前需要深入思考的一个重要问题。
本质上说,机器不会造假。机器的工作原理是将输入变为输出,只计多少,不问是非,所以,人工智能造假本质上是人在造假。一个成熟的算法配上丰富的数据资源,就能生成逼真的照片、视频及文本材料,技术上不难实现,其目的是使人产生感觉上的错乱,进而虚拟真实。
然而,从根本上讲,就算人工智能能够对人类行为模仿造假,但无法模仿构成人类行为背后的各种作用关系。换句话说,如果抓住“事物之间的联系”这个本质,则大多数人工智能造假都可能被识破。
人工智能造假可以通过机器的深度态势感知或上下文感知技术进行过滤、筛选和排除,如一个正常人不会轻易做不正常的事,一个正常机构也不会肆无忌惮地违法违规一样,可以通过观察对比一个人一个机构的以往表现,判别是否作假。然而,一般性地识别不难,难的是特殊情形下的细微区分。所以,面对人工智能造假,除常规性的防伪技术手段之外,还需要开发新的深度态势感知技术和工具,尽可能在造假前期进行识别干预,从态、势、感、知等几个阶段展开深入分析和应对。此外还可以研究相应的管理应急机制方法和手段,及早制定相关法律法规,做好知识普及,促进反人工智能造假技术相关应用广泛落地,从而形成人-机-环境系统联动的反人工智能造假生态链。
俗话说,假的真不了,真的假不了,魔高一尺,道高一丈。毕竟,再好的人工智能都是人造的,而人类本身就是对付不完备性最好的“猎人”。