关于军事人工智能的迷思
按:近日OpenAI发布了GPT 4.0 Turbo版本,在资本和产业范围引发了新一轮关注和讨论。早些时候我读完赵汀阳所著《人工智能的神话或悲歌》,还有今年他发表的两篇文章《替人工智能着想》《GPT推进哲学问题了吗》,结合我一直关注的军事领域和军工产业进行一些反思,观点比较凌乱,谨作参考和备忘。
1 存在论问题
人工智能技术的发展如果突破了某个奇点而产生了自我意志,从而引发与人类存在的一系列矛盾,这是存在论层面的问题。人工智能技术最有可能在军事作战领域率先触及到存在论层面的问题。
技术在军事中的应用本身就是突出对抗性的(前面论述过),这也是和技术在其他领域应用最大的区别。人的主体性觉醒是现代化概念的最大成就,即个人拥有自身的主导权和立法权,技术的发展本质上也是人的主体性的体现。一旦有可能对人的主体性造成外部威胁,人工智能技术在其他领域内的应用就会面临阻力特别是价值束缚。
而军事领域的应用是另一种情景,对抗性的特点如此重要,技术应用的目的就是直接或间接破坏对手的物理存在,任何先进的技术如果能够实现更有效的作战,技术发展面临的阻力相对是较小的。
但就目前的技术而言,军事人工智能仍然处于知识论的范畴,主要是在信息处理量级、处理效率等方面具有“技术特长”,军事指控体系和战争伦理也远未做好接纳存在论级别人工智能的准备。
2 军事人工智能的角色
如果我们思考得更深一层,站在未来的时间去思考军事人工智能的角色问题,可能更方便我们去理解它的真实应用状态——军事AI究竟是一个指挥者Commander还是一个执行者Executer?
指挥者意味着在实际交战行为中,由军事AI自主决定集体行动的方案,这个方案包括执行作战任务需要的军事资源如何调配(包括作战人员)。执行者意味着作战单元的自主智能行为,例如实现单武器平台的单体智能自主作战任务管理。换个说法,我们是要在技术层面讨论军事AI,还是在神的层面讨论它?我们需要这个AI去劳作还是思考?(需要强调的是,计算不是思考)
也就是说,我们讨论的军事AI应用形态是单体局部智能还是群体集中智能。实际上在能想象的场景中两者应当是相互交叉的,单体智能离不开战场信息的处理、决策和分发网络,群体智能的实现也需要大量单体智能装备或作战单元的敏捷部署、快速交战和高效打击。
尽管目前军事伦理和指控体系仍未出现纯粹的独立AI指挥者,但我们提到军事人工智能时一定要往这个方面分析,至少是要考量到这个层面。
3 再看俄乌冲突
俄乌冲突是研究军事AI应用发展的最佳案例。前期交战中,非对称的军事力量对比让俄罗斯几乎摧毁了乌军指挥体系的完整性和连续性,战场被分割,乌军的作战单元也被分割得更多更零碎。事实上,单看任一作战单元都基本失去了完整的军事情报和信息决策支持,这便让军事AI扮演“指挥者”角色成为可能。
同时,Palantir等西方民营技术公司的深度参与,让地理空间情报、遥感信息、通信信息、电磁信号信息等战场综合信息得以在作战人力之外被高度整合、处理、分发,并由作战单元执行程序输出的作战规划,事实上相当于再造了一个功能完整且计算规划能力强大的参谋部。
十九世纪德国实行参谋制度,成为军事现代化的标志之一,随后衍生了一系列与之相适应的军事组织体系理论和作战方法。而人类做好准备面对一个未来可能涌现自我意志、具备怀疑否定能力的超智能指挥官吗?以俄乌冲突中应用的初级人工智能来看,人类过往的传统军事组织和作战方法已经难以招架,特别是在经济性、效费比上被远远拉开,也就是说军事资源的使用效率在作战信息高度整合处理的支撑下被大幅提升。
而我们未来可能要面对的超智能体,是一个物质上的更高存在,那将是一个新的游戏规则。
4 AI技术将在军事领域率先突破
这一部分主要论证一个观点:AI技术何以可能在军事领域率先突破并且深度应用。简单说明一下。
4.1 AI不需要人性
技术在军事领域的应用首要特点是对抗性,这一点可以和AI技术的原理联系起来分析。人同时具备人性和理性思维,而根据图灵机衍生的AI理论,AI系统只需要理性思维,即在有限步骤内完成确定性的任务。尽管我们一厢情愿地认为或者希望AI具有人性。
那么什么是人性?对抗性的技术应用是否需要人性?
如果我们避而不谈语言学层面的哲学,人性中不属于理性思维的部分就是创造性和变通能力。所谓的创造性并不是像当前AI经过关联度分析去“创作”绘画和音乐(这是一种关联组合,不是真正的创造),而是重新建立规则和方法,或者针对新的规则和方法提出相关疑问。以目前的技术水平而言,一个程序化的、具有必然性的AI系统无法拥有整体性、无限性、不确定性的任何可能,也无法进行真正的思考。而以目前人类对自我的认知程度,创造出一个具有上述思考能力的AI系统可能还处于上帝的能力范围。
但可以发现,AI目前这种不完美或者缺陷和军事作战高度契合,一个有限的、必然的、程序化的指挥官(或执行者),没有人性的质疑、恐惧、怜悯等情绪,始终以任务目标作为唯一的价值取向。虽然这并不是完整的AI形态,姑且用当前对AI技术的定义来限定讨论范围吧。
4.2 现代性的视角
还有一个角度可以论证AI技术在军事作战领域的率先突破具有可能性——现代性概念。在现代性的语境下,人权是具有神性的,即:人是不可杀的,这种主体性的神性衍生了大量进步的观念,虽然同时也有超越自然的危险性。也就是说,尽管人类具有充足的发展AI技术的底层动力,但仍然有伦理、价值观、政治等因素在制约AI的应用发展。
但在军事作战语境下,人权的神性被弱化了——人是可以杀的,只是要考量人应该可以怎么被杀。同样的,伦理、价值观、政治等因素的制约也被弱化了。
另一方面,现代性引发了一个现代社会的问题:个人理性无法导致集体理性。所以诸多的技术问题时常在有利于一部分人同时损害了集体利益(反之亦成立)等矛盾中发展缓慢。但在军事作战语境中,这个矛盾也是被弱化的。战争是集体意志的对抗,个人理性是失声的,技术应用只需要服务于集体意志的总体目标。
上述论证其实是在说明,在军事作战场景中,人们事实上承认了人的神性是不完美的,具有局限性,从而让技术来接管神性中的一部分天然权力得以可能。而这正是AI未来发展的可能形态(或者潜在危险)。
4.3 最有可能颠覆战争形态的技术
二战以来,大量先进技术、装备、武器系统被应用在战争中,但从没有一个技术像AI一样更有可能颠覆当前的战争形态。
首先具体分析应用环节。之前我论述过军事信息化的大致架构,分别是探测获取、存储传输、处理和应用。AI系统在给定的程序、规则和方法下界定了意识边界(也就是信息处理边界),这就必然导致高效的运算和准确的决策。相比而言,人性是在不封闭的意识空间内选用灵活标准,同时人类的数据计算能力远远落后于机械计算。
如果在哲学层面讨论,能源和材料的技术进步只是当前存在的技术完善,并不必然导致“存在”升级。而信息层面的技术进步在另一个层面——当信息承载了/或被赋予了价值和意义时,就意味着意志的映射,而自我意识和意识空间则直指元哲学(语言的系统反思性),直接触及到了存在论的本质问题。具体来讲就是,特别是当作战各方在探测获取、存储传输等环节技术发展水平相近时,AI这种技术涉及到信息的大规模处理(价值生产)和高效应用(价值二阶生产),具有推动存在向更高级形式进化的可能,从而具有“行规定”的深层可能。
可以部分类比核弹这种无差别、大规模、不可对抗的杀伤技术。接下来探讨一下,未来AI技术以及超智能体AI系统在军事作战中可能是什么样的形态。
5 对军事AI的推演和构想
5.1 军事组织和作战形态
首先想象一个智能体军事AI系统主导的作战指控中心,简称智能体。假设这个智能体极端先进,但并未进化出自我意识,那本质上就是高度复杂并且拥有超强运算能力的系统工具,只是这个工具能在非常高的程度上取代本应由人来负责的信息主被动探测、传输、处理、分发等职能。
人类军事组织形态随着技术装备的发展经历了几次大的转变,本质上是指控效率的不断提升。但人的思维和能力有其局限性。和AI系统相比,当前以参谋部为主的军事组织形态和层级设置无法完美处理庞大的战场信息。因此未来作战体系的最终形态,或者说适合智能体指控中心的作战体系应当是“一个中心-N个作战单元”,指挥层级大幅减少,指挥权收归至唯一的指控中心,也就是在事实上否定了实际作战单元内设置军官的必要性。
如果想象空间更大一些,由无人系统装备全盘取代人的具体活动,包括侦察、交战和后勤,以此来弥补实际作战单元中人的局限性,那么实际上参与战争的人类就只剩指控中心的高级军官、维护智能体的军事科学家和设计无人系统的工程科学家(生产任务假设已能由AI无人技术实现)。
交战双方如果都处于同一技术水平,由智能体博弈智能体,由无人装备对抗无人装备,那么战争就成了一场简单的经济账本:生产制造无人系统的成本和效率。而在AI技术高度发达且全方位影响的社会中,这一项比拼也成了高度程序化的事情并且具有高度的确定性,战争就变成一场假设或者一场数字推演(尽管发动战争的人类并不会如此理性)。
最后试想一下,如果人不用参与具体的军事实践活动,也不用对他人负责(AI高度发达引发的人与人关系的深度异化),那将必然引发一场集体的军事文明退化运动。而同时,越是复杂的系统越是脆弱,一旦上述智能体指控体系出现故障甚至失效,必须由人来接管参谋和决策职能时,这种退化运动的负面影响将直接体现。
上述讨论我们仍然在“程序”技术层面讨论军事AI,还未上升到“思想”层面。如果上述智能体拥有了自主性和反思性,那么它将会产生什么样的价值观,又会给战争这场游戏带来什么样的规则呢?军事作战语境下价值观相对是简单和清晰的,甚至拥有单一价值目标,而价值项目越少,禁忌和弱点就越少。当超智能体军事AI只有一个价值标准的价值观时,它必然可以不择手段也难以被攻破,人类输入的各种自带的价值观有可能会被忽略或者清除(自主性和反思性的必然后果)。
5.2 对人的影响
在发散思维假想遥远未来的情景后,可以现实一些讨论当前可能出现的情况。AI这种直达意识空间层面的技术,尽管尚未发展成超智能体,但对军事作战领域的影响还是非常重要的——能让使用它的人更有可能产生从未有过的反思和创造性,进而创造新的规则并在博弈论层面占据战略优势。这种反思和创造性,是在人类已有的哲学反思、技术反思和方法论基础上的更进一步。
虽然本质上这类AI还未脱离“技术”的定义范围,但在有可能引发的后果中超越了普通技术的作用而直接影响到博弈规则。或者说,它是对人类思维中“计算”部分的解放,进而推动了思维中“自觉意识反思”部分的发展,让人更加专注地去思考新型战争的模式和形态、新的原理和博弈规则。而这种人的发展和进化必然反过来影响它的宿主,推动进化了的人的意志遵循自我意志的自我中心主义和思维单边主义,选择排斥或支配他人的意识,同时力争创造信息不对称的博弈优势。这种后果也和战争本身的特点高度契合。
或许我们即将迎来《战争论》的理论创新。
5.3 机器层面的具体讨论
我们还可以讨论机器技术层面的具体问题。当前AI技术在军事领域内的应用还处于相当初级的阶段,仍然可以用机器来定义AI系统。而机器只会遵循规则去运作,那么我们可以得出一个结论——初级阶段军事AI的发展必然需要对当前作战规则的高度认知。
未来一段时期智能武器或智能作战系统的成功,必然是在高度认知作战规则的基础上进行编辑和选定,进而为AI系统这个机器构建规则体系。这是一个显然结论,但从产业层面看比较难实现,我国军工产业和最终应用场景在一定程度上是脱钩的,如何在打造一个军事AI系统前全面深入地把握交战规则、全时间线地了解交战状态,这是目前产业需要解决的问题。