AI战争表面上看似是人机环境系统的综合对抗,因为战争中涉及高度智能化的武器装备(如无人机/车/艇、智能导弹/炮弹、智能辅助决策系统等)与复杂的战场环境(包括地理、气象、人文、社会、网络、电磁环境等)相互交织,这些系统和环境因素在作战中发挥着重要作用。然而,实际上AI战争的核心仍然是围绕人的战争。人类才是战争的决策主体,从战略目标的制定到战术行动的指挥,都离不开人类的智慧和判断。同时,人类价值观和伦理道德的约束也在战争中起着关键作用,决定了AI武器的使用边界和战争的合法性。
一、战争决策层面
1、战略制定
战争的发动、目标的确定以及战略方针的制定都是由人来完成的。即使在AI高度发达的未来,这些核心决策环节也不会完全交给AI。在一场国际冲突中,国家领导人和军事战略家会综合考虑政治、经济、文化、军事等多方面因素来决定是否发动战争以及战争的规模和方向。AI可以提供情报分析、模拟战争场景等辅助决策的信息,但最终的决策权仍然掌握在人类手中。就像在冷战时期,美苏双方的核战略决策是基于对国家安全、意识形态竞争等诸多人类社会因素的考量,而不是单纯依靠当时的技术手段(包括早期的计算机辅助决策系统)来决定是否发动核战争。
2、伦理道德考量
人类社会有着复杂的伦理道德体系,在战争决策中,人类需要考虑战争是否符合道德规范。AI目前无法完全理解人类的伦理道德观念。一般而言,在决定是否对一个城市发动攻击时,人类决策者需要考虑平民的伤亡、文化遗产的保护等诸多道德因素。而AI只是按照预设的程序和算法来执行任务,它无法像人类一样在道德层面进行权衡。如果完全由AI来决定战争的发动和攻击目标,可能会出现违反人类基本道德准则的情况,如无差别攻击平民区域等。AI武器系统可能因决策过程的不透明或误判而挑战传统的人道主义法,如以色列的“福音”和“薰衣草”AI系统,可能会在判断目标时出现误判,攻击无辜平民或误伤友军,从而引发伦理和法律争议。
二、战争实施层面
1、AI系统的开发和维护
AI武器系统和相关技术是由人类开发和维护的。从硬件制造到软件编程,每一个环节都离不开人类的智慧和劳动。例如,制造高精度的AI制导导弹,需要材料科学家研发合适的弹体材料,电子工程师设计复杂的制导芯片,软件开发者编写精确的控制算法。而且在使用过程中,也需要人类进行定期的维护和升级。如果软件出现漏洞或者硬件发生故障,人类技术人员需要及时进行修复。这就如同一艘航空母舰上的各种先进电子系统,虽然在作战时发挥着巨大作用,但其正常运行依赖于大量人类技术人员的精心维护。
2、作战人员的使用和控制
人类士兵在AI战争中仍然发挥着关键作用。一方面,人类士兵可以对AI武器系统进行现场操作和监督。在战场上,无人机虽然可以自主飞行和执行侦察任务,但仍然需要地面操作人员对其进行任务规划和监控。如果无人机出现异常情况,如被敌方电子干扰,人类操作人员需要及时调整策略。另一方面,人类士兵在一些复杂环境和特殊任务中是不可替代的。比如在城市巷战中,人类士兵的灵活性、判断力和对复杂环境的适应能力是AI武器系统所不具备的。人类士兵可以根据战场情况灵活调整战术,与当地居民进行沟通协调等。AI决策支持系统可以为人类提供情报分析、模拟战争场景等辅助决策信息,但最终的决策权仍然掌握在人类手中。比如以色列军队在加沙地区的军事行动中,虽然使用了AI技术来区分武装人员与平民,但是否攻击目标的最终决定仍由人类做出。
三、战争后果层面
1、对人类社会的影响
战争的后果最终是由人类社会来承担的。无论是人员伤亡、财产损失还是社会结构的破坏,都是对人类自身的巨大伤害。AI战争也不例外。在一场使用AI武器的局部冲突中,虽然AI武器可以精确打击目标,但仍然可能会有误伤的情况发生。而且战争结束后,人类社会需要进行重建,包括基础设施的修复、经济的恢复以及社会秩序的重建等。这些重建工作都需要人类的共同努力,AI只能在一定程度上提供辅助,如通过数据分析帮助规划重建方案等。无论是人员伤亡、财产损失还是社会结构的破坏,都是对人类自身的巨大伤害。例如在2024年以哈冲突中,大量巴勒斯坦平民丧生,包括众多儿童,这一悲剧凸显了战争对人类社会的巨大冲击。
2、人类价值观的重塑
战争经历会促使人类重新审视自己的价值观。在AI战争之后,人类可能会更加深刻地认识到和平的重要性,以及对战争中使用AI技术的伦理道德界限等问题。这种价值观的反思和重塑是人类社会发展的内在动力,而AI本身无法进行价值观的反思和改变。它只是按照人类设定的规则和目标去执行任务,不会像人类一样在经历战争后产生情感和价值观上的变化。人类需要对AI武器的使用承担道德责任,确保其符合国际人道法原则。在巴以冲突中,以色列军队使用AI技术导致平民伤亡,引发了国际上关于AI军事应用的伦理反思。
上面这些例子都表明,尽管AI在战争中发挥着越来越重要的作用,但战争的本质仍然是人类的战争,人类始终是战争的主导者和责任承担者。不过,我们也要看到AI在战争中的作用越来越重要,它改变了战争的形式和作战方式。
在AI战争中,“负责任人工智能”(Responsible artificial intelligence,RAI)或许就是一句华丽的口号,尽管人工智能系统能够执行复杂的任务并自主做出决策,但AI本身是无法承担道德和法律责任的。AI的行为是由其开发者、使用者以及背后的决策者所设计和控制的,它们只是按照预设的程序和算法运行,无法像人类一样具备道德判断力和责任感。当AI系统在战争环境中造成意外伤害或违反人道主义法时,责任的追溯最终会指向人类,包括那些开发、部署和指挥AI系统的人。因此,AI战争中AI无法付责任,责任始终归于人类。我们提倡“以人为本”的人机环境系统智能就是要防止人类沉溺于“负责任人工智能”(RAI)的错觉与幻觉之中。