生成式AI在军事领域具有一定的应用潜力,但目前仍存在诸多限制,使其难以完全成为军事指挥员和操作人员的智能“助手”或“顾问”,主要原因如下:
1、可靠性不足
生成式AI的知识来源于训练数据集,当面对超出训练范围的问题时,可能会产生错误或虚假信息,这种现象被称为“幻觉”,有时还会出现欺骗性信息,称为“机器欺骗”。在军事指挥中,错误的信息可能导致致命的决策失误。例如,生成式AI可能有意或无意不能准确区分战场上的真假目标,从而误导指挥员。
2、缺乏价值判断能力
生成式AI只能做出最有利于实现军事目标的“纯理性”判断,但无法进行价值判断。例如,它难以判断军事行动是否符合比例原则或是否会造成不必要的平民伤亡。这种缺陷使其在复杂多变的战场环境中难以完全替代人类指挥员的决策。
3、对数据的依赖性
生成式AI需要海量数据进行训练,而军事数据往往高度机密且难以获取。此外,战场环境复杂多变,数据的实时性和准确性难以保证,这会影响AI的性能。例如,敌方的“诈术”可能导致AI对战场态势的误判。
4、难以遵守战争法原则
生成式AI可能对战争法的基本原则造成冲击。例如,它难以区分军事目标和非军事目标,也无法完全遵守避免不必要痛苦的原则。这使得其在军事应用中需要谨慎对待,以避免违反国际法和人道主义原则。
5、技术成熟度有限
尽管生成式AI在某些领域取得了突破,但其在军事领域的应用仍处于初级阶段。例如,美军在测试中发现,生成式AI在处理秘密级作战信息时仍存在可靠性问题。因此,目前生成式AI只能作为辅助工具,而非完全可靠的“助手”。
6、对军事指挥体系的冲击
生成式AI的快速决策能力可能与传统的军事指挥体系不兼容。例如,它可能在短时间内生成大量建议,但指挥员需要时间进行评估和决策。此外,过度依赖AI可能导致指挥员失去对战场态势的直观判断能力。
7、安全和保密问题
军事信息的高度敏感性要求生成式AI具备极高的安全性和保密性。然而,目前的技术难以完全防止数据泄露或被敌方利用。例如,美军曾暂停在政府电脑上使用ChatGPT等生成式AI工具,以防止数据泄露。
生成式AI在军事领域具有一定的辅助作用,例如优化行动方案、缩短决策时间等,但其目前的技术水平和可靠性仍不足以完全替代人类指挥员和操作人员。未来,生成式AI可能会作为“外脑”或“参谋官”辅助决策,但其应用仍需谨慎,以确保军事行动的合法性、安全性和有效性。