兵棋推演和人工智能的融合

4f1aa8ef6ad659c8b9ef1e0d749d5f43.jpeg

来源:兵推天下

2023年11月初,世界领导人齐聚英国布莱切利庄园,参加首届全球人工智能安全峰会。布莱切利庄园一度是英国的绝密基地,其密码破解技术为英国在二战中取得胜利提供了帮助。此次峰会旨在了解前沿AI(能够执行一系列任务的高性能通用模型)带来的风险,特别是被“恶意行为体”利用时的风险,并激励国际社会采取行动应对这些风险。

峰会议程中未提及国家行为体将人工智能应用于国家安全领域的内容,这可能很快改变缘政治和战争。杀手机器人未必会带来最大风险。而人工智能系统可通过筛查数据,确定竞争优势,生成最新的对手策略,并评战争胜利或失败的条件。

这可以通过人工智能和兵棋的融合实现。北约将兵棋定义为“冲突或竞争在可放心失败地环境中的表征,在该环境中人们制定决策并就决策结果作出反应。”兵棋推演,数世纪以来一直被认为是一种技艺,直到最近才成为一门科学和学科。

c19c76cacb93b14402a23a9b1aacd54a.jpeg

人工智能与兵棋的融合中,可能会以微妙方式对领导层有关战争与和平的决策产生影响,并可能导致生存风险。目前,以人类为中心的兵棋推演融合人工智能算法,将面临显著的“黑匣子”挑战,即某些结果背后的推理并不清晰。由于这种模糊性,以及人工智能训练数据和兵棋设计中的潜在偏见,这一不断变化的领域迫切需要伦理监管和问责制的实施。对这些问题的探讨,能够阐释在人工智能与兵棋推演融合的过程中,负责任监管的紧迫性,因为这种融合可能决定未来冲突。

无监管的影响。兵棋推演的受欢迎程度呈爆炸式增长:北约成员国、智库和各大院校,正在利用这些工具研究从核危机到大国竞争等一系列安全问题。一些兵棋用于训练目的,而另一些兵棋用于收集分析数据,为学术理论或者政府政策的确定提供依据。

西方兵棋的复兴使用2015年,当时五角大楼呼吁为超越中国和俄罗斯等主要竞争对手,开展更多兵棋推演。现在,北约正在培养“大胆创新”的兵棋推演能力,这是一种文化转变,北约鼓励在军事战略和规划中进行批判性思考、试验和思想交流以获得更多战略优势。英国伦敦国王学院和斯坦福大学等知名院校,也建立了兵棋推演研究中心。

兵棋复兴的结果之一是,对西方领导人的影响越来越大。英国国防大臣本·华莱士2023年7月强调:“兵棋输出已经在【国防部】决策中发挥核心作用”。例如英国国防大臣的网络评估和挑战办公室一直在根据国防情报和独立专家的意见,进行大量兵棋推演,确保当前和新制定的战略在实施之前得到彻底检验。

f3ad070ecf2db3635dab9babba00cc65.jpeg

在美国,兵棋推演更加盛行,五角大楼习惯于利用模拟“为实际战争做准备”。例如,兰德公司开发的一款战略兵棋“霸权”,在确定五角大楼2018年国防战略中发挥了关键作用。

兵棋通过模拟探索了如何在资源和兵力管理之间作出权衡,指导美国防务专业人员在全球动态环境中根据不断变化的国家战略和目标调整军事能力。兰德公司,作为一家由联邦政府资助的研发中心,自20世纪40年代以来一直致力于兵棋推演的研究工作。

但是监管并没有与兵棋推演的发展同步,2023年我在伦敦国王学院牵头开展了一项研究,我们对来自19个国家的140名兵棋设计师进行了调查。结果令人堪忧,80%的分析性兵棋推演跳过了伦理审查,忽略了涉及人类参与者时的标准研究流程。英国国防部的数据也反应了这一趋势:我们通过《信息自由法》从国防部获取的数据表明,2018年到2023年间,只有一项研究提交研究伦理委员会审查。

721694fbcb13ccfacd16095d5f245738.jpeg

为什么兵棋推演缺乏伦理监管?首先,具有影响力的指南,例如北约今年发行的《兵棋推演手册》,并没有概述伦理要求,即使这些兵棋旨在为现实决策提供依据。政府赞助人也很少要求兵棋推演必须正式遵守研究伦理标准。此外,获得伦理审批非常繁琐且需要耗费大量时间,这与紧迫的政策制定时间表相冲突。

新前沿:人工智能与兵棋推演的融合。兵棋推演与人工智能的携手,使伦理挑战加倍增加。美国DARPA和英国DSTL等政府机构和公司,正在率先开展人工智能-兵棋推演整合实验项目。值得主义地,兰德公司从20世纪80年代开始已经开始尝试这种融合。

这一前景非常诱人,英国顶级AI中心艾伦-图灵研究所2023年的一项研究发现,这种融合能够提高速度和效率,改进分析作。人工智能能够通过海量数据快速揭示新见解。对阵员可以通过AI生成的想定和对手策略,体验更多沉浸式兵棋。那么预期结果是怎样的?在前瞻性和相对于对手的战略优势方面,实现变革式飞越。

9f9abe379d6dfb4776d4877a588dca96.jpeg

但是兵棋和AI智能都会面临两大挑战:可解释性(无法让人理解知识是如何产生的),以及偏见,这引起了伦理方面的担忧。北约和英国国防部的兵棋推演指导手册指出,兵棋推演无法复制。

当兵棋与“黑匣子”深度模型(决策过程不透明且不易解读的系统)相结合,人们对结果的信任程度会进一步降低。有限的数据或者有缺陷的设计可能导致偏差,并有可能产生锁雾结论。此外,兵棋方法和见解通常保密。利用AI为兵棋推演“增压”,可能在不受公众监督的情况下,传播对现实产生重大影响的错误信息。

伦理原则的遵守。兵棋推演可能带来风险,如果没有伦理的保护,这些风险可能让对阵员和社会受到损害。

在逼真的兵棋推演中,参与人员可能会承受很大的压力,这导致其有时会采取类似竞技体育中的攻击行为。此外,如果对阵员的身份可以与他们在推演中的行为和讨论联系起来,这可能会损害他们的职业声誉,甚至危及他们的安全。伦理兵棋与适当研究一样,通过谨慎的协议(如知情同意和数据匿名化)来避免这些隐患。

38fba03efa4a05849e53fd44f8de55ad.jpeg

从更大范围而言,战略兵棋推演可以直接或者间接影响现实决策。对阵员,是当前或者未来的决策者,可能受到兵棋推演的启发,这进而会以微妙的方式影响未来决策。这就像让一个对药物有不良反应的医学试验参与者,来决定药物的审批。

为了说明潜在的问题,请看英国《卫报》最近报道的一场在大学举办的兵棋推演活动,参与人员包括北约工作人员和现役军人,推演主要探讨俄罗斯入侵芬兰的问题。如果兵棋推演由北约等机构赞助,那么推演结果可能会为直接的政策或军事选择提供指导。例如,由于兵棋设计或想定中隐含的偏见,兵棋中的俄罗斯领导层可能会在无意间被描绘得富于攻击性,这可能会导致国防资源的错误分配或冲突的无意升级。

当然,这种会产生重大影响的决定不太可能根据一次推演的结果做出,但许多兵棋推演包含大量对阵员,这会加剧风险。规模很重要。

现在我们来考虑一下大规模部署的人工智能驱动的数字版分析兵棋。人工智能有可能通过产生大量偏差数据,错误地验证假设,进而放大现有的偏见。人工智能还可以编造极具说服力但却具有欺骗性的故事,进一步模糊模拟与现实之间的界限。具有讽刺意味的是,在决策者看来,这些数据驱动的洞察力,可能增加本来存在问题的结果的可信度。

3091ec942189bf5444197fb2224cc8f0.jpeg

如果兵棋推演继续在国防决策中发挥关键作用,就像英国前国防大臣指出的,那么与实际情况相比,领导者可能会认为战争更有必要,更有可能获胜。有偏见或无法解释的人工智能兵棋可能会夸大获胜机会或歪曲对手意图,让决策者在仍有外交选择的情况下认为战争是必要的。这可能会未被正义战争理论中的伦理原则,如正当理由和最后手段。

人工智能兵棋的监管。人工智能的分析能力与兵棋推演中人类创造力的融合,有望为威慑或赢得未来战争带来战略优势。但要获得这些优势,道德标准、问责制和监管是必需的。

首先,专家们必须为传统和高科技兵棋推演制定伦理准则,并针对兵棋推演特有的风险,调整研究标准。这些标准必须成为政府指导方针的基石。北约等组织可以提供分享最佳实践的论坛,避免重复工作。

其次,必须加大基础研究投入来应对人工智能可解释性和固有偏见方面的挑战。尽管人工智能可解释性研究取得了一定进展,很少有学者研究兵棋推演方法论和认识论。我们需要多学科合作。计算机科学家应与兵棋推演学者和实践者合作,共同推进理论研究。

第三,兵棋实施和赞助机构必需进行监管。这需要高层领导的支持。如果兵棋能在不受公众监督的情况下以不易让人察觉地方式影响国防决策,可能需要额外的制衡,如立法机构的审查。

正如在布莱切利庄园,机器通过破解敌方密码帮助我们赢得战争一样,人工智能也将很快解开复杂的战略谜团,为和平提供保障。人工智能安全峰会这类聚会,可以促进对话和改革,将伦理监管纳入兵棋推演的数字化未来。

注:本文作者是伊万卡-巴尔扎什卡,其主要从事技术与国际安全交叉领域的工作。

未来智能实验室的主要工作包括:建立AI智能系统智商评测体系,开展世界人工智能智商评测;开展互联网(城市)大脑研究计划,构建互联网(城市)大脑技术和企业图谱,为提升企业,行业与城市的智能水平服务。每日推荐范围未来科技发展趋势的学习型文章。目前线上平台已收藏上千篇精华前沿科技文章和报告。

  如果您对实验室的研究感兴趣,欢迎加入未来智能实验室线上平台。扫描以下二维码或点击本文左下角“阅读原文”

757197f471eb1bf263d082c789784caf.jpeg

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
抱歉,我是一名自然语言处理AI,无法编写代码。不过,以下是一个简单的推演的python代码示例,供您参考: ```python # 推演 import random # 定义士类 class Soldier: def __init__(self, name, attack, defence, hp): self.name = name self.attack = attack self.defence = defence self.hp = hp # 攻击方法 def attack_enemy(self, enemy): # 造成的伤害 = 攻击力 - 防御力 damage = self.attack - enemy.defence # 如果伤害小于等于0,则无效 if damage <= 0: print(f"{self.name}攻击{enemy.name},但是没有造成伤害") else: enemy.hp -= damage print(f"{self.name}攻击{enemy.name},造成了{damage}点伤害") # 是否存活 def is_alive(self): return self.hp > 0 # 定义玩家类 class Player: def __init__(self, name, soldiers): self.name = name self.soldiers = soldiers # 随机选择一个士 def select_soldier(self): return random.choice(self.soldiers) # 是否存活 def is_alive(self): for soldier in self.soldiers: if soldier.is_alive(): return True return False # 游戏开始 print("游戏开始!") # 定义两个玩家 player1 = Player("玩家1", [ Soldier("士1", 10, 5, 20), Soldier("士2", 8, 6, 25), Soldier("士3", 12, 4, 18), ]) player2 = Player("玩家2", [ Soldier("士4", 10, 5, 20), Soldier("士5", 8, 6, 25), Soldier("士6", 12, 4, 18), ]) # 游戏循环 while True: # 玩家1选择士 soldier1 = player1.select_soldier() # 玩家2选择士 soldier2 = player2.select_soldier() # 士1攻击士2 soldier1.attack_enemy(soldier2) # 如果士2死亡,输出信息并退出游戏循环 if not soldier2.is_alive(): print(f"{player1.name}的{soldier1.name}杀死了{player2.name}的{soldier2.name}") break # 士2攻击士1 soldier2.attack_enemy(soldier1) # 如果士1死亡,输出信息并退出游戏循环 if not soldier1.is_alive(): print(f"{player2.name}的{soldier2.name}杀死了{player1.name}的{soldier1.name}") break # 游戏结束 print("游戏结束!") ``` 以上代码只是一个简单的示例,可以根据实际需求进行修改和扩展。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值