大语言模型和游戏:综述和路线图

246 篇文章 0 订阅
194 篇文章 0 订阅

24年2月马耳他大学和纽约大学的论文“Large Language Models and Games: A Survey and Roadmap”。

在这里插入图片描述
近年来,对大语言模型(LLM)的研究呈爆炸式增长。LLM最初是自然语言处理中的一个领域,但在包括游戏在内的广泛应用程序和领域中显示出了非凡的潜力。本文调查LLM在游戏和游戏各种应用的当前技术状态,并确定了LLM可以在游戏中扮演的不同角色。重要的是,讨论了LLM在游戏中未来的未开发领域和有希望的方向,并针对游戏域适配LLM的潜力和局限性。

过去对游戏中人工智能类型的尝试集中在人工智能在游戏中可以扮演的三个角色上:玩游戏、设计游戏或为(人类)玩家建模[5]。LLM典型地表现为对话主体,这通常会引导公众赋予它们拟人化的品质,如推理和创造力。因此,当考虑LLM在游戏中或游戏开发过程中可以扮演的角色时,遵循这些趋势。LLM可以作为玩家(在模仿人类玩家目标的同时取代人类玩家)、非玩家角色(NPC,如敌人或对话者)、为人类玩家提供提示或处理琐碎任务的助手、控制游戏流程的游戏大师或隐藏在游戏规则集内(控制游戏的次要或主要机制)在游戏中运行。然而,LLM还可以在游戏运行时之外扮演其他角色,例如游戏的设计师(取代人类设计师)或人类设计师的助理。最后,LLM可以以不同的方式与玩家或观众互动,充当正在进行的游戏会话的评论员(在运行时期间)或以某种叙事形式复述过去的游戏事件的复述者(运行时之外)。其中一些角色(自主玩家、自主设计师)在更广泛的人工智能和游戏研究中很突出[5],LLM研究广泛针对他们,而其他一些角色在探索性研究中被实验。

玩家

LLM如何玩游戏?从根本上讲,语言模型玩家需要从他们典型的输出空间(即tokens序列)到游戏的输入空间进行一些转换。此外,游戏的各个方面及其当前状态必须以某种形式提供给LLM,以便其以任何合理的水平进行游戏。根据游戏本身,这些映射可能是直观的,也可能是复杂的。LLM玩家非常适合的三类游戏:(a)状态和动作可以紧凑地表示为抽象tokens序列的游戏,(b)主要输入和输出模态是自然语言的游戏,以及(c)外部程序可以通过API控制玩家动作的游戏。

第一类游戏主要包括回合制棋盘游戏(例如国际象棋),因为与例如第一人称射击游戏相比,棋盘位置和移动的离散集合更容易转换为紧凑表示(例如便携式游戏表示法)。通过对游戏数据库中的动作序列进行token化,可以将动作选择问题映射到训练LLM的标准自回归学习目标上——在给定之前动作的上下文的情况下预测下一个动作。国际象棋[16]、[17]、[18]、围棋[19]和奥赛罗(Othello)[20]都以这种方式被用作LLM玩家的试验台。然而,棋盘游戏并不是唯一一种可以表示为token序列的游戏:多面手GATO[21]智体可以通过将视觉输入处理为光栅顺序的像素值序列,在人类或接近人类的水平上玩各种雅达利(Atari)游戏。像素值与分隔符tokens和先前的动作交织在一起,使模型能够准确预测人类游戏轨迹数据集中的适当游戏动作。在捕捉空间和视觉动态[22]、[23]的Transformer模型中继续改进,可能会允许采用类似的方法来扩展到更复杂的游戏。然而,这种方法需要大量的游戏视频数据集,而这些数据集可能相对更难收集。此外,依赖人类游戏痕迹作为学习的基础,可能会使LLM玩家更难在推理和概括方面不跳跃的情况下达到超人的表现。

第二类游戏最明显地包括文本冒险游戏,如Zork(Infocom,1977),其中游戏状态以自然语言描述的形式呈现,并且游戏已经配备了处理自然语言响应的解析器。这意味着LLM可以通过一种仍然利用其对自然语言文本的大规模预训练的方式来查询游戏动作。LLM最早应用于这类文本游戏的是CALM[24],这是一个GPT-2系统,对从各种基于文本的冒险游戏中收集的人类游戏记录数据集进行了微调。该模型被训练为在给定先前状态和动作的上下文以及关于avatar的信息(例如,他们的库存)的情况下预测由人类玩家提供的自然语言串。为了真正玩游戏,训练的语言模型生成多个可教学的动作,并使用深度强化学习(RL)来优化从候选者中选择动作的策略。在其出版时,这个RL组件是必要的,因为LLM本身无法很好地推广到未见过的游戏或情况[24]。然而,最近对ChatGPT作为Zork玩家的调查表明,LLM的性能正在提高[25]。在一项初步实验中,Yao[24]表明,只要人类对话者仍在循环中帮助模型(例如,提醒它已经尝试过的动作),ChatGPT的性能就可以接近现有的文本游戏算法。然而,以这种方式将LLM直接应用于文本游戏显然还有很大的改进空间。此外,LLM玩完全新颖、小众或未见过的文本游戏能力(特别重要的是,考虑到这些系统在训练过程中可能会遇到流行文本游戏的演练或游戏痕迹)在很大程度上仍未被探索。

除了文本冒险游戏,LLM玩家在棋盘游戏中最著名的应用是CICERO[26],用于玩交易和诡计的游戏外交家Diplomacy(Avalon Hill games,1976)。Diplomacy在自然语言指令中处于有利地位,因为玩家可以在私人信息中自由交谈,以安排规划、谈判或欺骗。CICERO建立在一个预先训练的LLM基础上,并对大量的Diplomacy游戏记录进行了微调。在整个游戏中,模型中的样本被发送给其他玩家,并收集各种对话记录来调节潜在的动作。CICERO被进一步训练,以使其输出以特定的游戏意图为条件(从记录中推断,并在训练过程中作为上下文添加)。为了选择一个动作,CICERO使用“战略推理模块”来预测其他玩家的行动,使用从自我游戏中学习的价值和策略函数。Diplomacy是一个有趣的游戏,部分原因是动作空间被划分为自然语言话语和离散游戏板上更标准的动作集,CICERO展示了LLM如何被集成为更大的高水平游戏系统的一部分。

最后是鲁棒的API游戏。这与其说是一种游戏的风格或机制,不如说是一个流行或易于实现的事实。API是一个重要的属性,因为它允许LLM充当玩家,不是直接生成动作,而是生成充当策略的程序。LLM代码生成能力的提高使他们能够编写小程序,在没有模型进一步干预的情况下,在给定的游戏状态下产生动作。例如,VOYAGER系统[27]利用GPT-4的代码生成能力,通过与流行的Mineflayer API交互来玩游戏《我的世界》(Mojang Studios,2011)。VOYAGER使用复杂的提示链生成代码块,利用对API的调用来执行高级“技能”(例如“攻击最近的僵尸”),这些技能会自动转换为低层的游戏输入(例如鼠标移动和按键)。GPT-4还被用作高级目标生成器和规划器,从而为代码生成提供信息。事实证明,这种方法非常成功,VOYAGER是第一个完成游戏《我的世界》中各种挑战的自动化系统。结果令人印象深刻,并表明生成动作生成程序可能是比直接动作采样更有效地利用潜在LLM知识的方法。然而,VOYAGER确实受益于强大的API的可用性和其目标游戏《我的世界》的大量互联网讨论。与ChatGPT对Zork的分析一样,这种方法推广到不太流行或完全看不见的游戏的能力还有待观察。

NPC

非玩家角色(NPC)是存在于虚拟游戏世界中但其行为不受玩家直接控制的智体。NPC的存在是为了丰富玩家的体验,通过增加世界的氛围并使其更可信来加深沉浸感[29]。NPC可以充当宠物、盟友、敌人、商人、任务给予者或旁观者。因此,他们甚至与人工智能控制的玩家有着不同的代理权,他们的目标永远不是获胜。这使得为NPC设计人工智能变得有趣[5],而LLM可以在这项任务中提供独特的优势。他们“理解”游戏世界设置的能力使LLM能够调整他们的反应以匹配这些设置。研究表明,LLM能够在不同的场景中发挥作用[30],从而突出了其提供更灵活、更恰当的工具来模仿人类行为的潜力。LLM控制NPC有两种方式:(a)通过他们的对话,以及(b)通过他们行为。行为与游戏中的动作选择有关,然而这种行为的启发式和目标与试图赢得游戏的AI玩家不同。

LLM天生适合自然语言转换,作为NPC对话系统,它们可以根据玩家的输入生成动态的、上下文适当的响应。这使得与NPC的互动更加有趣和现实,减少了重复的话语,并在游戏中提供了更具探索性的体验[31]。LLM可以让玩家作为前景NPC、背景NPC或叙述者NPC参与游戏世界的叙事。叙述者LLM作为评论员,先说其他两种NPC类型。

前景NPC构成了游戏总体叙事的一部分,或其子叙事之一。他们可能是敌人、盟友、信息提供者、任务提供者或物品提供者。他们的对话在很大程度上受到叙事范围、他们在其中的角色和玩家行为的限制。前景NPC通过LLM生成文本的过程必须考虑游戏的整体背景以及与玩家的互动,并跟踪游戏过程中发生的事件。这引发了人们对LLM记忆能力的担忧,以及可能的幻觉影响,即看似合理但虚假的陈述[32]。

背景NPC占据了虚拟世界的大部分,但不是玩家执行的任何特定任务的一部分。他们的目的是使环境更加可信,并独立于玩家行事[31]。由于这些NPC的存在纯粹是装饰性的,他们的对话本质上是闲聊,因此他们的对话产生较少受到约束,可能只受说话者身份和背景的约束。也就是说,他们的可信度取决于他们错觉保护的能力,即他们在世界上有自己的机构,并可以与之互动[33]。

研究表明,多个智体能够遵循游戏规则并参与游戏[34],[35],不同的模型在应用于特定角色时始终表现出自己的能力和弱点。这种在约束条件下互动的能力有助于在前景和后景NPC中灌输可信的行为,使他们的行动和对话在游戏环境的规则中扎根。其他工作更多地关注LLM的对话和故事写作能力,例如在多个角色之间创建对话,每个角色都有自己独特的个性,同时遵循一致的情节。一个这样的例子是使用LLM生成在知名场景中有多个角色的《南方公园(South Park)》(喜剧中心,1997)一集[36]。这种方法有局限性,主要是LLM表演一些像戏剧即兴表演(improvisation)的东西,而不是扮演一个研究角色的演员[30]。通过这种不受约束的过程,LLM容易产生不符合所需场景的幻觉。这种波动性可以通过向LLM不仅提供对话历史,还提供环境的当前状态来缓解,例如其中的项目及其启示,以及其他角色及其相应的动作。这种方法已成功用于在基于文本的游戏中创建会话NPC[37],但也可以扩展到其他场景,或涵盖LLM作为主动或交互式叙述者的使用。

玩家助理

LLM在游戏中的一个鲜为人知的角色是玩家助理:一种互动智体,旨在以某种方式丰富或引导玩家体验。这可以是一系列教程风格的提示,一个根本不与游戏世界因果互动的角色,或者一个能够与玩家在类似级别上与游戏世界互动的智体。现有的游戏以不同的方式使用玩家助手。例如,在《模拟人生The Sims》(Electronic Arts,2000)中,一个无实体的助手通过对话框提供特定于游戏环境的提示。《文明VI》(Firaxis Games,2016)使用具有视觉描绘的不同助手来提供类似的建议,根据他们的特殊启发提出最佳构建选项;因此它们可以减轻玩家的一些决策。在管理游戏中,人工智能可能会自动完成琐碎的任务,例如在Stellaris(Paradox Interactive,2016)中为地球人分配工作;这种帮助减少了玩家的认知负荷,但如果玩家愿意,他们总是可以微观管理这项任务。

鉴于LLM潜在的表达和对话能力,LLM作为玩家助理可能会很有吸引力。结合LLM驱动或基于启发式的方法,在当前游戏环境下找到最佳策略或动作,LLM驱动的玩家助手可以将建议的行动和解释构建为由不具身或具身的智体传递的自然语言话语,用相应的情感表达,并通过其身体姿势表现出来,手势和面部表情。类似地,LLM可以通过在较小的任务描述中作为“玩家”定制的较小角色来帮助玩家承担游戏中的一些次要任务。LLM驱动玩家助手的潜力在当前的研究中没有得到探索。

评论员/复述者

LLM非常适合作为评论员或复述者。在这里,将这些角色确定为一个智体,为了人类玩家或观众的利益,制作和讲述一系列事件。这样的智体可以只考虑游戏内事件和游戏内环境,充当游戏内实体,如国际足联的体育评论员(EA sports,1993),也可以考虑游戏外事件和文本,如玩家(他们的行动、策略、动机等)。复述者[38]只讲述过去的事件——通常被分为一个简洁的“块”,如游戏会话(即基于游戏外上下文)或任务(即仅基于游戏内上下文)。评论员可能在讲述尚未结束的当前正在进行事件,类似于流媒体同时讨论他们的当前动作(包括游戏外的上下文)或正在进行的体育游戏(如国际足联FIFA)中的体育播音员。

自动化的“let’s play”风格的评论生成,并不是什么新鲜事。其在[39]中提出,并通过经典的机器学习方法实现,但收效甚微。在[40]中,训练了一个具有文本、视觉和游戏状态输入的LSTM,为赛车游戏中的辅助脚本生成字符。这种方法的结果以重复和上下文无关的生成文本为特征。[41]还使用LSTM在字符级别生成文本,用于《Getting Over It With Bennett Foddy》(Bennett-Foddy,2017),这是一款具有挑战性的侧滚攀岩游戏。

Renella&Eger[42]也探讨了用于评论的LLM,他们认为LLM可以帮助游戏的流媒体(例如在Twitch上),而流媒体则通过观众互动来处理多任务游戏。作者开发了一个自动评论《英雄联盟League of Legends》(Riot Games,2009)游戏的流水线。他们采用多阶段的方法,在手绘数据上训练模型,识别关键事件,然后提示ChatGPT以特定(已知)虚构人物的风格生成对这些事件的零样本评论,最后通过FakeYou2 API发送生成的文本,以同一人物的音色配音。例如,一旦事件检测模型在特定帧中识别出敌人的双杀,ChatGPT就会以Rick and Morty(卡通网络,2013)中的Rick Sanchez风格做出回应:“见鬼?!那个敌方团队刚刚得到了双杀!我简直不敢相信!他们一定很厉害!我最好小心他们!”一个额外的循环缓冲检测事件——例如,推迟对双杀的评论,防它升级为三杀,或者在一系列快速事件中进行优先级排序,并提示ChatGPT生成随机填充物,例如感谢(虚构的)新订户。

尽管存在上述研究,但对LLM作为游戏评论员的研究仍然相当有限。其吸引力是显而易见的:基于模拟的突发叙事游戏已经产生了丰富的叙事历史,并由人类玩家重新混合,产生经常受欢迎的次要内容。原则上,LLM可以用于生成这些游戏事件的更简洁复述或突出显示卷轴。在没有任何进一步的风格或内容规范的情况下,提示当前的LLM编写故事,往往会产生感觉普通的输出。模拟游戏中记录的过去事件最终可以为这些输出提供独特性和叙事连贯性。探索自动化流媒体之外的更多概念,例如通过LLM对观众反应的评论而不是游戏中的动作来帮助流媒体,仍有待探索。

游戏大师

桌面角色扮演游戏(TTRPGs) 中的游戏大师(GM),是创造游戏情节、角色和叙事的。GM在游戏过程中戴着许多帽子[43],但在游戏过程之前和之后,他们也会准备和改编冒险和故事,并与团队联系[44]。数字游戏大多有规定的故事或等级进展,与动作仅受想象力限制的TTRPG玩家相比,他们的玩家的可供性范围有限。同样,围绕桌子讲的故事可以有任何方向。由于人类GM主要通过自然语言交流游戏世界、故事、游戏状态和动作解决方案(尽管地图、微缩模型、分发等道具也很常见),LLM作为GM的潜力经常在研究界和TTRPG讨论板上被提及[45]。LLM作为GM也打开了单人游戏的潜力,而TTRPG至少需要一名玩家和人类GM。

由GPT-2微调版本管理的第一个著名基于文本的冒险,是AI 地牢(Dungeon)[46]。AI 地牢是一款基于在线互动聊天的讲故事应用程序,玩家仅通过语义输入采取行动。LLM以人类GM的方式,根据玩家的输入让故事继续。游戏自创建以来一直在发展,使用更新的LLM模型,玩家可以在开始游戏之前从中进行选择。还提供了不同的游戏世界设置,玩家还可以分享他们创造的故事。自此后,类似的游戏也出现在网上,一个免费提供的代码库Kobold AI Client,允许在本地或远程安装此类LLM运行的游戏客户端。其中一些游戏还使用Stable Diffusion文本-到-图像模型[47]来生成伴随叙事不同部分的视觉效果。

LLM也被聘为GM助理,而不是取代人类GM。CALYPSO[48]是一组运行在Discord服务器上的工具,GM可以查询这些工具,生成随机邂逅、集思广益,或者与《Dungeons & Dragons 龙与地下城》(TSR,1974)中TTRPG场景的虚构人物聊天。CALYPSO强调,当GPT-3产生原始游戏手册描述中未包含的看似合理细节(例如生物眼睛的形状)时,它的幻觉既有积极影响,也有当创建的细节完全不正确时的负面影响(例如描述经典无翼生物的翅膀)。此外,该模型为避免种族偏见而进行的预处理,偶尔会阻止它在游戏中生成幻想生物的种族细节。其他工作使用较小的GPT模型,通过监测和转录GM和玩家之间的言语交流,并试图产生适当的反应,即兴进行游戏中的对话[49]。这个例子被集成到“Shoelace”[50]中,它本身就是一个GM辅助工具,通过创建基于节点的游戏叙事和遭遇规划来帮助内容查找。LLM具有快速处理文本输入的能力,其多功能性为其集成到人类GM的众多现有工具和辅助工具中铺平了道路。

游戏机械师

游戏也可以围绕依赖LLM的特定机制构建,类似于[52]中确定的基于AI游戏设计模式。一个明显的机制围绕着LLM驱动对话NPC所促进的社会互动。在这种情况下,[53]使用LLM来填充一个有25个角色的虚拟村庄,使他们能够在沙盘环境中进行交流和参与社会行为。玩家可以使用基于文本的界面与这些智体进行交互。每个智体的环境状态和动作以基于语言的格式存储并汇总,以便在提示其动作时为每个智体保留知识。这导致了新出现的可信的社交互动,比如智体自发地邀请其他智体参加其中一人组织的聚会。同样,GoodAI正在开发AI人类视频游戏,该游戏作为沙盘模拟,LLM驱动的NPC“相互作用,与环境互动,形成关系并显示情绪”[28]。玩家可以通过自然语言聊天与代理互动,引发反应,并可能破坏NPC之间的关系。

自然语言交互形成了一个构建游戏的自然机制库,例如将在越狱LLM[54]中用户的尝试游戏化。游戏《1001夜》,让LLM根据人类提示共同创建一个故事来证明这一点,玩家的目标是尝试并引导故事包含特定的关键词,以便主角“Scheherazade天方夜谭”将这些关键词转化为有形物品,以帮助她逃离[51]。同样,《甘道夫Gandalf》挑战玩家诱骗LLM泄露密码。随着关卡的进展,游戏通过调整提示规范来增加任务的难度,例如迫使LLM重新检查其生成的响应,以确保其不包含密码。

LLM的另一个优势是语言合成,《无限工艺 Infinite Craft》利用了这一优势。《无限工艺 Infinite Craft》是一款“炼金术”游戏,玩家将元素组合在一起,产生新的元素。在《无限工艺》中,玩家从一组核心元素(水、火、风和土)开始。但是,尽管前者有一组由设计师手动定义的交互,但《Infinite Craft》提示LLaMA 2[12]想象这些元素组合的产品[55]。从游戏性来看,似乎对于每个不同的组合,LLaMA只会被提示产生一次结果,并将产品存储在数据库中以供将来参考。因此,语言模型词汇中的任何东西似乎都可能从这些元素的组合中“浮现”出来,包括所有50种状态、《梦想Dream》和虚构的《超级石龙-塔科龙-国王》。有时,模型可以选择返回组合元素中的一个,或者拒绝组合(特别是非常长或复杂的)元素。

如图所示:在《无限工艺》中,玩家将一组简单的原子元素组合成越来越复杂的实体,LLM决定任意组合产生的产品。

添加图片注释,不超过 140 字(可选)

自动化设计器

人工智能在游戏中的一个关键作用[5]是游戏内容的算法生成,如级别和视觉效果,甚至整个游戏。与通过自然语言创建游戏(即存在于玩家的心灵剧场中)的游戏大师不同,程序内容生成(PCG)的目的是创建用于数字游戏的内容,因此需要满足某些限制,如可玩性和美学质量。

任何在可用内容语料库上训练的PCG方法都符合通过机器学习的过程内容生成(PCGML)范式[15]。严格地说,2018年的原始PCGML框架没有考虑LLM;相反,它依赖于机器学习方法,如自动编码器和LSTM。然而,在考虑PCG的LLM时,PCGML的重要挑战仍然存在:特别是对高质量的机器可读数据集的依赖。虽然存在一些电子游戏级别的数据集[56],但对于大多数游戏来说,内容仍然不可用,并受到知识产权法的保护。

PCG先前的工作已经证明,将基于序列的预测模型(如LSTM)视为光栅顺序的tiles类线性序列,可以从一组适度的样本中可靠地生成基于tiles的游戏级别[57]。最近,现代LLM以类似的方式获得了更大的成功。在[58]中,GPT-2模型在Sokoban(Thinking Rabbit,1982)级别的大型数据集上进行了微调,并在测试时对模型中的样本进行了微调以产生新的谜题。有趣的是,他们的结果表明,当微调数据集的大小受到限制时,GPT-2模型会遇到困难,但GPT-3(以及自那时以来发布的更大模型)能够更好地适应有限的训练集。

类似的方法MarioGPT在Super Mario Bros(任天堂,1985)级别的相对较小数据集上训练GPT-2模型[60]。MarioGPT使用初始数据集作为进化算法的起点,克服了数据稀疏的问题。选择现有的游戏级别,然后从GPT模型中采样来突变,然后用类似训练的BERT(即双向)模型校正重新生成的部分和其余该级别部分之间的边界[61]。这种方法产生了一组庞大而多样的可玩级别,尽管从不到20个级别开始。

上述两种基于GPT的级别生成方法也显示了结合自然语言指令来生成条件的游戏级别生成器,通过在训练数据集中预先设置具有所需级别特征的游戏级[58],或者通过嵌入用户指令并允许模型在生成过程中嵌入[60]。似乎更简单的技术,如人类反馈的强化学习[2],可以产生更能适应用户指导的游戏级别生成器。

设计助理

用于设计辅助的人工智能可以为创意过程提供几个好处。根据工具的类型、人工智能的类型和创意过程的类型,人工智能可以最大限度地减少开发时间和成本,减少人力劳动,支持设计团队成员之间的合作或激发用户的创造力[62]。到目前为止,在游戏中,大多数人工智能驱动的设计辅助工具都专注于自动完成人类正在进行的设计[63],或为设计者提供许多可能的建议以供考虑[64]、[65]、[66]、[67]。根据AI合创者[68]对流程的控制水平,确定三个辅助级别:

概念辅助,人工智能提供高水平的指导,而这还没有为游戏做好准备,要求设计者以符合他们自己的愿景和游戏限制的方式,调整和策划人工智能输出。

人工智能是创意过程的一部分,通过与用户的互动,程序辅助可以产生越来越多制品的最终版。在这里,人工智能被期望理解游戏内容的上下文,以便提供有意义的帮助。然而,人工智能不需要制作最终的可玩制品,而是可以简单地提供下一个创造性步骤,供与设计师讨论[69]。此外,设计师最终负责策划和改编生成的内容,并决定何时完成共同创作过程[70]。

人工智能必须根据用户需求创建最终制品的产品辅助。这是最接近PCG的级别),但不同之处在于设计者仍然可以控制他们的规范,并可以完善他们的规范或拒绝创建的制品(与直接向玩家发送内容的自主生成器相比)。然而,正如预期的那样,在这种情况下,人工智能在一个更受约束的空间中运行,因为它必须考虑到所有其他游戏机制(其设计被认为是最终确定的)和设计师目标,这些目标是通过学习的设计器模型以某种方式编码或假设的[71]。

有人可以说,LLM、基础模型和大型多模态模型的现有接口充当了设计助理。设计器提供了他们的规范,并收到一个(在LLM中)或多个(在AI图像生成器中)建议,他们可以进一步完善这些建议。许多创意人员使用此类界面进行头脑风暴和概念开发[72],包括游戏开发人员[73]。然而,LLM作为设计助理的适用性有些有限,仅恢复到概念协助。同样,他们完善现有想法(即提供程序援助)的潜力也没有得到充分挖掘。

因此,概念辅助对LLM来说是最容易的,也是游戏中探索的第一个案例。在[74]中,设计辅助被设想为一种工具,该工具将用户提供的游戏描述与类似游戏的现有知识相结合,向设计器建议可能的游戏功能。建议的功能是相当通用的,很少使用单词的指导原则(例如:“学习新的战斗”),需要大量的设计努力和创造力才能转化为可实施和连贯的游戏设计。

由于制作援助也接近传统的PCG流水线,因此可以理解,游戏也在探索这种辅助。在[75]中,GPT-3根据描述的游戏级别特征(如宽度和高度)提示生成级别,同时人类策划和编辑结果,确保可玩性。然后,这组精心策划的级别被用于进一步的微调,可能会使生成过程自动化。在[76]中,LLM不是直接生成最终制品,而是用作解析器,该解析器从以自然语言表示的用户请求中,推断PCG系统生成最终游戏所需的高级参数(级别难度和大小、可持续性问题类型和模拟目标度量)。候选游戏级别集合是根据单个用户请求生成的。然后,RL智体对每个候选进行评估,并通过Unity游戏引擎将最佳游戏呈现给用户。

如上所述,到目前为止,研究的重点是LLM的概念协助(将重大责任交给人类设计师)或生产协助(利用人类设计师作为负责人)。然而,LLM的会话性质似乎特别适合在设计内容时提供程序帮助。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值