如今,大多数人工智能(AI)系统都是基于处理任务的单个代理,或者在对抗模型的情况下,是一些相互竞争以改善系统整体行为的代理。然而,现实世界中的许多认知问题是大群人建立的知识的结果。以自动驾驶汽车场景为例,任何座席的决策都是场景中许多其他座席行为的结果。金融市场或经济中的许多情景也是大型实体之间协调行动的结果。我们如何模仿人工智能(AI)代理中的行为?
多智能体强化学习(MARL)是深度学习学科,侧重于包含多个代理的模型,这些代理通过动态地与其环境交互来学习。在单一代理强化学习场景中,环境状态仅由于代理的动作而改变,在MARL场景中,环境受到所有代理的操作。从这个角度来看,我们是否将MARL环境视为元组{X1-A1,X2-A2 … .Xn-An},其中Xm是任何给定的代理,Am是任何给定的动作,然后环境的新状态是由A1xA2x … .An定义的一组连接动作的结果。换句话说,MARL场景的复杂性随着环境中代理的数量而增加。