论文阅读
文章平均质量分 91
论文
燕双嘤
程序辅导,毕业设计,课程作业,比赛代打等,wx:lvlvmp
展开
-
多智能体强化学习:深度强化学习的多样性驱动探索策略
题目:Diversity-Driven Exploration Strategy for Deep Reinforcement Learning出处:NeurIPS 2018,人工智能的顶级会议。摘要:在强化学习中,有效探索仍然是一个具有挑战性的研究问题,特别是当环境包含大的状态空间、欺骗性或稀疏的奖励时。为了解决这个问题,我们提出了一种多样性驱动的探索方法,该方法可以很容易地与非策略和非策略强化学习算法相结合。我们表明,通过简单地将距离度量正则化添加到损失函数,所提出的方法显著增强了智能体的探索行翻译 2020-01-07 21:26:38 · 7818 阅读 · 3 评论 -
多智能体强化学习:有效多Agent深度强化学习的分布报酬估计
题目:Distributional Reward Estimation for Effective Multi-Agent Deep Reinforcement Learning出处:Neural Information Processing Systems(NeurIPS,2022),深度学习顶级会议,CCF-A。摘要:多智能体强化学习在实践中受到越来越多的关注,例如机器人和自动驾驶,因为它可以使用与环境交互生成的样本来探索最优策略。然而,当我们想要训练一个令人满意的模型时,高报酬不确定性仍然是一翻译 2019-12-08 09:37:13 · 807 阅读 · 0 评论 -
多智能体强化学习:LIIR-在多智能体强化学习中学习个人内在的奖励
题目:LIIR: Learning Individual Intrinsic Reward in Multi-Agent Reinforcement Learning出处:Neural Information Processing Systems 32(NeurIPS 2019),人工智能的顶级会议。摘要:合作分散多智能体强化学习(MARL)中的一个巨大挑战是,当只获得团队奖励时,为每个个体智能体生成多样化的行为。先前的研究在reward shaping或设计一个集中的批评家方面付出了很多努力,该批翻译 2018-09-04 23:08:42 · 2050 阅读 · 2 评论 -
多智能体强化学习:鼓励共享多智能体强化学习中的多样性
题目:Celebrating Diversity in Shared Multi-Agent Reinforcement Learning出处:Neural Information Processing Systems 34(NeurIPS 2021),人工智能的顶级会议。摘要:最近,深度多智能体强化学习(MARL)已显示出解决复杂合作任务的前景。它的成功部分是由于智能体之间的参数共享。然而,这种共享可能导致智能体行为类似,并限制其协调能力。在本文中,我们的目标是在共享多智能体强化学习的优化和表示中翻译 2018-09-09 21:24:25 · 1750 阅读 · 0 评论 -
多智能体强化学习:个体奖励辅助多智能体强化学习
题目:Individual Reward Assisted Multi-Agent Reinforcement Learning出处:International Conference on Machine Learning(ICML,2022),深度学习顶级会议。摘要:在许多真实的多智能体系统中,团队奖励的稀疏性往往使算法难以成功学习合作团队策略。目前,解决这一问题的常用方法是为智能体设计一些密集的个人奖励来指导合作。然而,大多数现有的作品利用个人奖励的方式并不总是促进团队合作,有时甚至会适得其反。翻译 2018-09-09 20:49:06 · 3454 阅读 · 3 评论 -
多智能体通信:多智能体强化学习中的交流-意图共享
题目:Communication in Multi-Agent Reinforcement Learning: Intention Sharing出处:International Conference on Learning Representations (ICLR,2021),深度学习顶级会议。摘要:在多智能体系统中,通信是学习协调行为的核心组件之一。在本文中,我们提出了一种新的通信方案,名为意图共享(IS),用于多智能体强化学习,以增强智能体之间的协调。在提出的IS方案中,每个agent通过对翻译 2022-04-18 19:49:51 · 2631 阅读 · 2 评论 -
多智能体通信:通过深度多智能体强化学习学习交流
题目:Learning to Communicate with Deep Multi-Agent Reinforcement Learning出处:Neural Information Processing Systems 29 (NIPS,2016)摘要:我们考虑的问题是多智能体在环境中的感知和行动,目的是最大限度地发挥其共享效用。在这些环境中,智能体必须学习通信协议,以便共享解决任务所需的信息。通过采用深度神经网络,我们能够在复杂环境中演示协议的端到端学习,其灵感来自通信谜题和具有部分可观测性的翻译 2022-04-16 21:01:49 · 1471 阅读 · 2 评论 -
多智能体通信:CommNet用反向传播学习多智能体通信
题目:Learning Multiagent Communication with Backpropagation出处:Neural Information Processing Systems 29 (NIPS,2016),人工智能顶级会议。摘要:人工智能中的许多任务需要多个智能体的协作。通常,智能体之间的通信协议是手动指定的,在训练期间不会更改。在本文中,我们探索了一个简单的神经网络模型,称为CommNet,它使用连续通信来完成完全协作的任务。该模型由多个智能体组成,它们之间的通信与策略一起学习翻译 2022-04-12 09:43:56 · 2520 阅读 · 0 评论 -
多智能体通信:MAGNet用于深度多智能体强化学习的多智能体图网络
题目:MAGNet: Multi-agent Graph Network for Deep Multi-agent Reinforcement Learning出处:XVI International Symposium "Problems of Redundancy in Information and Control Systems" (REDUNDANCY,2019)摘要:近年来,深度强化学习在复杂的单智能体任务中取得了巨大成功,最近这种方法也被应用于多智能体领域。在本文中,我们提出了一种新的翻译 2022-03-28 10:49:22 · 5801 阅读 · 1 评论 -
多智能体通信:基于通信的多智能体强化学习研究综述
题目:A Survey of Multi-Agent Reinforcement Learning with Communication出处:arXiv 2022摘要:通信是协调多个智能体行为的有效机制。在多智能体强化学习领域,智能体可以通过通信来提高整体学习性能并实现其目标。此外,智能体可以通过特定渠道向所有智能体或特定智能体组传递各种类型的消息。随着越来越多的通讯研究工作(Comm MARL),缺乏一种系统和结构化的方法来区分和分类现有的通信系统。在本文中,我们调查在COMM MARL领域最近的翻译 2022-04-09 09:14:31 · 8200 阅读 · 3 评论 -
强化学习:在表征空间中进行新颖性搜索以实现样本的高效探索
题目:Novelty Search in Representational Space for Sample Efficient Exploration出处:Neural Information Processing Systems (NeurIPS,2020),人工智能领域顶级会议。摘要:我们提出了一种新的有效探索方法,该方法利用所学环境的低维编码,并结合基于模型和无模型的目标。我们的方法使用基于低维表征空间中最近距离的内在奖励来衡量新奇性。然后,我们利用这些内在奖励进行样本有效的探索,并在代表性翻译 2022-06-11 20:37:51 · 1354 阅读 · 2 评论 -
强化学习:基于好奇心驱动的强化学习的Web自动测试
题目:Automatic Web Testing Using Curiosity-Driven Reinforcement Learning出处:International Conference on Software Engineering (ICSE,2021),高性能计算机高水平会议。摘要:Web测试长期以来被认为是一项众所周知的困难任务。即使在今天,web测试仍然严重依赖于手动操作,而自动化web测试远未达到人的水平。web测试面临的主要挑战包括动态内容更新和隐藏在复杂用户交互和特定输入值下翻译 2019-09-30 20:57:27 · 1642 阅读 · 1 评论 -
持续学习:持续协调是终身学习的现实场景
题目:Continuous Coordination As a Realistic Scenario for Lifelong Learning出处:International Conference on Machine Learning(ICML,2021),深度学习顶级会议。摘要:当前的深度强化学习(RL)算法仍然具有高度的任务特异性,缺乏推广到新环境的能力。然而,终身学习(LLL)的目标是通过在任务之间有效地传递和使用知识,依次解决多个任务。尽管近年来对终身学习的兴趣激增,但由于缺乏现实的测试翻译 2019-03-19 21:38:09 · 877 阅读 · 1 评论 -
持续学习:不仅是选择,而是探索:通过双视图一致性在线课堂增量持续学习
题目:Not Just Selection, but Exploration: Online Class-Incremental Continual Learning via Dual View Consistency出处:IEEE Conference on Computer Vision and Pattern Recognition(CVPR,2022),计算机视觉顶级会议。摘要:在线课堂增量持续学习旨在从一个永无止境的单通道数据流中不断学习新课程,同时不忘记旧课程的学习知识。现有的基于经验回翻译 2018-09-01 18:33:52 · 2168 阅读 · 1 评论 -
数据增强:自动增强-从数据中学习增强策略
题目:AutoAugment:Learning Augmentation Strategies from Data出处:IEEE Conference on Computer Vision and Pattern Recognition(CVPR,2019),计算机视觉顶级会议。摘要:数据增强是提高现代图像分类器精度的有效技术。然而,当前的数据增强实现是手动设计的。在本文中,我们描述了一个称为AutoAugment的简单过程,以自动搜索改进的数据增强策略。在我们的实现中,我们设计了一个搜索空间,其中翻译 2019-08-21 11:56:15 · 1591 阅读 · 1 评论 -
数据增强:具有自预测表示的数据高效强化学习
题目:Data-Efficient Reinforcement Learning with Self-Predictive Representations出处:International Conference on Learning Representations (ICLR,2021),深度学习顶级会议。摘要:虽然深度强化学习擅长解决通过与环境几乎无限的交互来收集大量数据的任务,但从有限的交互中学习仍然是一个关键挑战。我们假设,如果我们基于视觉输入的结构和与环境的顺序交互,通过自我监督的目标来增强翻译 2022-05-16 16:46:41 · 2306 阅读 · 2 评论