论文阅读与实现
文章平均质量分 82
主要涉及车间调度相关论文阅读与实现等
码丽莲梦露
专注运筹优化领域工作者
展开
-
模糊时间的柔性车间调度问题-Python实现遗传算法求解
1 问题描述FJSPF(the FJSP with Fuzzy Processing time)可以表述如下:有n 个工件要在 m 台机器上加工。每个工件有ni个工序,每个工件必须按确定的路径完成所有工序,每道工序有1台及以上加工工序,工序的加工时间为模糊时间。1.1 模糊加工时间的运算 当工序加工时间为模糊时间时,要想能很好的排产出来,比如在甘特图上排产,需要一些模糊数运算操作。这些运算包括加法运算、两个模糊数的最大运算和模糊数的排序方法。加法运算用于计算运算的模糊完成时间。最大....原创 2022-05-04 19:00:36 · 3066 阅读 · 0 评论 -
基于AGV的物流作业车间调度优化
文献来源:Iowa State University 2018 博士论文 作者:Shiyang Huang 《Optimization of job shop scheduling with material handling by automated guided vehicle 》1 论文简介这篇博士论文主要包含以下三项研究:第一个研究中的AGV调度问题,我们提出了一系列基于网络优化、缩短作业等待时间的AGV调度策略。在第二个研究中,建立了一个全面的JSSMH模型,并提出了一种启发式算法原创 2022-04-26 17:23:07 · 2589 阅读 · 1 评论 -
基于深度强化学习的柔性作业车间动态调度
在追求敏捷和灵活的生产调度方面,处理不可预测的动态事件的能力变得越来越重要。与此同时,生产系统中的网络-物理融合产生了大量需要实时挖掘和分析的工业数据。为了便于这种实时控制,本研究提出了一种分层分布式的体系结构来解决动态柔性作业车间调度问题。采用双深度Q网络算法(DDQN)训练调度智能体,捕捉生产信息与调度目标之间的关系,为具有恒定任务到达的柔性作业车间实时做出调度决策。为了处理动态调度中问题的可变规格说明,提出了专门的状态和动作表示法。此外,还提出了一种代理奖励整形技术(surrogate reward原创 2022-04-14 19:31:51 · 9386 阅读 · 42 评论 -
AGV调度研究(部分论文提供了个人python复现)
1 问题简述1.1 GA+启发式(VAA):《A hybrid GA/heuristic approach to the simultaneous scheduling of machines and automated guided vehicles》(2007/IJPR/Tamer F. Abdelmaguid)编码:所研究问题的第一部分即工序调度的结构在理论上类似于作业车间调度问题,因此采用基于工序的编码。车辆分配和调度部分由一种称为车辆分配算法(VAA)的启发式算法来处理。VAA从.原创 2022-03-26 15:24:54 · 7424 阅读 · 3 评论 -
用python实现基于遗传算法求解带AGV的作业车间调度问题
1 项目描述针对带AGV的作业车间调度问题,以最小化完工时间为目标,考虑AGV在装载站、机器、卸载站之间的有效负载时间和空载时间,采用遗传算法进行求解,设计了面向工件运输次数的一维编码,和面向工件运输的驱动解码,以此来联动工件排序和AGV指派两个调度子问题,达到接近最优解的效果。算法采用Bilge和Ulusoy等人设计的40个算例进行验证。算例下载可前往个人CSDN:机器人作业车间的算例JSP_Transbot.zip-制造文档类资源-CSDN文库进行下载。或前往个人Github下载完整代码包含原创 2022-02-19 12:05:24 · 4948 阅读 · 11 评论 -
基于混合DQN的运输资源不足柔性作业车间实时数据驱动动态调度
本文研究了运输资源不足的动态柔性作业车间调度问题(DFJSP-ITR),以最小化完工时间和总能耗为目标。为了使Agent学习根据每个决策点的生产状态选择合适的规则,提出了一种混合深度Q网络(HDQN),该网络将深度Q网络与三次扩展相结合。Robotics and Computer-Integrated Manufacturing/20221 简介本文研究了运输资源不足的动态柔性作业车间调度问题(DFJSP-ITR),以最小化完工时间和总能耗为目标...原创 2021-12-11 10:06:48 · 2308 阅读 · 3 评论 -
基于dual Q-learning 的装配时间不确定装配作业车间自适应调度
针对装配作业车间生产环境的不确定性,结合强化学习的实时性,针对装配作业车间调度问题,提出了一种双Q学习(dual Q learning,D-Q)方法,通过自学习来增强对环境变化的适应性。在最小化总加权提前惩罚和完工时间成本的目标函数的基础上,顶层Q-学习着眼于局部目标,以求最小机器闲置和均衡机器负载的调度策略;底层Q-学习,侧重于全局目标,以学习最优调度策略,使所有作业的整体提前时间最小。原创 2021-12-07 18:07:02 · 1910 阅读 · 0 评论 -
DQN学习使用混合规则的柔性车间AGV实时调度(关注点:状态、奖励函数的设置)
本文针对对象为柔性车间,提出了一种基于混合规则的自适应深度强化学习(DRL) AGV实时调度方法,以最小化完工时间和延迟率为目标。原创 2021-12-06 22:08:15 · 2823 阅读 · 1 评论 -
基于多智能体强化学习的自动化集装箱码头无冲突AGV路径规划
AGV冲突预防路径规划是提高集装箱码头运输成本和运营效率的关键因素。研究了集装箱自动化码头(ACTS)水平运输区自动导引车(AGV)的防冲突路径规划问题。根据磁钉导引AGVS的特点,构建了节点网络。通过对对向冲突和同点占领冲突两种冲突情况的分析,建立了求解最短路径的整数规划模型。针对这一问题,提出了多Agent深度确定性策略梯度(MADDPG)方法,并采用Gumbel-Softmax策略对节点网络产生的场景进行离散化。通过一系列的数值实验,验证了模型和算法的有效性和高效性。原创 2021-11-27 22:05:20 · 5881 阅读 · 2 评论 -
基于强化学习的多智能体框架在路由和调度问题中的应用
本文提出了一个使用元启发式算法进行优化的多智能体框架,AMAM.在该方案中,每个智能体在组合优化问题的搜索空间中独立行动。Agent通过环境共享信息并相互协作。目标是使Agent能够根据与其他Agent和环境交互时获得的经验,使用强化学习的概念来修改他们的动作。为了更好地介绍和验证AMAM框架,本文使用了带时间窗的车辆路径问题(VRPTW)和带顺序调整时间的并行机调度问题(UPMSP-ST)这两个经典的组合优化问题。实验的主要目的是评估所提出的自适应Agent的性能。原创 2021-11-22 22:42:34 · 2880 阅读 · 0 评论 -
自动化装配车间(automated assemby shop)动态路径规划的混合算法——考虑车间布局的动态变化(dynamic layout)
《A hybrid approach for dynamic routing planning in an automated assembly shop》Robotic and Computer-Integrated Manufacturing/20101 摘要动态作业车间作业的高度动荡环境影响着车间布局以及制造作业。由于布局变化的动态特性,在重新配置车间布局时,除了考虑材料处理和机器搬迁的成本问题外,还需要考虑诸如对变化的适应性和响应性等基本要求。本文根据不确定性的来源,将车...原创 2021-11-16 11:36:20 · 1289 阅读 · 0 评论 -
MAGNet: 面向深度多智能体强化学习(MADRL)的多智能体图网络(Graph Network)
《MAGNet:Multi-agent Graph Network for Deep Multi-agent Reinforcement Learning》[2012.09762] MAGNet: Multi-agent Graph Network for Deep Multi-agent Reinforcement Learning (arxiv.org)https://arxiv.org/abs/2012.09762 这篇文章提出了一种新的多智能体强化学习方法,称为MAGNet,它利用...原创 2021-11-15 10:36:06 · 2555 阅读 · 0 评论 -
作业车间问题的调度学习:使用图神经网络(GNN)和强化学习(RL)的表示和策略学习
《Learning to schedule job-shop problems:representation and policy learning using graph neural network and reinforcement learning》Internation Journal of production research/20211 摘要我们提出了一个使用图神经网络(GNN)和强化学习(RL)来学习调度作业车间问题(JSSP)的框架。为了考虑JSSP的结构,我...原创 2021-11-09 17:04:04 · 4935 阅读 · 3 评论 -
Deep Q-learning的发展及相关论文汇总(DQN、DDQN,Priority experience replay 等)
在DQN提出之前,强化学习与神经网络的结合遭受着不稳定和发散等问题的困扰。DQN做了以下改进: (1)使用memory replay 和 target network 稳定基于DL的近似动作值函数; (2)使用reward来构造标签,解决深度学习需要大量带标签的样本进行监督学习的问题 标准DQN利用max操作符使得目标值过高估计,于是下面这篇文献提出了Double DQN用于平衡值估计。Deep Reinforcement...原创 2021-11-06 18:54:41 · 1865 阅读 · 0 评论 -
State Abstaction:面向MDP的统一状态抽象理论
《Towards a UnifIed Theory of State Abstraction for MDPs》LIhong Li Thomas J.Walsh Michael L.Littman获取原文的链接http://rbr.cs.umass.edu/aimath06/proceedings/P21.pdf1 摘要状态抽象(或状态聚合(state aggregation))在人工智能和运筹学领域得到了广泛的研究。相对于在基态空间中工作...原创 2021-11-03 11:55:10 · 419 阅读 · 3 评论 -
多智能体深度强化学习(MADRL)在大规模交通信号灯控制中的应用
《Multi-Agent Deep Reinforcement Learning for Large-Scale Traffic Signal Control》IEEE Transaction on Intelligent tansportation systems/2020论文及代码链接https://arxiv.org/abs/1903.045271摘要强化学习(RL)是解决复杂城市交通网络中自适应交通信号控制(ATSC)的一种很有前途的数据驱动方法,而深度神经网络进一...原创 2021-11-02 17:49:42 · 3287 阅读 · 5 评论 -
论文阅读|《强化学习在加工时间可变的机器人流水车间调度中的应用》
《Reinforcement Learning for robotic flow shop scheduling with processing time variations》International Journal of Production Research/20211 摘要我们解决了一个机器人流水车间调度问题,其中两种零件类型在每组给定的专用机器上进行处理。单个机器人在固定轨道上移动,一次运输一个部件,在给定的时间间隔内,这些部件在机器上的加工时间各不相同。我们使用强化...原创 2021-10-20 18:26:55 · 2119 阅读 · 0 评论 -
论文阅读|用于不同问题的MADDPG算法框架系列论文汇总
MADDPG论文阅读:论文阅读|《Multi-Agent Actor-Critic for Mixed Cooperative-Competitive Environments》(NeurlPS,2017)(MADDPG)论文1 《A Data-Driven Multi-Agent Autonomous Voltage Control Framework Using Deep Reinforcement Learning》#原创 2021-10-14 22:13:56 · 2572 阅读 · 0 评论 -
论文阅读|《Multi-Agent Actor-Critic for Mixed Cooperative-Competitive Environments》(NeurlPS,2017)(MADDPG)
论文获取可点击此处https://arxiv.org/abs/1706.02275v21 摘要 首先分析了传统算法在多Agent情况下的困难:Q-学习受到环境固有的非平稳性的挑战,而策略梯度受到随着Agent数量的增加而增加的方差的影响。提出了一种对Actor-Critic算法的适应,该方法考虑了其他Agent的行动策略,并且能够成功地学习需要复杂的多Agent协调策略。此外,我们引入了一种训练方案,该方案利用每个代理的策略集成,从而产生更健壮的多代理策略。我们展示了与现有方法相比,我们的...原创 2021-10-13 16:48:34 · 1559 阅读 · 0 评论 -
论文阅读|两人零和马尔可夫博弈的在线极大极小Q网络学习《Online Minimax Q Network Learning for TZMGs》
文章获取https://doi.org/10.1109/TNNLS.2020.3041469<Online Minimax Q Network Learning for Two-Player Zero-Sum Markpv Games>IEEE TRANSACTION ON NEURAL NETWORKS AND LEARNING SYSTEMS/20201 摘要 这篇文章首先将问题表述为Bellman极小极大方程,广义策略迭代(generalized policy...原创 2021-10-09 21:53:22 · 2667 阅读 · 4 评论 -
用Python实现基于遗传算法(GA)求解混合流水车间调度问题(HFSP)
之前一直研究的是柔性作业车间调度问题,研究汇总如下:用python实现基于遗传算法求解柔性作业车间调度问题代码实现(包括标准算例准换、编码、解码、交叉、变异的详细讲述)用python实现基于蚁群算法求解带准备时间的双资源约束柔性作业车间调度问题用Python实现带运输时间准备时间的MSOS染色体解码(FJSP)Tensorflow2.0|基于深度强化学习(DQN)实现动态柔性作业车间调度问题(DFJSP)用Python实现论文《考虑装卸的柔性作业车间双资源调度问题》的降准解码算法今天,来讲.原创 2021-09-11 19:29:29 · 15883 阅读 · 28 评论 -
论文阅读|《制造环境下多AGV调度的强化学习方法》
《A Reinforcement Learning Method for Multi-AGV Scheduling in Manufacturing》ICIT/20181 摘要 这篇文章提出用强化学习求解多AGV流水车间调度问题。AGV在固定轨道上移动,在机器之间运输半成品(semi-finished product)。 目标:最小化平均工件延迟和总完工时间。2 论文解读 强化学习算法应用于车间调度问题的难点: ...原创 2021-09-02 16:39:08 · 1630 阅读 · 0 评论 -
论文阅读|图神经网络+Actor-Critic求解静态JSP(End-to-End DRL)《基于深度强化学习的调度规则学习》(附带源码)
《Learning to Dispatch for Job Shop scheduling via Deep Reinforcemnet Learning》NeurIPS 20201 摘要优先调度规则(Priority dispatching rule,PDR)广泛用于求解JSSP问题,这篇文章通过端到端的深度强化学习代理来自动学习PDR。利用JSSP的析取图表示,提出了一种基于图神经网络(Graph Neural Network,GNN)的方案来嵌入求解过程中遇到的状态。由此产生的策略网络与大原创 2021-08-19 22:53:30 · 3890 阅读 · 22 评论 -
Tensorflow2.0|基于深度强化学习(DQN)实现动态柔性作业车间调度问题(DFJSP)
注:本文的python实现基于论文《Dynamic scheduling for flexible job shop with new job insertions by deep reinforcement learning》论文详情可见:论文阅读|《用强化学习求解带插单的动态FJSP》其他相关阅读可见个人CSDN专栏之《论文阅读与实现》,如:论文阅读|《基于加权Q学习算法的自适应车间调度策略》论文阅读|《基于仿真的具有批次放行和扩展技术优先约束的动态作业车间调度问题调度规则研究》论文原创 2021-07-13 11:07:17 · 11005 阅读 · 56 评论 -
论文阅读|《基于加权Q学习算法的自适应车间调度策略》
《Adaptive job shop scheduling strategy based on weighted Q-learning algorithm》Journal of Intelligent Maunfacturing/20201 摘要问题:作业车间动态、不确定性方法:提出一种包括机器、缓冲区、状态和工件的多Agent动态调度系统,采用基于聚类和动态搜索的加权Q学习算法来确定最合适的操作对生产进行优化。为解决系统状态变化带来的大状态空间问题,提出了4种状态特征,状态空间的范围缩小通原创 2021-07-03 14:39:34 · 1460 阅读 · 2 评论 -
用python实现基于遗传算法求解柔性作业车间调度问题代码实现(包括标准算例准换、编码、解码、交叉、变异的详细讲述)
FJSP标准算例转换代码链接:https://blog.csdn.net/crazy_girl_me/article/details/116058503GA求解FJSP编码和初始化链接:https://blog.csdn.net/crazy_girl_me/article/details/116058503绘制甘特图:https://blog.csdn.net/crazy_girl_me/article/details/110895843GA求解FJSP的交叉变异操作:https://b原创 2021-06-23 17:26:07 · 17618 阅读 · 7 评论 -
论文阅读|《用强化学习求解带插单的动态FJSP》
《Dynamic scheduling for flexible job shop with new job insertions by deep reinforcement learning》Applied Soft Computing Journal/2020这篇文章使用DRL来解决带新件插入的DFJSP问题,目标为最小化总拖期,贡献如下:(1)使用在[0,1]中取值的七个通用特征表示每个重调度点的状态。(2)设计了六个组合规则(动作)来确定下一步要处理的工序和分配的机器。(3)提出了一种深原创 2021-06-06 11:52:02 · 4559 阅读 · 12 评论 -
论文阅读|《面向多目标柔性作业车间调度的强化学习NSGA-Ⅱ算法》
《面向多目标柔性作业车间调度的强化学习NSGA-Ⅱ算法》 重庆大学学报/20211 多目标柔性作业车间调度模型考虑的目标:(1)最大王时间(2)机器总负荷(3)瓶颈机器负荷2 算法设置NSGA-Ⅱ过程:首先对Pt执行选择、交叉、变异操作形成种群Qt,并将两个种群合并为种群Rt,然后对种群Rt进行非支配排序形成多个前列面Fi,并从高到底依次胶乳新一代种群Pt+1,当Fi加入使得种群超出规模大小时,依据拥挤度从大到小将个体加入新一代种群Pt+1。...原创 2021-06-04 11:23:24 · 2126 阅读 · 16 评论 -
论文阅读|《 基于强化学习的自适应遗传算法求解柔性作业车间调度问题》
《A self-learning genetic algorithm based on reinforcement learning for flexible job shop scheduling problem》Computers & Industrial Engineering/2021论文出发点:传统求解方法的关键参数不能动态调整导致求解效率和求解速度不能达到预期效果。方法:用强化学习(SARSA算法和Q学习)优化参数 。1 基本算法1.1 遗传算法编码:MS、O原创 2021-06-01 21:19:13 · 5230 阅读 · 39 评论 -
智能制造的生产运营管理
本文来自课程:智能制造的生产运营管理主讲人:江志斌 博士上海交通大学 工程系统管理研究院院长上海交通大学安泰经管学院 特聘教授教育部长江学者特聘教授 2020年11月7日 主要内容:生产运营管理:发展回顾与启示智能制造的生产运营管理特征智能制造生产运营管理的机遇与挑战智能制造生产运营管理存在的三大问题总结生产运营与生产运营管理的内涵:生产运营/生产运作:一切社会组织将投入的生产要素转化、增值为用户所需要的输出(产品、服务),并对转换环节进行控制的...原创 2021-02-08 15:12:53 · 4745 阅读 · 4 评论 -
用python实现柔性作业车间调度基础数据(如Brandimarte_DATA、DAUZERE_DATA、Hurink_DDATA)的准换,转换为标准可用算例
算例形式如下:算例说明:第一行至少两个数字:第一个数字表示工件数、第二个数字表示机器数、第三个数字表示每道工序平均可有几台机器加工接下来每一行表示一个工件的各工序可用机器情况。。。。转换的代码:(用的时候记得换成自己的路径)import osimport sysimport numpy as npimport random#需要解决的问题#传入的path为当前文档所在路径之后的拼接路径def Get_Problem(path): if os.path.原创 2021-04-23 15:45:44 · 8030 阅读 · 13 评论 -
*用python实现改遗传算法解柔性作业车间调度问题的完整编码(用8*8和mk01做测例)(改进版本)
GA主程序:import numpy as npimport randomfrom Decode_for_FJSP import Decodefrom Encode_for_FJSP import Encodeimport itertoolsimport matplotlib.pyplot as pltclass GA: def __init__(self): self.Pop_size=300 #种群数量 self.P_c=0.8原创 2021-03-15 14:34:00 · 11158 阅读 · 67 评论 -
用python实现利用改进遗传算法求解FJSP染色体解码部分(改进版本)
之前的解码可能会出现解码不正确的现象导致甘特图出来有些问题,现在给出改进版本:就直接上代码了:Job类代码class Job: def __init__(self,Job_index,Operation_num): self.Job_index=Job_index self.Operation_num = Operation_num self.Processed=[] self.Last_Processing_end_ti原创 2021-03-14 14:52:55 · 4160 阅读 · 13 评论 -
用python实现改遗传算法解柔性作业车间调度问题的编码和初始化(改良版本)
之前码的版本好多小伙伴都说有问题,现在我从以下几个方面做了一些小小的改进:(1)通通性,之前的版本针对工序不同的工件,我是将它化为一样的工序长度,显然复杂度和效率升高了不少,尤其是对更大规模的问题。(2)针对有的同学提出了我之前犯的错误做了修改。(3)提高了代码的使用性能,采用类来编码,直接用就可以了,无需对内部内容进行修改。好了,直接上代码:import numpy as npimport randomclass Encode: def __init__(self,Ma原创 2021-03-14 11:21:44 · 6009 阅读 · 17 评论 -
用python绘制车间调度的甘特图(JSP)
之前都是写调度问题,今天给一个使用代码,也就是搞调度问题通常也不可 避免会用到的————甘特图首先,调用模块import matplotlib.pyplot as plt直接上代码,哈哈哈,废话不多说了def gatt(CHS,Processing_time,Setup_time,Transpotation_time,M_num,O_Max_len,J_num): D=Decode_Matrix(CHS, Processing_time, Setup_time, Transpotation_原创 2020-12-08 21:51:42 · 6809 阅读 · 7 评论 -
python实现改遗传算法解柔性作业车间调度问题的编码和初始化
编码就是将问题的解用一段码来表示,从而将问题的状态空间与算法的编码空间相对应。 编码的目的是为了实现算法的交叉、变异等类似生物界的遗传操作。我个人认为初始化以及明晰的编码方式是每个初学者进入智能优化算法学习的敲门砖,因此,本文从次开始,详细讲解编码及初始化方式,帮初入门的同学,能更快的入门。原创 2020-09-29 16:42:04 · 17067 阅读 · 18 评论 -
用python实现改进遗传算法求解的FJSP问题的8*8测试实例
测试数据:文章中结果: 这个例子比较满意的结果为16,或则也存在更优的结果代码如下:import numpy as npimport matplotlib.pyplot as pltimport randomimport itertools#全局初始化def Global_initial(T0,O,GS,MS,n,M,OS_list,OS): Machine_time = np.zeros(M,dtype=floa...原创 2020-10-14 16:19:10 · 1869 阅读 · 20 评论 -
用python实现改进遗传算法求解FJSP问题的完整编码
学习目标:上两篇内容写了遗传算法求解FJSP算法的编码和初始化以及解码方式,今天把完整的算法代码放上来,与大家一块学习。算法的基本步骤:代码:import numpy as npimport matplotlib.pyplot as pltimport randomimport itertools#全局初始化def Global_initial(T0,O,GS,MS,n,M,OS_list,OS): Machine_time = np.zeros(M..原创 2020-10-10 15:17:07 · 7024 阅读 · 19 评论 -
用python实现利用改进遗传算法求解FJSP染色体解码部分
项目场景:上次,我讲述了遗传算法应用在车间调度中的编码方式,今天,我讲一下解码,参考书目依然是高亮的《柔性作业车间调度智能算法及应用》解码方式:代码如下:import numpy as npimport randomT0_1=12 #染色体长度的一半N=4 #工件数L=[ [[2,3,4,9999,9999,9999],[9999,3,9999,2,4,9999],[1,4,5,9999,9999,999原创 2020-10-08 11:27:08 · 5619 阅读 · 10 评论