学习笔记
文章平均质量分 83
Late May
清华大学运筹学在读硕士
展开
-
多臂老虎机(Multi-armed Bandit)MAB学习笔记
提示:文章写完后,目录可以自动生成,如何生成可参考右边的帮助文档文章目录前言一、MAB是什么?二、辅助反馈 auxiliary feedback3种经典的feedback三、reward modelIID rewardsAdversarial rewardsconstrained adversaryrandom-process rewardsstructured rewards总结前言本文中的一些参考资料图片来自北京大学前沿计算研究中心李济宸博士的PPT,再次感谢大佬!提示:以下是本篇文章正文原创 2022-03-06 19:58:05 · 1653 阅读 · 0 评论 -
Python Bytes转化
提示:文章写完后,目录可以自动生成,如何生成可参考右边的帮助文档文章目录读取二进制文件一、Python Bytes to Int二、Python Bytes to String三、Python Bytes to Time读取二进制文件提示:在计算机中存储Bytes往往是更加节省空间的,但是在我们进行读取时需要解码。 filepath='F:/2021.gps' binfile = open(filepath, 'rb') #打开二进制文件 buf = binfile.read(原创 2022-02-16 11:04:10 · 1786 阅读 · 0 评论 -
交通流特征工程小技巧与思考
提示:文章写完后,目录可以自动生成,如何生成可参考右边的帮助文档文章目录前言一、交通流是什么?二、特征工程是什么?三、处理数据时的一些小技巧四、一些常用的机器学习python库总结前言小编最近参与了一些工程方面的工作,感触颇深,也逐渐意识到了一些做工程和做研究的区别,作为一个OR人,当面对工程问题时,ML也不得不被提上日程,对于一个OR的研究来说,很多参数可以假设,只需合理,但在工程中就需要数据清洗,分析以及准确的预测。今天就对交通流的特征工程方面做一些小小的分享,也欢迎各位大佬一起学习交流提原创 2021-09-17 15:16:16 · 679 阅读 · 0 评论 -
比炒币还香的在线作图工具draw.io
文章目录前言认识工具1. 创建文件2. 具体操作模板展示前言draw.io是一款非常轻量级的在线画图工具,他不像Visio那么笨重,也不像matplotlib一样需要代码,适合各位科研小白上手。由上交大优秀博士张师兄倾情推荐。在线网址如下,那么就让我们来简单的学习一下吧。https://app.diagrams.net/?lang=zh提示:以下是本篇文章正文内容,下面案例可供参考认识工具1. 创建文件这部分不必多言,我们只需要选择把文件存储到自己的设备上即可(当然也可以选择保存在云端.原创 2021-05-13 00:02:09 · 822 阅读 · 0 评论 -
基于英雄联盟寻路背景的A星算法及python实现
文章目录前言一、什么是A星算法?二、算法流程三、python算法实现四、结果展示前言Astar算法是游戏中最常见的寻路算法,比如LOL的自动导航等。一、什么是A星算法?Astar算法是在实际生活和工业应用包括游戏设计等情景中所频繁被使用的一种路径规划算法。算法类似于贪婪最佳优先搜索,因为同样属于启发式算法,通过设定一个估价函数来实现。标准算法计算当前位置上相邻的每个节点,其方向可以是四面也可以是八面,并选择估价函数值成本最低的节点加入数组。添加到新数组的节点将用于搜索更多可行的路径。A*搜索算.原创 2021-03-27 20:03:33 · 1820 阅读 · 2 评论 -
强化学习系列之Q learning(王者荣耀视角)
文章目录前言一、类似于梯度下降的更新规则二、使用步骤1.引入库2.读入数据总结前言提示:本章介绍Q learning算法,它是一种价值导向的强化学习算法,其提示:以下是本篇文章正文内容,下面案例可供参考一、类似于梯度下降的更新规则二、使用步骤1.引入库代码如下(示例):import numpy as npimport pandas as pdimport matplotlib.pyplot as pltimport seaborn as snsimport warningswa原创 2021-03-02 22:49:08 · 937 阅读 · 0 评论 -
深度学习介绍与DQN
文章目录深度强化学习DQN的说明实现DQN的4个要点经验回放(experience replay)二、使用步骤1.引入库2.读入数据总结深度强化学习DQN的说明Q学习中,对于常见的倒立摆任务中,智能体的状态是对四个变量分别进行离散化转化为数值,动作价值是在时刻t,状态sts_tst下采取动作是将获得的折扣奖励总和。但是Q表的问题就是当状态变量的类型数量增加,每个变量都要被精准的离散化,会导致表格的行数十分巨大,钦此,用表格表示的强化学习很难解决大量状态的任务。于是我们提出了深度神经网络表示动作价值函原创 2021-02-25 20:02:33 · 761 阅读 · 0 评论 -
简述强化学习和智能交通的相遇
文章目录前言Q-learning approach to coordinated optimization of passenger inflow control with train skip-stopping on a urban rail transit lineabstractintroduction1.引入库2.读入数据参考文献前言本人是智能交通的一名硕士研究生,希望将强化学习应用到交通优化,这里介绍一篇经典的强化学习应用到交通上的文章,大家一起学习交流。提示:以下是本篇文章正文内.原创 2021-02-23 23:10:42 · 774 阅读 · 0 评论 -
强化学习预备式
文章目录前言一、Reinforcement Learning简介二、强化学习方法分类1.理解环境(model based)/不理解环境(model free)2.基于概率(policy-based)/基于价值(value-based)总结前言未来希望可以将运筹学和RL结合,所以今天开始学习一下强化学习的相关知识,之前几乎零基础,只有一些机器学习的学习经验 a little一、Reinforcement Learning简介什么是强化学习?强化学习是机器学习的一大分支。强化学习是让计算机实现不断原创 2020-11-23 16:05:21 · 209 阅读 · 1 评论 -
车路review5
文章目录Investigation to Cooperative Collision Warning System Based on CVIS一、ABSTRACT二、INTRODUCTION三 COOPERATIVE VEHICLE INFRASTRUCTURE SYSTEM四 CONCLUSIONInvestigation to Cooperative Collision Warning System Based on CVIS基于CVIS的协同碰撞预警系统研究 2015一、ABST原创 2020-11-21 17:37:56 · 193 阅读 · 0 评论 -
车辆协同定位论文review
提示:文章写完后,目录可以自动生成,如何生成可参考右边的帮助文档文章目录前言一、Cooperative Vehicle Positioning via V2V Communications and Onboard Sensors1.Abstract2. introduction3.step:1.Preliminaries2.Cooperative positioning: principle and examples3. DESIGN DETAILS4.PERFORMANCE EVALUATION4原创 2020-11-19 16:54:46 · 683 阅读 · 0 评论 -
Transportation Research(TR)系列主编汇总
UTD24管理科学 and TR系列主编汇总UTD24和TR介绍UTD24管科TR系列UTD24管科主编介绍TR系列主编介绍TRACo-Editors-in-Chief:Associate EditorsUML 图表FLowchart流程图导出与导入导出导入UTD24和TR介绍德克萨斯大学达拉斯分校(The University of Texas at Dallas, UTD)的纳文·金达尔管理学院创建了一个数据库,用于跟踪24种主要商业期刊上的出版物。该数据库包含1990年以来在这些期刊上发表的论文和原创 2020-11-18 20:05:21 · 7823 阅读 · 0 评论 -
车路协同中无线定位技术学习笔记
文章目录前言一、什么是车路协同?二、什么是无线定位技术?1.无线定位方法分类2.无线定位影响因素三、无线定位测距方法1.常用测距方法2.经典无线定位方法基于测距的定位方法基于非测距的定位方法3. 无线定位性能评价指标四、论文中改进的测距方法参考文献前言最近在上一门ITS的课程(智能交通系统),其中涉及到了一些车路协同的问题研究,所以在这里做一些学习的总结。提示:以下是本篇文章正文内容,内容参考引用北京交通大学硕士论文:车路协同环境下的车辆无线定位方法研究。copyright@高畅 侵权联系作.原创 2020-11-17 16:24:11 · 986 阅读 · 1 评论