笔记
文章平均质量分 79
CwwwwS
这个作者很懒,什么都没留下…
展开
-
C++ 双目图像三维重建 转点云以及可视化
看看啥时候把这个总结整理一下原创 2022-06-21 11:03:20 · 1214 阅读 · 7 评论 -
牛客网输入输出练习-python3
牛客网输入输出练习-python3大家平时刷题大多都是在leetcode 上刷,leetcode 帮你写好输入输出,你只要写一个算法函数就行。但是往往面试笔试的时候在牛客网上是需要自己写输入输出的。所以从leetcode 编程习惯转向牛客网的话就需要练习一下常见的输入输出。首先输入 使用只需要一行万能代码就行了:nums = [int(num) for num in input().strip().split()] #数字列表的输入string = [s for s in input().stri原创 2022-03-12 12:02:19 · 1484 阅读 · 0 评论 -
RL 笔记(3)PPO(Proximal Policy Optimization)近端策略优化
RL 笔记(3) PPO基本原理PPO是在基本的Policy Gradient基础上提出的改进型算法Policy Gradient方法存在核心问题在于数据的bias。因为Advantage估计是不完全准确的,存在bias,那么如果Policy一次更新太远,那么下一次采样将完全偏离,导致Policy更新到完全偏离的位置,从而形成恶性循环。因此,TRPO的核心思想就是让每一次的Policy更新在一个Trust Region里,保证policy的单调提升。Policy gradient方法是on poli原创 2022-03-03 15:52:58 · 2864 阅读 · 0 评论 -
RL 笔记(2) 从Pollicy Gradient、DDPG到 A3C
RL 笔记(2) 从Pollicy Gradient、DDPG到 A3CPollicy GradientPolicy Gradient不通过误差反向传播,它通过观测信息选出一个行为直接进行反向传播。 通过更新 Policy Network 来直接更新策略的。实际上就是一个神经网络,输入是状态,输出直接就是动作(不是Q值)。而是利用reward奖励直接对选择行为的可能性进行增强和减弱,好的行为会被增加下一次被选中的概率,不好的行为会被减弱下次被选中的概率。一般输出有两种方式:一种是概率的方式,即输出某一个原创 2022-03-02 22:12:19 · 966 阅读 · 0 评论 -
RL笔记 DQN 系列
RL 笔记 DQN 系列DQN使用一个Q Network来估计Q值,从而替换了 Q-table,完成从离散状态空间到连续状态空间的跨越。Q Network 会对每一个离散动作的Q值进行估计,执行的时候选择Q值最高的动作(greedy 策略)。并使用 epslion-greedy 策略进行探索(探索的时候,有很小的概率随机执行动作),来获得各种动作的训练数据。double DQN针对DQN中 由于函数近似误差导致得Q 值高估和次优策略。按理来说,一个状态的估值应该是这个状态下所有动作估值的数学期望原创 2022-03-01 16:06:16 · 352 阅读 · 0 评论 -
RL 笔记 从 Q-learning 、Sarsa 到 DQN
RL 笔记 从 Q-learning 、Sarsa 到 DQNQ-LearningQ-Learning 是一个强化学习中一个很经典的算法,就是用一张表存储在各个状态下执行各种动作能够带来的 reward,如下表表示了有两个状态 s1,s2 每个状态下有两个动作 a1,a2 表格里面的值表示在对应状态下采取动作之后的 reward-a1a2s1-12s2-52这个表示实际上就叫做 Q-Table,里面的每个值定义为 Q(s,a) 表示在状态 s下执行动作 a原创 2022-03-01 15:54:43 · 923 阅读 · 0 评论 -
安装显卡驱动后 重新安装pytorch 后torch.cuda.is_available() 返回false 无法调用cuda
更换显卡之后,安装驱动 参考然后重新使用conda 安装 pytorch 之后import torchprint(torch.cuda.is_available())返回false再尝试重新安装显卡驱动、安装CUDA 、更换各种版本的pytorch无果后卸载pytorchconda uninstall pytorch使用 pip 安装pip install torch==1.8.1+cu111 torchvision==0.9.1+cu111 torchaudio==0.8.1 -f原创 2022-02-23 11:41:01 · 1079 阅读 · 2 评论 -
TypeError: only integer scalar arrays can be converted to a scalar index
TypeError: only integer scalar arrays can be converted to a scalar index问题描述:在经验池中的 state 从之前的单个array,重新设计为 三个array 组合成为的一个list所以list在面对随意采样索引出现报错:TypeError: only integer scalar arrays can be converted to a scalar index问题解决:将list 转换为 array就行错误代码为ma原创 2022-01-19 11:43:10 · 985 阅读 · 0 评论 -
ROS多机局域网通信
ROS多机局域网通信的简单测试服务端# 以10hz的频率发布 /test_client topic 类型为String 数据为 '123'rostopic pub -r 10 /test_client std_msgs/String "data: '123'"客户端export ROS_IP=${本机IP} #例如 export ROS_IP=192.168.0.5export ROS_MASTER_URI=${服务端IP以及端口} #在roscore中可以看见#例如 export R原创 2022-01-10 19:00:16 · 1424 阅读 · 0 评论 -
ubuntu18.04重装后无法进入图形界面 一直闪烁的解决方法
方法1:https://blog.csdn.net/ITpfzl/article/details/86503219出现这种错误的原因是我昨天安装了nvidia-smi安装包,Ubuntu18.04内核bug导致gdm3和nvidia驱动冲突,使得gdm3无法正常启动图形界面,而gdm不断尝试启动的后果就是屏幕的闪烁。解决的办法1、在当前界面中按Alt+F2 键进入tty2界面,进入界面后输入你的Ubuntu用户名和密码进入终端(Terminal)2、在终端中输入一下命令1)sudo apt-get原创 2022-01-05 17:22:13 · 6620 阅读 · 4 评论 -
[论文笔记]iRotate Active Visual SLAM for Omnidirectional Robots
iRotate: Active Visual SLAM for Omnidirectional RobotsActive Visual SLAM with independently rotating camera静态的相机,限制了视觉信息获取的自由度,本文通过在机器人基座上引入和利用独立旋转的摄像机来克服上述问题。这种额外的自由度引入了额外的估计不确定性,通过扩展机器人的状态估计,以包括摄像机状态和联合估计不确定性,全向机器人的主动视觉SLAM方法,一种多层次的主动V-SLAM方法顶层:目标位置、原创 2022-01-04 17:09:22 · 1557 阅读 · 0 评论 -
[论文笔记]ORB-SLAM2 an Open-Source SLAM System for Monocular, Stereo and RGB-D Cameras
ORB-SLAM2: an Open-Source SLAM System for Monocular, Stereo and RGB-D Cameras本文介绍 ORB-SLAM2ORB-SLAM2 为单目、立体和RGB-D相机提供了一个完整的SLAM系统,包括地图重用、循环闭合和重新定位功能。本文的工作基于 [2015TRO]ORB-SLAM a Versatile and Accurate Monocular SLAM System主要贡献如下:第一个面向单目、立体和RGB-D相机的开原创 2022-01-04 16:53:19 · 1278 阅读 · 1 评论 -
[论文笔记]Episodic Curiosity through Reachability
目前解决稀疏奖励下的强化学习主要有两类方法:一是,利用数据改进 agent 的学习 ,包括已有数据、外部数据等;二是,改进模型,提升模型在大状态、大动作空间下处理复杂问题的能力。具体的,利用数据改进 agent 学习的方法包括好奇心驱动(Curiosity Driven)、奖励重塑(Reward Shaping)、模仿学习(Imitation Learning)、课程学习(Curriculum Learning)等等。改进模型的方法主要是执行分层强化学习(Hierarchical Reinforcement原创 2022-01-04 16:47:58 · 319 阅读 · 1 评论 -
[论文笔记]Learning exploration policies for navigation
Learning exploration policies for navigation任务驱动的导航问题已经得到较好的解决,但是如何有效地探索一个新环境,这就是本文关注的点。本文主要研究了行动体在没有任务奖励的情况下自主探索3D环境。提出一种基于学习的方法,并研究了不同的策略架构、奖励函数和训练模式。视频和代码简单介绍一下 导航:· 基于几何重构和路径规划的方法:基于SLAM的方法,首先构建地图,然后使用定位和路径规划进行导航。但是如何构建地图呢,当前的方法或者使用人类操作员来控制机器人来构建原创 2022-01-04 16:33:23 · 1385 阅读 · 1 评论 -
[论文笔记]Learning To Explore Using Active Neural Slam
LEARNING TO EXPLORE USING ACTIVE NEURAL SLAMProject webpage: https://devendrachaplot.github.io/projects/Neural-SLAMCode: https://github.com/devendrachaplot/Neural-SLAM本文将基于学习的方法和传统的方法融合,学习室内环境的结构规律。核心思想是在探索中能够最大化覆盖范围。主要利用了将长期目标转化为短期目标,并利用局部策略降低了姿态估计错误的鲁原创 2022-01-04 15:42:51 · 2101 阅读 · 2 评论 -
[论文笔记]Feature-constrained Active Visual SLAM for Mobile Robot Navigation
Feature-constrained Active Visual SLAM for Mobile Robot Navigation文主要研究在未知环境下,基于视觉的导航过程中,如何避免跟踪故障。当使用基于特征的视觉同步定位和建图(VSLAM)时,在运动期间需要地图点的连续识别和关联。因此,本文讨论了一个运动规划框架,它考虑了可靠导航的感官约束。本文使用SLAM中可用的信息,并提出一种数据驱动的方法来预测给定姿势中相关的地图点的数量。然后,距离最优路径规划器利用该模型来约束路径,使得每个姿态中的相关地图点原创 2022-01-04 11:17:49 · 1131 阅读 · 1 评论 -
[论文笔记]Curiosity-driven Exploration by Self-supervised Prediction
Curiosity-driven Exploration by Self-supervised Prediction研究问题:在稀疏的reward或者几乎没有reward的环境中,如何让agent更有效地对环境进行探索,甚至学习到一些技能?主要想法:利用’好奇心’作为内在的reward信号来让agent更有效地进行探索,甚至学习到技能解决方案:将’好奇心‘的reward建模成agent对于新状态在visual feature space中的预测与实际状态在visual feature space的表征原创 2022-01-04 11:10:07 · 1434 阅读 · 1 评论 -
[论文笔记]On the Importance of Uncertainty Representation in Active SLAM
On the Importance of Uncertainty Representation in Active SLAM本文目的在于强调表示和量化不确定性的重要性,来评估机器人行进的每个时间步的位置估计的置信度,从而决定主动SLAM任务中的正确行动路线。分析了二维和三维中不同决策准则的单调性,包括不确定性的表示和机器人姿态的方向。单调性是不确定性随着机器人移动而增加的特性,这对于决策来说是必不可少的。本文分析表明使用微分表示来表示不确定性,所有的优化标准都保持单调性(A-opt、D-opt、 E-op原创 2022-01-03 22:07:16 · 464 阅读 · 1 评论 -
ubuntu18.04 安装 CARLA0.9.10
ubuntu18.04 安装 CARLA0.9.10https://carla.readthedocs.io/en/0.9.10/build_linux/方法1 :Debian 安装1. Set up the Debian repository in the system:sudo apt-key adv --keyserver keyserver.ubuntu.com --recv-keys 1AF1527DE64CB8D9sudo add-apt-repository "deb [arch=a原创 2021-12-23 10:49:52 · 4911 阅读 · 2 评论 -
python 深度图转点云以及可视化
python 深度图转点云 并且可视化# coding=utf-8import numpy as npfrom argparse import Namespacefrom PIL import Imageimport matplotlib.pyplot as pltfrom mpl_toolkits.mplot3d import Axes3Dcamera_matrix = {'xc': 127.5, 'zc': 127.5, 'f': 128}camera_matrix = Names原创 2021-12-21 17:01:41 · 5829 阅读 · 24 评论 -
[论文笔记]Reinforcement learning helps slam: Learning to build maps
Reinforcement learning helps slam: Learning to build maps本文使用强化学习来探索未知环境以及重建地图。对比了三种不同的奖励函数,同时对比了三种不同的基于RL的路径规划器的性能。INTRODUCTION对于未知环境(没有任何现有地图)研究人员开始在这些机器人上开发更多的智能来探索环境,而不是遵循在已知环境中研究的预先定义的路径。以便导航未知环境并共同构建环境地图,当SLAM算法用于实时主动规划机器人路径,同时构建环境地图时,SLAM算法被命名为主动原创 2021-12-20 21:51:34 · 657 阅读 · 0 评论 -
[论文笔记]Episodic Curiosity through Reachability
目前解决稀疏奖励下的强化学习主要有两类方法:一是,利用数据改进 agent 的学习 ,包括已有数据、外部数据等;二是,改进模型,提升模型在大状态、大动作空间下处理复杂问题的能力。具体的,利用数据改进 agent 学习的方法包括好奇心驱动(Curiosity Driven)、奖励重塑(Reward Shaping)、模仿学习(Imitation Learning)、课程学习(Curriculum Learning)等等。改进模型的方法主要是执行分层强化学习(Hierarchical Reinforcement原创 2021-12-20 21:37:51 · 735 阅读 · 1 评论 -
[论文笔记]Past, Present, and Future of Simultaneous Localization and Mapping: Toward the Robust-Percepti
Past, Present, and Future of Simultaneous Localization and Mapping: Toward the Robust-Perception Age本文是一个SLAM的综述。SLAM的基本介绍SLAM 包括对机器体的自身状态估计以及机器体所处环境(地图)的感知建模。其中机器体的自身状态又包括位置、方向、速度、传感器偏差和校准参数等。而地图不但可以用作路径规划和可视化,而且通过回环检测可以来更正定位的偏差。作者将SLAM的发展历史分为经典阶段(19原创 2021-12-20 21:31:21 · 436 阅读 · 0 评论 -
[论文笔记]S2P2 Self-Supervised Goal-Directed Path Planning Using RGB-D Data_2021ICRA
S2P2: Self-Supervised Goal-Directed Path Planning Using RGB-D Datafor Robotic Wheelchairs视频链接基于端到端模仿学习的路径规划的两个局限性: · 需要大量的专家演示作为训练数据 · 现有的方法只能接收高级命令,如左转/右转。对于移动机器人(如机器人轮椅)来说,这些指令可能不够充分,因为它们通常需要精确的目标姿态,就比如向右转面对一个大空地 这个指令描述可能不够准确。本文基于以上两点,提出S2P2 (Self原创 2021-12-20 21:12:40 · 841 阅读 · 0 评论 -
[论文笔记]Self-Supervised Drivable Area and Road Anomaly Segmentation using RGB-D Data for Robo_2019RAL
Self-Supervised Drivable Area and Road Anomaly Segmentation using RGB-D Data for Robotic Wheelchairs为了训练一个深度神经网络,通常需要一个带有人工标注的地面真值的大规模数据集。然而,生成这样的数据集既费时又费力。为了解决手动贴标耗时耗力的问题。本文旨在 通过自监督方法自动生成可行驶区域和道路异常的分割标签。这个RGB-D相机同时输出RGB图像和深度图像。本文提出一种自监督的方法来分割可行驶区域和道原创 2021-12-20 20:58:27 · 685 阅读 · 0 评论 -
[论文笔记]Multixnet Multiclass multistage multimodal motion prediction
MultiXNet: Multiclass Multistage Multimodal Motion PredictionMultiXNet 一种端到端的检测与运动预测模型。如下图模型根据激光雷达和地图的输入数据,输出则是场景中其他参与者未来状态的多模态分布。本文的工作建立在IntentNet的基础上,对多种类型的交通参与者例如车辆、行人、自行车的联合检测和运动轨迹预测。bird’s-eye view (BEV)和 Range view (RV)是对激光雷达点云数据的两种表示,具体的描述在上一篇论原创 2021-12-08 12:05:25 · 336 阅读 · 0 评论 -
[论文笔记]Multi-View Fusion of Sensor Data for Improved Perception and Prediction in Autonomous Driving
Multi-View Fusion of Sensor Data for Improved Perception and Prediction in Autonomous Driving本文融合了激光雷达信息和栅格化的高清地图的特征进行端到端目标检测和轨迹预测。改方法建立在最新的BEV网络上。现在的一些方法将目标检测和运动轨迹预测分为两个部分,并且单独训练。而作者认为这样的多级系统可能会由于缺乏特性共享而增加系统延迟,并存在级联错误。而本文就是使用单个端到端系统来执行这两个任务的联合模型。现在端到端模原创 2021-12-08 12:05:14 · 518 阅读 · 0 评论 -
[论文笔记]Learning How to Autonomously Race a Car A Predictive Control Approach
Learning How to Autonomously Race a Car A Predictive Control Approach本文提出一种学习模型预测控制器(LMPC),将驾驶问题建模成一个最小时间迭代控制任务。通过设计的自动驾驶控制器,控制器控制车辆沿着赛道行驶,而目标就是使得行驶赛道一圈的时间最少。该策略在每个时间步更新终端成本和约束。特别地,在每个时间t,利用时间t−1的计划轨迹来构建一个本地终端成本和约束。本文还提出了一个系统识别策略,利用运动学方程和先前迭代的数据来识别用于控制的原创 2021-12-08 12:05:01 · 438 阅读 · 1 评论 -
[论文笔记]Probabilistic End-to-End V ehicle Navigation in Complex Dynamic Environments with Multi
Probabilistic End-to-End V ehicle Navigation in Complex Dynamic Environments with Multimodal Sensor Fusion本文提出了一个具有多模态感知能力的基于模仿学习的概率驾驶模型。作者认为之前的一些端到端驱动得方法存在三个不足:·纯相机在很多情况下不鲁棒,所以得加入雷达·非确定性是控制的关键,没有很好地探索可执行行动的概率本质,大多数决策输出确定性命令到车辆·自动驾驶的评价应该放在在线评估而不是离线评估原创 2021-12-07 21:50:04 · 822 阅读 · 0 评论 -
[论文笔记]Multi-View 3D Object Detection Network for Autonomous Driving
Multi-View 3D Object Detection Network for Autonomous Driving本文提出一种多模态的3D目标检测,融合了视觉和雷达点云信息。和以往基于voxel的方法不同,它只用了点云的俯视图和前视图,这样既能减少计算量,又不至于丧失过多的信息。随后生成3D候选区域,把特征和候选区域融合后输出最终的目标检测框。作者认为基于LIDAR点云的方法通常可以获得更准确的3D目标位置,而基于图像的方法就2D目标评估具有更高的精度。整体架构如下图所示,多模态3D检测网络由原创 2021-12-07 21:43:38 · 2856 阅读 · 0 评论 -
[论文笔记]End-to-End Learning of Driving Models withSurround-View Cameras and Route Planners
End-to-End Learning of Driving Models withSurround-View Cameras and Route Planners作者认为,在自动驾驶中单单使用前向摄像头的图像无法反映所有驾驶信息,不足以学习安全的驾驶模型,所以本文开发了360度视角的传感器设置。而仅凭借相机图像依旧无法完成安全的自动驾驶,所以需要更加顶层的驾驶命令。本文通过全局路线来作为路线规划器提供顶层命令。本文采用的是端到端的驾驶模型,从摄像头和路线规划器的输入直接输出驾驶控制。模型结构如下所示。原创 2021-12-07 21:37:41 · 389 阅读 · 0 评论 -
[论文笔记]End-to-end Driving via Conditional Imitation Learning
End-to-end Driving via Conditional Imitation Learning 模仿学习的一个假设: 最优的动作可以由观察推断出来。但是实际显然是不成立的,就好比在面对十字路口时,单凭摄像头图像不足以得出汽车改左转、右转还是直行。从数学函数的角度来说,输入的图像到输出的控制不再是一一映射了。所以单单使用神经网络处理会遇到困难,导致震荡。就算神经网络可以解决一些模糊性,但也可能得不到人类想要的结果。 本文采用一个条件模仿学习来解决这个问题。在训练时,模型不仅原创 2021-12-07 21:32:51 · 668 阅读 · 0 评论 -
[论文笔记]VTGNet A Vision-based Trajectory Generation Network for Autonomous Vehicles in Urban Environ
VTGNet A Vision-based Trajectory Generation Network for Autonomous Vehicles in Urban EnvironmentsP. Cai, Y. Sun, Y. Chen, and M. Liu, “Vision-based trajectory planningvia imitation learning for autonomous vehicles,” in 2019 IEEE IntelligentTransportatio原创 2021-12-07 21:26:00 · 2697 阅读 · 0 评论 -
[论文笔记]Vision-Based Trajectory Planning via Imitation Learning for Autonomous Vehicles
Vision-Based Trajectory Planning via Imitation Learning for Autonomous Vehicles基于视觉的模仿学习路径规划器。由三个子网络组成,分别执行 直行、左转、右转的任务。规划过程中,由接受的高级命令来选择特定的子网。人类驾驶过程中,通常通过导航软件得知要行驶的方向。例如下一个路口左转。基于这一现象本文提出,根据高级驾驶命令通过基于视觉的模仿学习拉规划路径。第一类中的大部分都是基于地图构建的,因此需要在计算资源的限制下动态地进行更新原创 2021-12-07 21:21:16 · 2227 阅读 · 0 评论 -
[论文笔记]We Learn Better Road Pothole Detection:from Attention Aggregation to Adversarial Domain Adapt
We Learn Better Road Pothole Detection:from Attention Aggregation to Adversarial Domain Adaptation目前的坑洼检测,大多为人工进行一个主观的判定检测。本文提出了视差变换算法可以很好地区分有坑洼和无坑洼道路区域。并且能够轻松部署到其他语义分割网络。并且提出一种注意力聚合(attention aggregation,AA)框架。还开发了一种基于对抗域自适应的有效训练集增强技术,生成合成道路RGB图像和变换后的道路视原创 2021-12-07 21:15:04 · 497 阅读 · 0 评论 -
[论文笔记]High-Speed Autonomous Drifting With Deep Reinforcement Learning
High-Speed Autonomous Drifting With Deep Reinforcement Learning漂移任务得大多数传统方法都是基于汽车动力学的运动方程,本文提出得方法基于 “soft actor-critic”。 将漂移问题表述为轨迹跟踪问题。补充知识actor-critic强化学习的算法,从名字上看包括两部分,演员(Actor)和评价者(Critic)。中Actor使用策略函数,负责生成动作(Action)并和环境交互。而Critic使用价值函数,负责评估Actor的表原创 2021-12-07 21:06:52 · 807 阅读 · 0 评论 -
[论文笔记]Agile Autonomous Driving using End-to-End Deep Imitation Learning
Agile Autonomous Driving using End-to-End Deep Imitation Learning2018_RSS从经验上讲,使用在线模仿学习训练的策略比使用批量模仿学习训练的策略克服了与协变量偏移相关的挑战,并且具有更好的概括性。传统方法:plan-then-act 具有挑战性 ,因为很难充分描述机器与环境的相互作用。AutoRally汽车-没有任何状态估算器或在线计划,但具有直接输入来自低成本单筒摄像机和轮速传感器的测量值的DNN策略:驾驶平均速度为6 m /原创 2021-12-07 20:53:32 · 420 阅读 · 1 评论 -
从零开始ORB_SLAM2
文章目录ORB_SLAM2依赖安装安装Pangolin安装依赖必须依赖推荐依赖视频输入可选依赖BuildingSLAM可视化绘图库——Pangolin 的验证安装OpenCV安装Eigen3DBoW2 and g2o (Included in Thirdparty folder)ROS (optional)构建 ORB-SLAM2 库和示例克隆存储库,构建*第三方*库和*ORB-SLAM2*ROS环境下运行ORB_SLAM运行SLAM实例下载数据集编译运行示例单目双目错误记录与解决使用eigen库时出现找不原创 2021-07-29 14:20:20 · 750 阅读 · 1 评论