自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(15)
  • 收藏
  • 关注

原创 Waymax 安装与使用教程(一)

模拟是以安全和经济的方式开发和基准测试自主车辆规划软件的重要工具。然而,实际仿真需要准确建模微妙且复杂的多智能体互动行为。为了解决这些挑战,Waymax,一种新型的数据驱动自动驾驶多智能体场景模拟器,专为大规模仿真和测试而设计。Waymax使用公开发布的现实世界驾驶数据(例如Waymo Open Motion Dataset )来初始化或回放各种多智能体仿真场景。它完全运行在TPUs/GPUs等硬件加速器上,并支持图内仿真进行训练,适用于现代大规模分布式机器学习工作流程。

2023-11-19 03:04:52 721 3

原创 nuScenes 数据集使用正解(附 nuScenes prediction tutorial 讲解)

nuScenes安装、问题及解决方案,希望对大家有帮助附带预测代码讲解

2023-07-01 21:06:45 1355

原创 Arxiv论文速览--LAformer: Trajectory Prediction for Autonomous Driving with Lane-Aware Scene Constraints

LAformer 论文速览

2023-04-09 00:42:46 427

原创 CVPR2022论文速览--On Adversarial Robustness of Trajectory Prediction for Autonomous Vehicles

CVPR2022对于最坏情况提高预测鲁棒性提出缓解机制方法,通过黑盒白盒攻击增加扰动

2022-06-14 23:37:32 686 2

原创 CVPR2022论文速览--Vehicle trajectory prediction works, but not everywhere

CVPR2022对于现有模型在新场景中偏离道路预测提供评估办法

2022-06-14 23:29:51 660 1

原创 CVPR2021论文速览--Divide-and-Conquer for Lane-Aware Diverse Trajectory Prediction

CVPR2021 车道感知多样化轨迹预测的分治策略速览

2022-06-14 23:21:14 242

原创 CVPR2021论文速览--LaPred: Lane-Aware Prediction of Multi-Modal Future Trajectories of Dynamic Agents

CVPR2021 LaPred 动态代理多模态未来轨迹的车道感知预测 方法速览

2022-06-14 23:13:48 291

原创 从零开始学习机器学习(三)逻辑回归 Logistic Regression

上一部分,我介绍了感知机Perceptron,接下来,我将介绍逻辑回归。逻辑回归 LogisticRegression逻辑回归虽然 称为回归,但也是一个分类模型,而且常用于二分类任务。逻辑回归假设输出是通过以下算法从输入生成的: 给定输入以及参数(1)计算(2)应用逻辑函数得到(3)在0和1之间均匀的生成一个随机数,(4)由于最终的输出取决于第三步中生成的数,因此这是一个概率算法。关于逻辑回归的分布函数,​​​​​...

2021-11-01 17:32:51 552

原创 从零开始学习机器学习(二)感知器 Perceptron

感知机 Perceptron一个加上权重 以偏项bias term及的线性函数:感知器是一个二分类器:

2021-10-26 21:13:06 475

原创 从零开始学习机器学习(一)线性分类器(linear classifier) 监督学习 无监督学习 损失函数 梯度下降 随机梯度下降(SGD)

对于机器学习,其实我很早之前就想写了,但由于毕业论文,导致一直没时间系统的整理离散的知识点,现在忙完了毕业论文,准备着手开始对于机器学习方面的介绍。知识点主要来自于Andrew和我在曼彻斯特大学读研期间学到的知识以及作业中积累的经验,希望可以帮助到刚入门的同学。概率论在开始机器学习介绍之前,首先列出几个常用的概率论公式。1. 伯努利分布 Bernoulli distribution最简单的伯努利分布是一个二进制,例如假设成功的概率是p,呢么不成功的概率就是1-p。2.二项分布Bi..

2021-10-25 20:19:26 1187

原创 机器学习常用到的概率论

在这里 总结了几个常用的概率论公式1. 伯努利分布 Bernoulli distribution最简单的伯努利分布是一个二进制,例如假设成功的概率是p,呢么不成功的概率就是1-p。2.二项分布Binomial distribution我们进行许多的伯努利实验,并统计最终成功与失败的数量时,成功与失败的结果符合二项分布3. 几何分布Geometric distribution与概率分布相关的一个离散二项分布是几何分佈,现在,我们不再计算固定数量的实验中成功的次数,而是...

2021-10-25 20:17:22 289

原创 机器学习教学 plt.scatter()绘制散点图

Scatter简介Scatter(散点图)由两个变量构成,分别作为散点图的横,竖坐标,通过散点图可以看出变量之间的关系。如上如,一些基本的相关性,可以分为正相关,负相关等。Scatter 相关代码x = [1, 2, 3, 4, 5] y = [6, 7, 2, 4, 5] # 画布:尺寸 p = figure(plot_width=400, plot_height=400) # 画图 p.scatter(x, y, size=20, # s..

2021-10-21 01:35:08 8117

原创 强化学习算法(一)Qlearning

之前两篇介绍了强化学习基本理论,MDP,Q值,V值,MC,TD。这篇文章中,我会介绍一下我再学习RL过程中学习过的算法,下面从Qlearning开始。Qlearning之前的文章中,我介绍了MC,和TD。QleafninQlearning是value-based的算法,Q就是Q(s,a),即agent在某一时刻s状态下采取的a来获得reward的期望。环境会根据agent的动作反馈相应的回报reward r。因此Qlearning是将State 与 Action构建成一张Q-table来存储Q.

2021-07-05 09:50:36 1604 1

原创 强化学习(RL)学习笔记(二)蒙特卡洛(MC),时序差分(TD)算法

强化学习(RL)学习笔记(二)蒙特卡洛Monte-Carlo算法:1.讲agent放入环境的任意状态2.从这个状态开始选择action, 并进入下一个状态3.重复第二步知道达到最终状态4.从最终状态回溯,计算每一个状态的G值5.重复1-4过程,然后平均每一次的G值,最后得到的就是V值...

2021-06-28 10:21:43 897

原创 强化学习(RL)学习笔记(一)MDP,V值,Q值

强化学习(RL)学习笔记(一)MDP本人在研究生阶段选择通过深度强化学习实现自动驾驶作为毕业项目,今后将分享一些在学习强化学习过程中的心得,还请各位大牛多多指教。学习过程中的参考文献及链接将附在每篇文章的结尾。什么是强化学习强化学习,就是使我们的智能体Agent获得独立自主的完成某项任务的能力。智能体学习和做出行动的地方,就是我们的环境。这些Agent在于环境互动的过程中,会因为不同的行为产生不同的奖励Reward,在与环境的不断交互中不断改进。如图,感知-行动-学习循环(perception-ac

2021-06-08 14:53:31 4033

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除