自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(97)
  • 资源 (5)
  • 收藏
  • 关注

原创 [自动驾驶算法][从0开始轨迹预测]:三、常用的轨迹预测数据集--Argoverse v2

轨迹预测任务中常用数据集和相应数据集的坐标转换

2024-02-04 16:48:50 2893

原创 [自动驾驶算法][从0开始轨迹预测]:二、自动驾驶系统中常用的坐标系及相应的转换关系

上一篇文章中,我们介绍了坐标转换的基础知识,接下来,我们将介绍由汽车的传感器到全局定位会涉及到的若干个坐标系统。

2024-01-16 17:01:23 2356

原创 [自动驾驶算法][从0开始轨迹预测]:一、坐标系和坐标系变换

既然要从0开始轨迹预测,那从哪开始写起呢?回想下自己的学习历程,真正有挑战性的不是模型结构,不是繁琐的训练和调参,而是数据的制作!!!笔者自认为不是一个数学基础牢固的人,那么我们的轨迹预测之旅就从坐标转换开始吧~~~由难至简,才能做到【删繁就简三秋树,领异标新二月花】,专注于轨迹预测的核心算法。

2024-01-13 03:01:19 1505

原创 [深度学习][LLM]:浮点数怎么表示,什么是混合精度训练?

在日常深度学习训练中,一般使用来表示参数并进行相关训练任务。那么浮点数在内存中是如何存储的呢?在正式开始介绍混合精度训练之前,让我们先对相关基础知识进行介绍。

2024-09-04 18:03:42 1067

原创 [LLM]:检索增强生成技术:RAG

检索增强生成(Retrieval-Augmented Generation, RAG)技术旨在通过信息检索系统从外部知识库中获取相关信息,为大语言模型提供时效性强、领域相关的外部知识,以减少大语言模型生成内容中的错误。

2024-09-02 14:41:08 824

原创 [LLM]:大模型(Transformer)参数量分析

最近,OpenAI推出的ChatGPT展现出了卓越的性能,引发了大语言模型(Large Language Model, LLM)的研究热潮。大规模语言模型的“大”体现在两个方面:模型参数规模大,训练数据规模大。以GPT3为例,GPT3的参数量为1750亿,训练数据量达到了570GB。显存效率和计算效率。encoder-decoder(代表模型是T5)、encoder-only(代表模型是BERT,也叫Masked-Language Model,MLM)以及。

2024-08-31 14:48:24 1047

原创 [LLM][Prompt Engineering]:大语言模型提示工程(Prompt Engineering)

大语言模型(LLM)的微调(Fine-tune)代价较高,基于自然语言的提示(Prompt)方法已经成为了使用大语言模型解决下游任务的主要途径。而且提示的质量在很大程度上会影响大语言模型在特定任务中的表现。当前的很多工作和应用集中在如何快速应用LLM,使其适配下游任务,所采用的方法统称为Prompt Engineering,其中包括了上下文学习(In-Context Learning,ICL)和思维链提示(Chain-of-Thought,CoT)

2024-08-30 10:32:05 1104

原创 [LLM][Prompt Engineering]:思维链(CoT)

强大的逻辑推理是大“智能涌现”出的核心能力之一。推理:一般指根据几个已知的前提推导得出新的结论的过程,区别于理解,推理一般是一个“多步骤”的过程,推理的过程可以形成非常必要的“中间概念”,这些中间概念将辅助复杂问题的求解。思维链提示(Chain-of-Thought,CoT)作为上下文学习的一种扩展形式,旨在增强大语言模型在各类复杂推理任务上的表现。常见的推理任务包括算术推理、常识推理以及符号推理多种任务。与方法仅来构造提示不同,思维链提示进一步融合了。将原始的 $⟨ 输入,输出⟩ $ 映射关系转换为。

2024-08-29 17:10:41 1411

原创 [LLM][Prompt Engineering]:大语言模型上下文学习-What、How、Why?

上下文学习是使用由任务描述和(或)示例所组成的自然语言文本作为提示的提示策略。如下图所示,首先,**通过自然语言描述任务**,并**从任务数据集中选择一些样本作为示例**。其次,根据特定的模板,将这些示例按照特定顺序组合成提示内容。最后,将测试样本添加到提示后面,整体输入到大语言模型以生成输出。基于任务描述以及示例信息,LLM**无需显式的梯度更新即可识别和执行新的任务**。

2024-08-29 13:56:44 1197

原创 [从0开始AIGC][LLM]:Pre-Norm or Post-Norm?训练效率还是训练效果?

Pre-Norm和Post-Norm之间的对比是一个“老生常谈“的问题,目前也没有一个比较好的结论解释清楚,当前比较明确的结论是:同一设置下,Pre-Norm结构往往更加容易训练,但最终效果不如Post-Norm。Pre Norm更容易训练好理解,因为它的恒等路径更突出,但为什么它效果反而没那么好呢?

2024-08-27 15:21:46 655

原创 [从0开始AIGC][LLM]:LLM中Encoder-Only or Decoder-Only?为什么主流LLM是Decoder-Only?

LLM中Encoder-Only or Decoder-Only & 为什么主流LLM是Decoder-Only?

2024-08-26 17:55:26 1660

原创 [从0开始轨迹预测]:Laplace分布

具有密度函数fx∣μb2b1​e−bx−μ​的分布叫做拉普拉斯分布;μ是位置参数,b是尺度参数。拉普拉斯分布的期望为μ,方差为2b2,偏度为0,峰度为3。拉普拉斯分布的密度函数,可以看作是两个指数分布函数的概率密度“背靠背”拼接在一起。因此又称(事实上拉普拉斯分布与指数分布确实有很密切的关系)

2024-07-05 23:32:06 807

原创 [自动驾驶算法][从0开始轨迹预测][文献阅读笔记] [MTR++]:Multi-Agent Motion Prediction with Symmetric Scene Modeling and G

Waymo Open Motion Dataset 2023年冠军方案,较MTR适配了多智能体联合预测的技术方案[自动驾驶算法][从0开始轨迹预测] [文献阅读笔记] [MTR]:Motion Transformer with Global Intention Localization and Local MoMTR仓库。

2024-07-04 17:09:21 772

原创 [自动驾驶算法][从0开始轨迹预测] [文献阅读笔记] [MTR]:Motion Transformer with Global Intention Localization and Local Mo

MTR模型的整体架构如图所示,(a) 表示稠密未来预测模块,它预测每个智能体的单个轨迹(例如,在上面的 (a) 中绘制为黄色虚线)。 (b) 表示动态地图收集模块,它沿着每个预测轨迹收集地图元素(例如,在(b)的上述部分中沿着每个轨迹绘制为阴影区域)以提供特定于轨迹的地图元素运动解码器网络的功能。 ©表示运动解码器网络,其中𝒦是运动查询对的数量,𝑇是未来帧的数量,𝐷是隐藏特征维度𝑁 是 Transformer 解码器层数。 预测轨迹、运动查询对和查询内容特征是最后一个解码器层的输出,并将作为下一个解

2024-07-04 11:17:49 1436

原创 [从0开始轨迹预测][NMS]:NMS的应用(目标检测、轨迹预测)

任务中,尤其是在的算法时,会产生大量的候选区域,而这些区域可能存在大量的重叠。为了解决这个问题,使用NMS算法来保留最有可能的区域,同时抑制其他冗余或重叠的区域。

2024-07-02 23:49:54 906

原创 [PyTorch]:加速Pytorch 模型训练的几种方法(几行代码),最快提升八倍(附实验记录)

本篇博文概述了在不影响 PyTorch 模型准确性的情况下提高其训练性能的技术。为此,将 PyTorch 模型包装在 LightningModule 中,并使用 Trainer 类来实现各种训练优化。只需更改几行代码,就可以将单个 GPU 上的训练时间从 22.53 分钟缩短到 2.75 分钟,同时保持模型的预测准确性。性能提升了 8 倍!

2024-07-02 21:03:46 1064

原创 [PyTorch][PyTorch Lightning]:断点续训

日志:保存训练过程中的日志信息,包括损失、指标和训练时间等信息。对象的状态,包括当前的 epoch 和 batch 等信息。优化器状态:保存优化器的状态,包括当前的学习率和动量等信息。参数来控制是否保存模型的权重、最后一次保存的模型权重和。,则只会保存模型的权重,而不会保存其他信息。在需要从断点继续训练的时候,创建一个新的。参数来指定要继续训练的模型状态的路径。对象的状态以及其他信息。参数来指定要恢复训练的检查点路径。参数,以指示从该检查点处恢复训练。回调来保存模型的状态。模型权重:保存模型的权重参数。

2024-05-14 10:50:39 1514 3

原创 [从0开始AIGC][Transformer相关]:一文总结Transformer中的位置编码

一文总结Transformer中的位置编码

2024-05-09 17:00:55 348

原创 [从0开始AIGC][Transformer相关]:算法的时间和空间复杂度

算法是指用来操作数据、解决程序问题的一组方法。对于同一个问题,使用不同的算法,也许最终得到的结果是一样的,但是过程中消耗的资源和时间却会有很大区别。那么如何衡量不同算法之间的优劣?主要还是从算法所占用的时间和空间两个维度去考量。

2024-04-09 21:48:42 2058

原创 [从0开始AIGC]: 如何区分并记住常见的几种 Normalization 算法

这里再重复一下上文的类比。如果把x∈RN×C×H×Wx∈RN×C×H×W类比为一摞书,这摞书总共有 N 本,每本有 C 页,每页有 H 行,每行 W 个字符。计算均值时BN 相当于把这些书按页码一一对应地加起来(例如:第1本书第36页,加第2本书第36页…),再除以每个页码下的字符总数:N×H×W,因此可以把 BN 看成求“平均书”的操作(注意这个“平均书”每页只有一个字)

2024-04-09 21:40:50 941

原创 [Pytorch]:PyTorch中张量乘法大全

在 PyTorch 中,有多种方法可以执行张量之间的乘法。两个矩阵相乘,第一个矩阵的列数必须等于第二个矩阵的行数。()`对应位置的元素相乘,输入张量形状必须相同或。:对于具有更高维度的张量(点积),可以使用。换句话说,输入张量的形状应为。此外,第一个输入张量的。必须与第二个输入张量的。两个一维张量的点积。

2024-04-03 17:31:15 1432 1

原创 [Pytorch][缘来如此]:PyTorch中的广播机制

使两者形状互相兼容。广播提供了一个向量化数组操作的机制,这样遍历就发生在C层面,而不是Python层面。广播可以避免不必要的数据复制,通常导向高效的算法实现。不过,也存在不适用广播的情形(可能导致拖慢计算过程的低效内存使用)。in-place operation称为原地操作符,在pytorch中是指改变一个tensor的值的时候,不经过复制操作,而是直接在原来的内存上改变它的值。in-place操作不允许tensor像广播那样改变形状。在满足特定限制的前提下,的数组上应用算术运算。

2024-04-03 17:03:28 694

原创 [从0开始AIGC][Transformer相关]:一文看懂Transformer中的位置编码:绝对位置、相对位置、旋转位置编码

绝对位置编码最原始的正余弦位置编码(即sinusoidal位置编码)是一种绝对位置编码,但从其原理中的正余弦的和差化积公式来看,引入的其实也是相对位置编码。优势: 实现简单,可预先计算好,不用参与训练,速度快。劣势: 没有外推性,即如果预训练最大长度为512的话,那么最多就只能处理长度为512的句子,再长就处理不了了。当然,也可以将超过512的位置向量随机初始化,然后继续微调。相对位置编码。

2024-04-02 23:14:09 1693

原创 [从0开始AIGC][Transformer相关]:Transformer中的激活函数:Relu、GELU、GLU、Swish

FFN(Feed-Forward Network)块是Transformer模型中的一个重要组成部分,接受自注意力子层的输出作为输入,并通过一个带有 Relu 激活函数的两层全连接网络对输入进行更加复杂的非线性变换。在公式中,首先将输入向量 x 通过一个全连接层(线性变换)得到一个与 x 维度相同的向量,然后将该向量通过Sigmoid函数进行激活。在公式中,Swish函数首先对输入向量 x 进行一个非线性变换,然后通过Sigmoid函数进行激活,并将该激活结果与输入向量 x 逐元素相乘,得到最终的输出值。

2024-04-02 23:04:48 3074 2

原创 [文献阅读笔记]:SEPT: TOWARDS EFFICIENT SCENE REPRESENTATION LEARNING FOR MOTION PREDICTION

SEPT: TOWARDS EFFICIENT SCENE REPRESENTATION LEARNING FOR MOTION PREDICTION

2024-02-04 15:16:21 1384

原创 [文献阅读笔记]:Forecast-MAE: Self-supervised Pre-training for Motion Forecasting with Masked Autoencoders

[文献阅读笔记]:Forecast-MAE: Self-supervised Pre-training for Motion Forecasting with Masked Autoencoders

2024-02-02 15:41:17 1120

原创 [开发语言][C++]:递增递减运算符

递增递减运算符

2024-01-24 15:45:01 1765

原创 [算法与数据结构]:LRU Cache 的原理与C++实现

LRU Cache的原理与算法实现

2024-01-18 23:10:44 609

原创 [系统配置]:Linux安装中文字体-以QT控件显示中文为例

在Qt中,笔者在使用QPainter的drawText在QImage/QPixmap中绘制中文文字显示为一系列方框,可能是因为字体设置的问题。你需要确保你的系统支持你选择的字体,并且这个字体支持中文字符。//字体,大小,粗体,斜体painter.drawText(rect, Qt::AlignHCenter, "你的中文字符串");

2024-01-16 10:24:23 833

原创 [AI算法]:Keras版GCN源码自用解析

最近在研究图卷积的相关理论,有看Pytorch版本和DGL版本的GCN源码,但对象要用到Keras版本,就将Keras版本的GCN源码分析,粘一份,以备查看。1 setup.pyrom setuptools import setupfrom setuptools import find_packages setup(name=‘kegra‘, # 生成的包名称 version=‘0.0.1‘, # 版本号 description=‘Deep

2024-01-15 21:21:00 2218

原创 [实用小知识][ffmpeg]:ffmpeg解决所有视频问题

FFmpeg是一个强大的工具,可以进行视频和音频格式转换、流媒体的录制和转播、以及其他多媒体相关操作。

2024-01-10 20:19:23 485

原创 [开发语言][c++]:Static关键字和全局变量

Static关键字和全局变量

2024-01-10 14:21:08 2791

原创 [开发语言][c++][python]:C++与Python中的赋值、浅拷贝与深拷贝

C++与Python中的赋值、浅拷贝与深拷贝

2024-01-09 17:40:30 1640

原创 [开发语言][c++]:左值、右值、左值引用、右值引用和std::move()

左值、右值、左值引用、右值引用和std::move()

2024-01-08 15:41:50 1871

原创 [开发语言][python][c++]:C++中的this指针和Python中的Self -- 26岁生日

C++中的this指针和Python中的Self

2024-01-07 00:39:50 2054

原创 [开发语言][python]:Python参数传递,“值传递”还是“引用传递“?

Python中的函数参数传递方式是“传对象引用”,可以理解为“值传递”和“引用传递”的混合体。

2024-01-05 10:40:28 631

原创 [实用小知识]:Google浏览器添加代理SwitchyOmega

Google浏览器添加代理SwitchyOmega

2024-01-04 16:46:04 4944

原创 [开发语言][C++]:详解Lambda 函数

lambda在源代码中使用简洁的语法就地定义。Lambda 函数在 C++11 中引入,现已成为广泛使用的功能,尤其是与标准库函数结合使用。

2023-06-26 23:37:28 450

原创 [文献阅读报告]:Take-over Time Prediction for Autonomous Driving in the Real-World: Robust Models, Data Aug

​ 人们普遍认为,一旦认知刺激的水平低于自己的兴奋阈值(own comfortable 'setting point‘),大多数人会寻找替代的/额外的信息来源,从而导致注意力分散。

2023-03-20 16:05:17 455 1

原创 [计算机系统]:一文读懂软链接和硬链接

计算机系统系列文章。

2023-03-19 15:05:49 776

Social STGCNN.pdf

更好地了解行人行为的机器可以更快地建模诸如自动驾驶汽车和人类之类的特工之间的交互。行人的轨迹不仅受到行人本身的影响,还受到与周围物体的相互作用的影响。以前的方法通过使用各种聚合方法对这些交互进行建模,这些聚合方法整合了不同的学习者行人状态。我们提出了社会时空图卷积神经网络(Social-STGCNN),该模型通过将交互建模为图形来替代聚合方法的需求。我们的结果表明,与以前报道的方法相比,最终位移误差(FDE)相对于现有技术的改进为20%,平均位移误差(ADE)的改进为参数减少了8.5倍,推理速度提高了48倍。此外,我们的模型具有较高的数据效率,仅使用20%的训练数据就超出了ADE指标上的现有技术水平。我们提出了一个核函数,将行人之间的社交互动嵌入邻接矩阵中。通过定性分析,我们表明我们的模型继承了行人轨迹之间可以预期的社会行为。可以在https://github.com/abduallahmohamed/Social-STGCNN上找到代码。

2020-03-10

(DDPG中文)Continuous control with deep reinforcement learningCH

(DDPG中文)Continuous control with deep reinforcement learnin 中文版 翻译自用

2019-04-22

稻壳精品收费简历模板

内含稻壳儿精品简历50份,绝对精品,好用再来。嘻嘻

2019-04-15

搜狗拼音输入Ubuntu18.04版

适用于ubuntu18.04版本的搜狗输入法,解决搜狗官网的安装包限速。

2018-09-16

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除