- 博客(2374)
- 收藏
- 关注
原创 基于ubuntu20.04 环境跑通LIO_SAM重定位
在通过运行命令sudo make install -j8安装库gtsam 时,文件libmetis.so安装在/usr/local/lib/的默认位置,但是当我们启动 ros 工作区时,运行时库查看位置/opt/ros/noetic/lib/解决 :修改配置文件/opt/ros/noetic/lib/python3/dist-packages/roslaunch/nodeprocess.py。解决:1、修改文件gtsam/wrap/CMakeLists.txt文件;步骤3:安装LIO_SAM。
2023-11-02 15:56:36 642
原创 ROS使用自定义全局路径规划器编译时报错 ‘xxx’ is not a member of ‘pcl::traits’的解决方法
当我们将自己编写的全局路径规划器插件放到工作空间下进行编译的时候,可能会报一堆错误,主要的错误提示为‘xxx’ is not a member of ‘pcl::traits。(注意:不要插在文件的最后,插在最后无效)输完密码,点击认证就可以成功保存了。
2023-11-02 14:37:21 428
原创 基于SC-LeGO-LOAM的建图和ndt_localizer的定位
再选择rviz里面的 2D Pose Estimate,选定车辆的初始姿态(一切使用预先构建的地图进行配准定位的方法都需要提供初始姿态,在工业界的实践中,这一初始姿态通常是通过 gnss 获得,本文中我们简化这一步,在 Rviz 中手动指定初始姿态, Rviz 中设定的初始姿态通常会被默认发送至 /initialpose topic 上)在SC-LeGO-LOAM中,imu起着去除运动畸变的作用,但在实际运行中发现,添加了imu话题之后,建图会产生漂移。然后另起终端,播放bag包,即可看到定位的实现过程。
2023-11-01 13:54:31 249
原创 镭神16线激光雷达跑SC-LeGo-LOAM算法
由于镭神C16的驱动中对点云强度的定义是uint8_t类型,LOAM能接收的是float32类型,并且LOAM在运行时是根据采集的点云不停的计算来估计自身位置的,所以如果点云强度不匹配,会出现坐标轴baselink漂移的现象。(注意:由于没有惯导,在LOAM运行时,如果雷达前方出现不规则快速运动的物体,比如拿书快速扫,雷达坐标系都会出现漂移现象,所以建议利用传感器来获取位置信息,这是最稳妥的方法)。首先,要注意的是SC-LeGo-LOAM和16线雷神激光雷达源码的版本不一样,源码也可能稍有区别。
2023-10-30 09:30:37 624
原创 开源3D激光(视觉)SLAM算法汇总(持续更新)
Cartographer是由谷歌于2016年开源的一个支持ROS的室内SLAM库,并在截至目前为止,仍然处于不断的更新维护之中。1. 代码极为工程,多态、继承、层层封装的十分完善。提供了方便的接口,便于接入IMU、(单/多线)雷达、里程计、甚至为二维码辅助等视觉识别方式也预留了接口(Landmark)。根据其代码的结构设计来看,显然是由一个大型的研发团队集中研发,而非少数科研人员的demo型代码。2. Cartographer支持2D和3D激光雷达的输入,实现机器人定位,并构建栅格地图。
2023-10-28 18:34:16 950
原创 图解kd树+Python实现
此时父节点(5,4)的另一子节点已经搜索完毕,继续向上回溯搜索那些没有被回溯过的节点,于是来到根节点(7,2),计算(7,2)与(2,4.5)的距离为5.5901,而5.5901>1.5,因此当前最近邻点不变,最近距离也不变。一般的,对于高维特征的情况,画出来的是一个超球面),真正的最近邻点一定包含在这个圆的内部。对左子树{(5,4),(2,3),(4,7)}按照特征的第一个维度从小到大排序:{(2,3),(5,4),(4,7)},确定中位数下标为3//2=1,所以数字4为中位数;这里仅实现最近邻搜索。
2023-10-28 09:53:22 345
原创 明朝最大的贡献是什么?
另一方面,如果延续传统修缮做法,旧构件矫正后存在难以安装等问题,也是因为历史信息损失过多,技术上很难达到完全复原性修复。一看门楼就知道不是清代而是明代修建的,因为清代没有这种复杂工艺了,而且那会也不主张修孔庙。我们经常去西安市区或周边的一些文物遗址溜达,我们很多传统精湛工艺都会无踪可循,消失殆尽。我们现在还会用多少汉字也许都不好说了……统治的王朝中间的明代有什么巨大的贡献?我们现在说的“中华民族伟大复兴”,在明代都有保护修缮和立碑。因为老公是土文物爱好者,崇文抑武的大宋没有修,2022.8.3加更。
2023-10-27 18:36:30 71
转载 【Python】Socket的简单应用
今天“出差在外”,晚上又琐事缠身,实在也没办法特别沉下心去学什么内容,但还是不希望一天一篇的flag就此倒下,只能多多参考别人的博客浅浅学习一下python的socket应用,后续课内做实验了,学习更深入的知识后,我会再补上自己的理解。(11.4)已更新。
2023-10-24 18:09:17 80
原创 【成功解决】实现Ubuntu20,04 与Windows之间的复制粘贴
默认情况下的Ubuntu和Windows之间是无法实现跨系统复制粘贴的,这样的话不利于开发。重启Ubuntu系统:reboot。打开Ubuntu命令终端。
2023-10-23 16:32:04 707
原创 bert 文本分类
https://github.com/mzc421/Pytorch-NLP/tree/master/02-Bert%20%E6%96%87%E6%9C%AC%E5%88%86%E7%B1%BB
2023-10-17 16:21:22 77
原创 Ubuntu pyaudio安装报错:ERROR: Could not build wheels for pyaudio, which is required to install pyproject
【代码】Ubuntu pyaudio安装报错:ERROR: Could not build wheels for pyaudio, which is required to install pyproject。
2023-10-12 20:51:39 166
原创 如何在 Keras 中开发具有注意力的编码器-解码器模型
本教程分为6个部分;他们是:带注意力的编码器-解码器注意力测试无需注意的编码器-解码器自定义 Keras 注意力层带注意力的编码器-解码器模型比较现在我们需要关注编码器-解码器模型。在撰写本文时,Keras 还没有内置于库中的注意力功能,但即将推出。在 Keras 中正式提供注意力之前,我们可以开发自己的实现或使用现有的第三方实现。为了加快速度,让我们使用现有的第三方实现。
2023-10-11 17:13:20 181
原创 大模型分布式训练并行技术(四)-张量并行
近年来,随着Transformer、MOE架构的提出,使得深度学习模型轻松突破上万亿规模参数,传统的单机单卡模式已经无法满足超大模型进行训练的要求。因此,我们需要基于单机多卡、甚至是多机多卡进行分布式大模型的训练。而利用AI集群,使深度学习算法更好地从大量数据中高效地训练出性能优良的大模型是分布式机器学习的首要目标。为了实现该目标,一般需要根据硬件资源与数据/模型规模的匹配情况,考虑对计算任务、训练数据和模型进行划分,从而进行分布式存储和分布式训练。
2023-10-11 14:42:27 342
原创 大杀器,多模态大模型MiniGPT-4入坑指南
ChatGPT的发布给大家带来了不少的震撼,而随后发布的GPT-4更是展现了非凡的多模态能力。但是,ChatGPT和GPT4官方公布的细节很少,OpenAI俨然走上了闭源之路,让广大AI从业者又爱又恨。最近,来自沙特阿拉伯阿卜杜拉国王科技大学的研究团队开源了GPT-4的平民版 MiniGPT-4。他们认为,GPT-4 具有先进的多模态生成能力的主要原因在于利用了更先进的大型语言模型(LLM)。为了研究这一现象,他们提出了 MiniGPT-4。MiniGPT-4 简介。
2023-10-09 14:58:22 620
转载 大模型分布式训练并行技术(一)-概述
上面提到的数据并行、张量并行、流水线并行等多维混合并行需要把模型切分到多张AI加速卡上面,如果让用户手动实现,对开发者来说难度非常大,需要考虑性能、内存、通信、训练效果等问题,要是能够将模型按算子或者按层自动切分到不同的加速卡上,可以大大的降低开发者的使用难度。通常来讲,模型规模的扩展会导致训练成本显著增加,计算资源的限制成为了大规模密集模型训练的瓶颈。通常来说,模型训练的过程中,GPU上需要进行存储的参数包括了模型本身的参数、优化器状态、激活函数的输出值、梯度以及一些零时的Buffer。
2023-10-09 14:54:31 124
转载 大模型算法演进
2018年谷歌发布了BERT,便一举击败 11 个 NLP 任务的 State-of-the-art (Sota)结果,成为了 NLP 界新的里程碑,同时为模型训练和NLP领域打开了新的思路,预训练模型逐渐成为自然语言处理(NLP)领域的主流;2021年12月,谷歌推出了具有万亿权重的通用语言模型 (Generalist Language Model,GLaM),该模型的一大特点就是具有稀疏性,可以高效地进行训练和服务(在计算和资源使用方面),在多个小样本学习任务上取得有竞争力的性能。
2023-10-09 12:47:29 84
转载 大模型实践总结
目前,主流的AI处理器无疑是NVIDIA的GPU,NVIDIA的GPU产品主要有GeForce、Tesla和Quadro三大系列,虽然,从硬件角度来看,它们都采用同样的架构设计,也都支持用作通用计算(GPGPU),但因为它们分别面向的目标市场以及产品定位的不同,这三个系列的GPU在软硬件的设计和支持上都存在许多差异。另外,我创建了大模型学习交流群,供大家一起学习交流大模型相关的最新技术,目前已有5个群,可加我微信进群(加微信请备注来意,如:进大模型学习交流群+知乎)。一定要备注哟,否则不予通过。
2023-10-09 12:42:54 537
原创 从0到1基于ChatGLM-6B使用LoRA进行参数高效微调
关注他等 189 人赞同了该文章目录收起ChatGLM-6B简介具备的一些能力局限性LoRA 技术原理环境搭建数据集准备数据预处理参数高效微调单卡模式模型训练数据并行模式模型训练模型推理结语之前尝试了基于LLaMA使用LoRA进行参数高效微调,有被惊艳到。相对于full finetuning,使用LaRA显著提升了训练的速度。虽然 LLaMA 在英文上具有强大的零样本学习和迁移能力,但是由于在预训练阶段 LLaMA 几乎没有见过中文语料。
2023-10-08 22:41:04 837
原创 使用DeepSpeed/P-Tuning v2对ChatGLM-6B进行微调
之前尝试了基于ChatGLM-6B使用LoRA进行参数高效微调。ChatGLM-6B简介ChatGLM-6B相关的简介请查看之前的文章,这里不再赘述。P-Tuning v2简介P-Tuning是一种较新的模型微调方法,它采用了参数剪枝的技术,可以将微调的参数量减少到原来的0.1%。具体来说,P-Tuning v2是基于P-Tuning v1的升级版,主要的改进在于采用了更加高效的剪枝方法,可以进一步减少模型微调的参数量。
2023-10-08 22:36:13 681
转载 大模型也内卷,Vicuna训练及推理指南,效果碾压斯坦福羊驼
2023开年以来,大模型进入疯狂内卷状态,大模型的发布都要以“天”为单位进行迭代。之前,尝试了从0到1复现斯坦福羊驼(Stanford Alpaca 7B),下面我们来尝试从0到1复现Vicuna训练及推理。Vicuna简介继斯坦福羊驼(Stanford Alpaca)之后,UC伯克利、CMU、斯坦福等机构的学者,联手发布了最新开源大模型骆马(Vicuna),包含7B和13B参数。Vicuna工作流程Vicuna具体的工作流程如下图所示,首先,研究人员从http://
2023-10-08 22:30:58 133
原创 RuntimeError: CUDA unknown error #49081
【代码】RuntimeError: CUDA unknown error #49081。
2023-10-07 17:45:06 115
原创 git:‘lfs‘ 不是一个 git 命令。参见 ‘git --help‘。
【代码】git:'lfs' 不是一个 git 命令。参见 'git --help'。
2023-10-04 21:13:48 1533
原创 分享9个已开源的GPT4平替,用过感觉还不错
作为ChatGPT的平替,开源了完整的RLHF流水线,包括,监督数据收集、监督微调、奖励模型训练和强化学习微调等。对于想要研究大模型的同学来说,目前ChatGPT无疑是最好的学习对象,但等它开源估计是不太可能了,所以学姐今天整理了一些开源的类GPT模型,帮助大家更好的理解大模型背后的机理。整理了一部分大模型的论文,PDF格式的,关注“学姐带你玩AI”(不懂的看我主页签名)后台回复“大模型”直接领取。智谱AI研发,基于千亿参数大模型的支持中英双语的对话机器人。高效、简单、可扩展,功能多,包含AIGC。
2023-10-04 15:56:00 366
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人