学习笔记
文章平均质量分 50
内含一些深度学习python和机器人ROS等学习笔记
李卓璐
公众号创作小白 如果你也喜欢视觉 那么请关注我的公众号叭:李卓璐随手记
展开
-
学习笔记57-(已解决)jetson nano下载软件时出现dpkg错误解决方法
dpkg:错误:无法新建文件 ‘/var/lib/dpkg/info/format-new’: No such file or directory如图所示是我在安装opencv时使用apt-get时出现的问题,经过询问和查找别的CSDN得出结论:关键出错的问题在于有一个安装包没有完全安装或卸载解决步骤:1.先试这两个指令解决问题了没:这两条指令我们因为什么操作误改了info这个文件夹的名字,所以要改回来。$cd /var/lib/dpkg$ sudo mv info.bak info2.如原创 2020-10-13 17:36:28 · 2611 阅读 · 19 评论 -
学习笔记56-(已解决)pip指令下载超时Read timed out错误
pip下载超时Read timed out错误下了一上午卡到自闭然后查了很多帖子,最后更换国内安装源和设置超时时间可以解决。在pip3 install XXX命令的后面加上–default-timeout=100 -i https://pypi.tuna.tsinghua.edu.cn/simple...原创 2020-11-08 16:10:08 · 314 阅读 · 0 评论 -
学习笔记55-Jetson nano Ubuntu18.04换源出现的问题:部分索引文件下载失败可能原因
Ubuntu换源出现的问题::部分索引文件下载失败可能原因1.网络原因如果是jetsonnano的话检验连没连上网,看看能否登上浏览器。网络没有问题在继续下一步。2.源与Ubuntu系统版本不对应3.重新设置参数...原创 2020-10-30 16:03:24 · 4505 阅读 · 16 评论 -
学习笔记54-apt-get 和pip常见命令大全
apt-get 常见使用命令:1.安装:apt-get install 安装包名 # 普通安装apt-get --reinstall install 安装包名 #重新安装2.卸载:apt-get remove 安装包名 #删除软件包, 保留配置文件apt-get --purge remove 安装包名 #删除软件包, 同时删除配置文件apt-get purge 安装包名 #删除软件包, 同时删除配置文件apt-get clean #清除 已下载的软件包原创 2020-10-13 18:03:13 · 488 阅读 · 10 评论 -
学习笔记53-深度学习
(深度学习)学习笔记1.1 了解深度学习机器学习是人工智能的一个分支,是实现人工智能的方法。而深度学习是一种实现机器学习的技术,深度神经网络是实现深度学习的一种具体的实现工具。1.2 为什么学习深度学习?很多年前机器学习很强调“做特征”。但是随着数据的不断累积,有了另外一种选择,就是构建一个足够复杂的可训练系统,让系统自身去完成特征的学习过程——深度学习。它简化了特征工程的难度。并且机器学习能完成的任务,深度学习都可以完成。深度学习尤其擅长处理图像识别、物体检测、自然语言翻译、语音识别和趋势预测等。原创 2020-05-23 12:03:51 · 1164 阅读 · 1 评论 -
学习笔记52-关于深度学习中的分类器汇总,模型对类别概率计算输出代码。
基础分类器:1、SVM:线性核SVM: 一般应用于多分类,分类的结果(如3分类)最后会给出(约等于)1、2、3的值代表第1、2、3类。非线性核SVM: 一般应用于二分类问题上。注意:SVM需要训练,如通过caffe提取特征后,用提取的特征训练svm2、softmax分类:其实它是逻辑回归的拓展,应用于多分类,在caffe、pytorch、TensorFlow中均可实现softmax,可以直接端到端地训练分类,比较常用。注意:分类的结果是给出的一个概率向量,相应的那个概率值高即为预测的哪个类,类原创 2022-03-29 09:16:38 · 5203 阅读 · 0 评论 -
学习笔记50-中文撰稿好用软件推荐TexPage(似于Overleaf)
由于本人用惯了overleaf所以找到了一个与他功相似的也同样是利用tex写文章。唯一的区别可能也就是overleaf只支持英文,而TexPage中英文都支持。关键是不花钱,好用好用好用,用起来!平台网址:https://www.texpage.com/自配相应的使用手册(包的介绍),几乎解决所有难题。重要的包:这俩包的添加可以编译中文。原创 2023-11-17 11:52:02 · 640 阅读 · 0 评论 -
学习笔记49-overleaf-LaTeX新手指南
overleaf官网1.公式篇超详细 LaTex数学公式2.表格制表命令使用教程在线表格编辑器3.整体介绍介绍/使用教程原创 2022-07-07 09:39:30 · 998 阅读 · 0 评论 -
学习笔记48-yolov5运行过程遇到的问题(关于git的问题、页面太小无法完成操作)
如果不好使再考虑降低Batch_Size大小或者调整虚拟内存可用硬盘空间大小!(调整虚拟内存可用硬盘空间大小网上随便找都有笔记,照抄即可没坑。解决办法:插入下面代码。有问题欢迎评论区讨论!1.关于git的问题。原创 2023-09-05 15:38:49 · 744 阅读 · 0 评论 -
学习笔记47-如何下载、使用英文期刊的LaTeX模板(以TIE为例)
点击进入IEEE Template Selector。原创 2022-09-15 15:46:05 · 4191 阅读 · 0 评论 -
学习笔记45-微信小程序+前后端开发学习材料2-(视图+基本内容+表单组件)
定义的class都去.wxss里面重申,优先级.wxml>.wxss,所以你在.wxml定义完颜色,.wxss再定义失效。其中只可放置swiper-item组件,否则会导致未定义的行为。这里我用view带了一下,如果不配置进度条外置属性,可以直接。组件属性的长度单位默认为px,咱用rpx。显示面板指示点indicator-dots。原创 2024-01-17 16:56:29 · 798 阅读 · 0 评论 -
学习笔记44-分析acc/loss上下波动不稳定的原因?
acc/loss上下波动的原因?原创 2022-10-12 15:43:32 · 3789 阅读 · 0 评论 -
学习笔记41-大语言模型参数说明(Temperature,Top p,Top k)
Temperature,Top p,Top k原创 2023-04-14 10:58:28 · 10286 阅读 · 5 评论 -
学习笔记39-常见评价指标使用方法汇总(pytorch框架)
训练的loss与acc结果可视化见笔记模型推理时间与单张FPS计算见笔记Top1与Top5见笔记模型超参数与内存损耗可视化见笔记混淆矩阵可视化分类模型预测结果见笔记原创 2022-04-20 10:51:46 · 1379 阅读 · 0 评论 -
学习笔记37-‘xxx‘ object has no attribute ‘xxx‘ 及 ‘xxx‘ takes 2 positional arguments but 3 were given报错原因
注意:self表示创建的类实例本身,所以在内部就可以把各种属性绑定到self。在创建实例的时候,就不能传入空的参数,必须传入与方法匹配的参数。但注意self不需要传,Python解释器会自己把实例变量传进去。()双下划线的忽略(当__使用双下划线时会变为紫色为正确)一晚上遇到三个常见的小问题,总结一下!明明已经定义了,代码仍然出错!原因2:路径中有中文。原创 2023-07-12 20:21:32 · 507 阅读 · 0 评论 -
学习笔记36-防止过拟合现象产生的常见方法
正则化的定义:其用于解决模型因强大的表征力而产生测试数据过拟合等现象,通过避免训练完美拟合数据来加强算法的泛化能力。因此,算法正则化的研究成为机器学习中重要的研究主题之一。表征力:表达信息量。1.数据增强数据增强为的是提升算法性能、满足深度学习模型对大量数据需求的重要工具。一般方法有:水平或垂直翻转图像、裁剪、色彩变换、缩放和旋转等。2.权重衰减加入正则化参数λ,更新权重w。λ越小正则化作用越弱,主要用来优化原本的损失函数。λ越大正则化作用越明显,权重w越趋近于0(原因是正则化作为系数λ/2原创 2021-11-10 15:27:59 · 5814 阅读 · 0 评论 -
学习笔记34-RandomErasing代码讲解与使用
代码地址:https://github.com/zhunzhong07/Random-Erasing.作者将该方法分类,目标检测和行人识别上,效果较好。RandomErasing代码讲解如下:使用方法:在train.py文件中的transforms内调用。原创 2022-06-01 09:42:55 · 818 阅读 · 0 评论 -
学习笔记18-深度学习中的消融实验指的是什么?
什么是消融实验:当作者提出了一种新的方案时,这个方案同时改变了多个条件/参数,那么在消融实验中,作者会一一控制一个条件/参数不变,来看看结果,到底是哪个条件/参数对结果的影响更大。举例:在目标检测系统中,使用了A,B,C相加的方法取得了不错的效果,但是这个时候你并不知道这不错的效果是由于A,B,C中哪一个起的作用,于是你保留A,B,移除C进行实验来看一下C在整个系统中所起的作用。最终确定到底是哪个方法对结果的影响更大。总结:消融实验类相当于:“控制变量法”...原创 2022-04-18 13:49:57 · 21006 阅读 · 6 评论 -
学习笔记29-池化使用方法(池化选择法则)
池化意义: 池化层往往在卷积层后面,通过池化来降低卷积层输出的特征向量,同时改善结果(不易出现过拟合)。一般池化方法平均池化(averager pooling)平均池化是对池化模板进行均值化操作,这能保留模板内的数据的整体特征从而背景信息。优缺点:能很好的保留背景,但容易使得图片变模糊from torch.nn import functional as Fscale1 = F.avg_pool2d(x, kernel_size=(3, 3), stride=(1, 1), padding=(1,原创 2022-03-30 10:31:04 · 3290 阅读 · 0 评论 -
学习笔记23-深入理解shortcut与resnet残差结构关联
学习来源shortcut(shortpath)直译为“直连”或“捷径”,其为CNN模型发展中出现的一种非常有效的结构。shortcut的引入目的是解决一味增加网络深度而产生的梯度发散。1、最初的CNN模型只有相邻两层之间存在通过W_H的连接(x、y是相邻两层),其中H表示网络中的变换,公式如下:网络结构如下图:2、shortcut思想在两层之间增加了权重,结构如下图:与最初CNN模型不同的是:输入层x是通过C的加权连接到输出层y。通过这种连接方式的改进,缓解了深度网络中的梯度发散问题,尤转载 2022-03-14 15:51:42 · 3692 阅读 · 0 评论 -
学习笔记17-置信度C、类别概率P和召回R是啥?
Confidence置信度置信度的概念是表示框出的box内确实有物体的自信程度和框出的box将整个物体的所有特征都包括进来的自信程度。那么如何简单的去理解置信度呢?大家都知道yolo算法中的输出bounding box都包括(x,y,w,h,c),其中c就是这个框的置信度。看了很多文章都说c有两重含义,但是我理解就是它框柱了对象的自信程度值。那么它有什么用呢?首先我们自己会设定一个置信度c的值(0-1之间),这个值不能设太大,很好理解,如果设的过大,它的置信区间变大,精度变小,准确度变低,可以理解为原创 2022-03-07 15:31:41 · 4863 阅读 · 0 评论 -
学习笔记15-常用的循环保存指令(matplotlib.pyplot;cv2;skimage.io)
plt循环保存import matplotlib.pyplot as plt for idx in range(N): plt.figure() #创建自定义图像 if out[idx, 0] > out[idx, 1]: #out为概率化处理后的网络输出,此步进行list比较 plt.suptitle('Notch:{:.1%},Thin:{:.1%}'.format(out[idx, 0], out[idx, .原创 2022-03-05 08:40:32 · 740 阅读 · 0 评论 -
学习笔记13-目标检测算法的评估指标
学习链接:https://www.jianshu.com/p/fd9b1e89f9831、mAPMAP(mean Average Precision)平均精度均值,即AP(Average Precision)的平均值,它是目标检测算法的主要评估指标。目标检测模型通常会用速度和精度(mAP)指标描述优劣,mAP值越高,表明该目标检测模型在给定的数据集上的检测效果越好。mAP是AP(Average Precision)的平均值:其中:Accuracy指准度,意味着系统误差(System Error)小转载 2022-02-18 15:09:31 · 2980 阅读 · 3 评论 -
学习笔记9-os.path.join()函数使用方法;Python OpenCV GrabCut前景分割和提取(含完整代码)
本文主要介绍2部分:1.os.path.join()函数使用方法。2.GrabCut前景分割和提取。一、os.path.join()函数学习网址: https://blog.csdn.net/swan777/article/details/89040802用于路径拼接文件路径,3种情况举例说明:#1.如果不存在以‘’/’开始的参数,则函数会自动加上default=os.path.sep.join(["try","image","1.jpg"])#读取路径为try\image\1.jpg#原创 2022-02-08 15:27:55 · 3648 阅读 · 0 评论 -
学习笔记7-半监督学习
《Introduction to Semi-supervised Learning》半监督学习理论:1.定义:有标签数据+无标签数据混合成的训练数据中使用的机器学习算法吧。一般假设,无标签数据比有标签数据多,甚至多得多。2.条件:无标签数据一般是有标签数据中的某一个类别的(不要不属于的,也不要属于多个类别的);有标签数据的标签应该都是对的;无标签数据一般是类别平衡的(即每一类的样本数差不多);无标签数据的分布应该和有标签的相同或类似等。3.分类:半监督学习算法可分为:self-training(自训原创 2021-12-13 08:56:59 · 330 阅读 · 0 评论 -
学习笔记5-知识点【卷积计算,dim,超参数,torch.zeros,gamma,beta,eps,assert,优化器,groups,// 和/,reshape,isinstance,hasattr
1.python 运行程序出现:“Caught IndexError in DataLoader worker process 0”解决方法:可能是多进程的原因。查看代码,找到超参数部分,修改num_workers=0即可。2.卷积神经网络(卷积层,激活函数Relu,池化层,计算公式及API解释)这位博主介绍的很详细,传送门3.dim、keepdimdim (int) – 缩减的维度,dim=0是对0维度上的一个向量求范数(范数定义:每个向量的长度或大小),返回结果数量等于其列的个数,也就是说有原创 2021-10-23 12:54:15 · 726 阅读 · 0 评论 -
学习笔记6-python 参数解析器metavar和help的区别
help用来写入信息地址。metavar参数可以让命令的help信息更好看一些!用来控制部分命令行参数的显示只影响部分参数的显示信息,不影响代码内部获取命令行参数的对象。可以用metavar来设置每一个具体的参数的名称,例如:parser.add_argument('load', metavar='LOAD', default='weights/yolov5s.pt', help='model.pt path(s)')parser.add_argument('save', metavar='SA.原创 2021-10-21 11:16:38 · 6583 阅读 · 0 评论 -
学习笔记4-卷积操作(附相关代码)、channels含义( in_channels、卷积channels、out_channels )
**torch.nn模块包含torch已经准备好的卷积层、池化层、激活函数层、循环层、全连接层。**本文将分别展开进行阐述:卷积层、池化层、激活函数层、循环层、全连接层。1.卷积层二维卷积运算过程示意图如下图所示:相信大家和我一样可能道理我们都懂但是一遇到代码就蒙圈,那我们接下来就来看看如何使用torch.nn模块进行卷积操作。首先附上一张常用卷积操作对应类的命名#承接上图以2x2卷积操作为例,其调用方式为:torch.nn.conv2d(in_channels=3, #(整数)输入图原创 2021-10-18 08:34:57 · 5158 阅读 · 9 评论 -
学习笔记3-数据增强代码学习
import osimport torchfrom torchvision import transformsfrom torchvision import datasetsfrom PIL import Image#数据读取及预处理data_dir='./datasets'train_dir=data_dir+'/train'valid_dir=data_dir+'/valid'#数据预处理模块transformsdata_transforms={ 'train':tran原创 2021-10-12 10:15:29 · 196 阅读 · 0 评论 -
学习笔记2-RepVGG思想
经过孩子疯狂的查补材料发现,此论文的关键以及创新点都在汇总在下面这张图上啦~论文改进思想主要存在三个步骤:1.3x3conv与BN融合;2.1x1conv转为3x3conv进行融合;3.残差层转为1x1conv,1x1conv再转为3x3conv再进行融合;接下来我们一一展开来说:一、卷积+BN融合:卷积层公式为:BN公式为:将卷积结果带入BN公式中得:化简得:见下图:二、1x1卷积+3x3卷积融合见下图:三、残差层变为1x1卷积快送论文的大体思路就是这样!有.原创 2021-09-30 12:06:38 · 211 阅读 · 0 评论 -
学习笔记1-学习笔记VGG
多分支结构(多路分支)原理:加上不同分支应用不同卷积核,能获得不同感受野。其允许原始输入信息直接传到后面的层中,这样的话这一层的神经网络可以不用学习整个的输出,而是学习上一个网络输出的残差。且网络的层数越多,意味着能够提取到不同level的特征越丰富。而越深的网络提取的特征越抽象,越具有语义信息。但如果简单地增加深度,会导致梯度弥散或梯度爆炸(退化),因此提出深度残差网络 ResNet。优点(目的):更容易优化,并且能够通过增加相当的深度来提高准确率。缺点:因为需要保存中间结果,所以显存占有量会明原创 2021-09-29 14:51:28 · 253 阅读 · 0 评论