深度学习
在学习的苹果
这个作者很懒,什么都没留下…
展开
-
Yolov4
引入CSP, k1是1*1,s1代表布局个数,c是卷积核个数其中Mish是激活函数,Mish = x*tanh(ln(1+e^x))原创 2022-08-16 16:43:08 · 79 阅读 · 0 评论 -
Yolo v3
上图表明在小目标上也做的很好。原创 2022-08-14 16:05:19 · 514 阅读 · 0 评论 -
YoloV2
v1一个gridcell只能预测一个类别物体,v2一个girdcell可以预测五种 ,v1是选择bbox与真实框IOU最大的框,直接预测框的坐标。思想是对数据集的各个真实框的xywh聚类,并根据聚类中心个数选取相应的锚框坐标,为了权衡模型性能,选择5个聚类中心,赋予锚框初始值。在fast-rcnn SSD中,锚框数/gridcell和长宽比,size是手动选择的,而V2是聚类选取。前面的pr是:模型是否存在物体,to是 confidence,需要向左边学习,靠近。左边是分类的,右边是检测的。...原创 2022-08-14 11:21:23 · 311 阅读 · 0 评论 -
YoloV1
Yolo系列是one-stage算法不同于two-stage,它的速度更快,更适合实时目标检测。原创 2022-08-13 15:25:23 · 724 阅读 · 0 评论 -
李沐——卷积层
在以往的全连接层,输入是一个n维向量,但是在隐藏层我们输出的是k维,二者并没有关系。这一操作使用矩阵w来实现,可以理解为w改变了x的形状那么我们考虑二维输入k*l,在隐藏层我们会用W改变Xk*l变成Hi*j,我们确实无法理解高维,但是在这里我们可以思考一个矩阵,Wijkl。它施加的变换能使X_k*l变成H_i*j。这里我们使用类比推理的思想,k*l理解为原来的输入n。 这就用了简单的换元:k=i+a,A对于CNN,我们不希望x变化时,V也跟着变化,V可以理解为分类器,我的x不管在哪,v都会感知它,也就是说一原创 2022-07-04 15:47:14 · 422 阅读 · 0 评论 -
动手学深度学习(二)自动求导
反向会消耗 内存一般不用正向传递,因为我们一般要对每一层计算梯度,正向不会保存每一层的结果原创 2022-06-22 21:26:27 · 192 阅读 · 0 评论 -
动手学深度学习(一)基础概念
安装原创 2022-06-04 21:41:10 · 94 阅读 · 0 评论 -
李宏毅2021机器学习笔记(九)
虽然已经把数据集分为Training set和Validation set,为什么还是会Overfitting??我们是先从D-train训练得到参数h,之后用D-val进行Loss的评价,最终选择最合适的Model进行test其实你想想,这一过程不也是一个train吗我们的目的就是挑选出L小的h*。H-val只有三个选择,并用D-val这一数据集进行train...原创 2022-04-08 10:53:51 · 574 阅读 · 0 评论 -
李宏毅2021机器学习笔记(八)
CNN卷积神经网络——图像处理输入给定相同大小的图片,输出一个向量,n维向量可以辨识n种动物,但是我们输出的可能不是膜长为1的向量哦那就需要分类的方法Cross entropy 去构造Loss计算机世界中图像是什么?张量tensor可以理解为PS里面的通道层数把三色通道写到一维数组就是右边这个其实是矩阵拼接起来的啦:100*100的矩阵竖着拼但其实我们不需要去看所有的细节,我们只需要看:鸟嘴、鸟眼睛等区域就可以那么我...原创 2022-04-06 20:16:50 · 380 阅读 · 0 评论 -
李宏毅2021机器学习笔记(三)
再次回顾ML过程定义参数——定义损失函数——梯度下降优化参数欠拟合(Model Bias)解决欠拟合:① 增加线性模型参数,赋予更多弹性②使用dl的弹性进行拟合局部最小值情况注意!此类情况测试集以及预测效果都不好,而Overfitting是测试好的不行,而预测很离谱!所以说当我们适当增加模型弹性,导致结果很离谱,那就可能是Optimization Issue(优化问题)关于loss的评估图mismatch的情况是训练集和测试集分布不一样,..原创 2022-04-02 13:37:11 · 333 阅读 · 0 评论