![](https://img-blog.csdnimg.cn/20201014180756926.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
深度学习
在学习的苹果
这个作者很懒,什么都没留下…
展开
-
Yolov4
引入CSP, k1是1*1,s1代表布局个数,c是卷积核个数其中Mish是激活函数,Mish = x*tanh(ln(1+e^x))原创 2022-08-16 16:43:08 · 69 阅读 · 0 评论 -
Yolo v3
上图表明在小目标上也做的很好。原创 2022-08-14 16:05:19 · 505 阅读 · 0 评论 -
YoloV2
v1一个gridcell只能预测一个类别物体,v2一个girdcell可以预测五种 ,v1是选择bbox与真实框IOU最大的框,直接预测框的坐标。思想是对数据集的各个真实框的xywh聚类,并根据聚类中心个数选取相应的锚框坐标,为了权衡模型性能,选择5个聚类中心,赋予锚框初始值。在fast-rcnn SSD中,锚框数/gridcell和长宽比,size是手动选择的,而V2是聚类选取。前面的pr是:模型是否存在物体,to是 confidence,需要向左边学习,靠近。左边是分类的,右边是检测的。...原创 2022-08-14 11:21:23 · 302 阅读 · 0 评论 -
YoloV1
Yolo系列是one-stage算法不同于two-stage,它的速度更快,更适合实时目标检测。原创 2022-08-13 15:25:23 · 718 阅读 · 0 评论 -
李沐——卷积层
在以往的全连接层,输入是一个n维向量,但是在隐藏层我们输出的是k维,二者并没有关系。这一操作使用矩阵w来实现,可以理解为w改变了x的形状那么我们考虑二维输入k*l,在隐藏层我们会用W改变Xk*l变成Hi*j,我们确实无法理解高维,但是在这里我们可以思考一个矩阵,Wijkl。它施加的变换能使X_k*l变成H_i*j。这里我们使用类比推理的思想,k*l理解为原来的输入n。 这就用了简单的换元:k=i+a,A对于CNN,我们不希望x变化时,V也跟着变化,V可以理解为分类器,我的x不管在哪,v都会感知它,也就是说一原创 2022-07-04 15:47:14 · 391 阅读 · 0 评论 -
动手学深度学习(二)自动求导
反向会消耗 内存一般不用正向传递,因为我们一般要对每一层计算梯度,正向不会保存每一层的结果原创 2022-06-22 21:26:27 · 186 阅读 · 0 评论 -
动手学深度学习(一)基础概念
安装原创 2022-06-04 21:41:10 · 82 阅读 · 0 评论 -
李宏毅2021机器学习笔记(九)
虽然已经把数据集分为Training set和Validation set,为什么还是会Overfitting?? 我们是先从D-train训练得到参数h,之后用D-val进行Loss的评价,最终选择最合适的Model进行test 其实你想想,这一过程不也是一个train吗 我们的目的就是挑选出L小的h*。H-val只有三个选择,并用D-val这一数据集进行train ...原创 2022-04-08 10:53:51 · 559 阅读 · 0 评论 -
李宏毅2021机器学习笔记(八)
CNN卷积神经网络——图像处理 输入给定相同大小的图片, 输出一个向量,n维向量可以辨识n种动物,但是我们输出的可能不是膜长为1的向量哦 那就需要分类的方法Cross entropy 去构造Loss 计算机世界中图像是什么? 张量tensor 可以理解为PS里面的通道层数 把三色通道写到一维数组就是右边这个 其实是矩阵拼接起来的啦:100*100的矩阵竖着拼 但其实我们不需要去看所有的细节,我们只需要看:鸟嘴、鸟眼睛等区域就可以 那么我...原创 2022-04-06 20:16:50 · 370 阅读 · 0 评论 -
李宏毅2021机器学习笔记(三)
再次回顾ML过程 定义参数——定义损失函数——梯度下降优化参数 欠拟合(Model Bias) 解决欠拟合:① 增加线性模型参数,赋予更多弹性②使用dl的弹性进行拟合 局部最小值情况 注意!此类情况测试集以及预测效果都不好,而Overfitting是测试好的不行,而预测很离谱! 所以说当我们适当增加模型弹性,导致结果很离谱,那就可能是Optimization Issue(优化问题) 关于loss的评估图 mismatch的情况是训练集和测试集分布不一样, ..原创 2022-04-02 13:37:11 · 320 阅读 · 0 评论