![](https://img-blog.csdnimg.cn/20201014180756724.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
深度学习
文章平均质量分 77
识久
这个作者很懒,什么都没留下…
展开
-
onnx在线可视化模型结构
onnx可视化链接将转化好的 .onnx文件直接打开即可。原创 2021-11-16 15:26:40 · 7999 阅读 · 0 评论 -
相机投影原理、相机模型中的坐标系统以及标定方法(转载)
文章目录0 引言1 相机投影中的坐标系及其转换关系1.1 世界坐标系与相机坐标系1.2 相机坐标系与图像坐标系:称为摄像机模型以及投影矩阵1.3 图像坐标系与像素坐标系1.4 从世界坐标系到像素坐标系的转换方程1.5 综述2 成像中的误差2.1 光芯偏移误差与单像素点矩形(非正方形)误差2.2 透镜畸变3 相机标定过程中的内参、外参与畸变参数求解3.1平面单应性矩阵求解3.2 棋盘角点个数和参数个数3.3 单应性矩阵分解得到内外参矩阵3.4 畸变参数求解4 单目标定与双目标定原文链接!!!!!!!!!0转载 2021-11-05 17:35:15 · 3594 阅读 · 0 评论 -
手撕yolo3系列——详解train训练代码(详细注释)
上一节:详解yolo3整体网络代码本节代码所在文件pytorch_yolo3/train.py主程序pytorch_yolo3/nets/yolo_training.py子程序文章目录回顾编码编码成什么样怎么编loss的产生YOLOLoss类内容回顾这节不再一行行的按顺序读代码了(大型的程序一般都是一层一层地往里剥),讲解代码时我会尽量配相应的图来加以说明整套流程的思路,对!主要是思路。先把程序放一边,回顾历史,然后想想当下该干嘛。前面两节主要在搭建网络(模型),搭建好了只要输入一张图片就可以得原创 2021-01-16 01:50:24 · 4201 阅读 · 0 评论 -
手撕yolo3系列——详解yolo3整体网络代码(详细注释)
上一节:详解主干网络darknet53代码上一节构建完了主干网络darknet53(backbone),这一节构建完整的yolo3网络。还记得吗?arknet# 输出三路分支 out3 = self.layer3(x) out4 = self.layer4(out3) out5 = self.layer5(out4) return out3, out4, out5...原创 2021-01-14 14:09:11 · 3639 阅读 · 0 评论 -
手撕yolo3系列——详解主干网络darknet53代码(详细注释)
本文代码基于yolov3的pytorch版本。文章目录darknet53网络结构残差块结构darknet53网络结构文字版:卷积+(下采样卷积+1残差块)+(下采样卷积+2残差块)+(下采样卷积+8残差块)+(下采样卷积+8残差块)+(下采样卷积+4*残差块)鸣谢:图片来源是不是很有规律?不难看出,darknet53就是重复堆叠下采样卷积+n*残差块(n为残差块的个数)这个结构而组成的。而更基本的结构就是残差块了,因此我们先构建出残差块,然后重复堆叠上述结构darknet53就完成了。残差块结原创 2021-01-14 02:11:24 · 11986 阅读 · 8 评论 -
理解MaxPool最大池化的作用与反向传播
目前网络中运用最多的pool操作就是maxpool,最大池化。最开始经典的网络用的较多的是平均池化。操作与机制都差不多,一个是取最大值,一个是取平均值。作为小白的我最近看文章脑子里浮现出几个问题:池化层(我们以最大池化为例)的作用池化层如何通过反向传播池化层的最直观的作用就是降维、减少参数量、去除冗余信息、对特征进行压缩、简化网络复杂度、减少计算量、减少内存消耗等等。《动手学习深度学习》一书中还提到了这样一个作用: 缓解卷积层对位置的过度敏感性,实际上就是特征不变性。以下是书上的解释(pyto原创 2021-01-03 23:37:09 · 19647 阅读 · 1 评论 -
线性回归详解,通俗易懂,入门必看!
文章目录前言4.1学习就是参数估计4.1.1 一个热门问题4.1.2 选择线性模型作为首次尝试4.1.3 你所需的是减少损失4.1.4 从问题到PyTorch4.1.5 沿梯度向下4.1.6 进行分析4.1.7 训练循环前言本文引自于官方权威的 PyTorch 教程书《Deep learning with PyTorch》中的4.1章节<学习就是参数估计>。内容稍微有点长,但是耐心看下去一定会受益匪浅。其中蓝色字体是本人添加的一些笔记以及见解,如果理解有误,敬请提出。首先引用书中4.0章原创 2020-12-25 14:51:12 · 3373 阅读 · 0 评论