Deep Learning
文章平均质量分 95
Dear_林
知其然知其所以然
展开
-
YOLO9000: Better, Faster, Stronger论文解读
论文:链接代码:链接原创 2022-05-03 14:31:50 · 259 阅读 · 0 评论 -
Batch Normalization: Accelerating Deep Network Training b y Reducing Internal Covariate Shift论文解读
论文:链接前言机器学习中有个很重要的假设:IID 独立同分布假设,就是假设训练数据和测试数据是满足相同的分布,这是通过训练数据获得的模型在测试数据上表现效果好的一个基本保障,也就是说模型的泛化能力。那BatchNorm的作用是什么呢?BatchNorm就是在深度神经网络的训练过程中使得每一层神经网络的输入保持相同的分布。其实BatchNorm的提出也是为了解决深度神经网络训练困难的问题,像Relu、residual network也是为了解决这一问题的。Q:为什么深度神经网络随着网络深度的加深,训练原创 2022-03-16 21:41:03 · 1069 阅读 · 0 评论 -
yolov1代码解读
前面已经对yolov1的原理做了一个了解,下面就来看一下yolov1的代码实现过程yolov1的代码倒是比Faster-Rcnn简单多了,但是一些逻辑顺序和Faster-Rcnn差不多● pascal_voc.py:对图片数据和XML数据进行解析和预处理;● yolo_net.py:搭建yolo v1网络,设置yolo v1的损失函数;● train.py 和test.py :一个用来训练模型,一个用来测试模型。1、pascal_voc.py这部分主要是解析xml文件,读取图片数据和对数据进行预原创 2022-03-15 14:08:56 · 7928 阅读 · 2 评论