深度学习
wnloverforever
这个作者很懒,什么都没留下…
展开
-
BP反向传播
这里简单记录一下神经网络bp反向传播的过程 首先最普通的神经网络,抛开最后输出的损失函数,以及激活层,其隐藏层之间其实就是很多个线性回归y=wx+b组成的 那么,思考下线性回归的权重更新方式,直接计算法,和梯度下降(我们做机器学习或者深度学习,肯定是迭代过程,为梯度下降,而且当维度太高时,直接计算法会导致维度爆炸无法计算)。那么我们可不可以在多层的神经网络里面延续梯度下降的方式来对权重进行更新呢?...原创 2019-11-12 19:39:11 · 102 阅读 · 0 评论 -
IOU
def IoU(box, bboxes): """ Caculate IoU between detect and ground truth boxes :param box:numpy array (4, ) :param bboxes:numpy array (n, 4):x1, y1, x2, y2 :return: numpy array, ...原创 2019-11-08 14:51:59 · 86 阅读 · 0 评论 -
NMS
由于在物体检测过程中,通常是通过卷积的滑动,来检测所有可能是物体的检测框,这就出现了一个问题,可能会出现很多候选框,而且这些候选框很多是重叠的,那么如何解决这一问题,来去除重复框,就用到了非极大值抑制,NMS。NMS算法流程如下/ 首先,通过网络的检测,每一个候选框都会有一个score,根据score进行排序。 import numpy as np def py_cpu_nms(dets, t...原创 2019-11-08 14:47:42 · 190 阅读 · 0 评论