- 博客(7)
- 收藏
- 关注
原创 DarkNet-YoloV3 使用教程 训练自己的数据 GPU版本
一 Darknet-Yolov3下载与安装源文件下载地址:https://github.com/pjreddie/darknet下载解压完后,将darknet-master主文件夹的名字改为darknet之后修改Makefile,因为是使用GPU版本,将GPU=0改为 GPU=1然后使用make指令运行Makefile。模型下载地址:https://pjreddie.com/m...
2018-11-16 10:21:08 6676 3
原创 【笔记】Notes for Deeplearning 深度学习与神经网络的笔记
Notes for NLPRNN:https://zhuanlan.zhihu.com/p/28054589DTW:https://blog.csdn.net/niyanghuahao/article/details/78612157GMM HMM:https://blog.csdn.net/abcjennifer/article/details/27346787LSTM:http...
2018-11-11 10:29:49 341
原创 CNN边缘检测示例 直观观察CNN卷积结果
一 两种示例滤波器水平与垂直滤波器,分别用来检测水平边缘与竖直边缘二 简单示例假定矩阵中的数值表示灰度,那么用此6*6的矩阵和vertical filter以stride=1进行卷积,可得到等式右边的结果,那么结果的矩阵正值表示检测出的边缘若将原矩阵的灰白部分与黑暗部分对调再次使用vertical filter,可得到如等式右边的矩阵,其结果变为边缘变成了值为负数的黑色...
2018-11-09 16:20:42 2798 2
原创 CNN中的前向传播 及其Python代码实现
符号约定A表示卷积的结果矩阵,W表示滤波器(filter)矩阵,b表示偏置(bias)矩阵,stride表示卷积步长,nh nw分别表示矩阵的高和宽,nc表示通道(channel)数,也就是矩阵的第三维推导见如下图,其中prev表示上层卷积结果下面是层间的关系表达式前向传播函数Python代码def conv_forward(A_prev,W,b,hpar...
2018-11-06 17:24:00 2283 2
原创 convolution 卷积的直观解释 卷积的物理意义
作者:果程C链接:https://www.zhihu.com/question/21686447/answer/50481954来源:知乎著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。 对于初学者,我推荐用复利的例子来理解卷积可能更直观一些:小明存入100元钱,年利率是5%,按复利计算(即将每一年所获利息加入本金,以计算下一年的利息),那么在五年之后他能拿到的...
2018-11-05 22:31:04 534 2
原创 深层网络(deepNN)中前向传播fp与后向传播bp的向量化参数 向量化表示 python表示 维数
对于第l层:维数前向传播python code:Z=np.dot(W,A_prev)+bA=sigmoid(Z)或者relu(Z)后向传播python code:dW=np.dot(dZ,A_prev.T)/mdb=np.sum(dZ,axis=1).reshape(dZ.shape[0],1)/mdA_prev=np.dot...
2018-11-02 20:57:26 317
原创 反向传播back propagation:神经网络递推与一般表示的向量形式
零 前置知识损失函数与激活函数损失函数的形式称为交叉熵(cross entropy),后面的推导中的损失函数L都是此形式梯度下降法Repeat:{}until convergence可见若进行梯度下降法,需求出w与b对L的导数 一 Logistic回归中的导数与back propagation基本结构 logistic回归的梯度表...
2018-11-01 21:46:03 1227
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人