- 博客(6)
- 资源 (4)
- 收藏
- 关注
原创 batch_normalization (bn)层以及实际使用中合并bn层
参考:bn层原理:https://blog.csdn.net/qq_25737169/article/details/79048516https://blog.csdn.net/hjimce/article/details/50866313合并bn层:https://blog.csdn.net/kangdi7547/article/details/81348254...
2018-11-15 17:34:04 755
原创 Inception结构学习(GoogLeNet提出)
参考以下文章:https://blog.csdn.net/qq_38906523/article/details/80061075
2018-11-15 17:03:43 834
原创 MobileNet学习总结
1.mobilenet v1参考下文即可,写的很好。https://blog.csdn.net/t800ghb/article/details/78879612自己的疑问:(1)DW层,即Depth-Wise层,是否实际上就是一个3x3的一维卷积核?2.mobilenet v2参考下文。https://blog.csdn.net/u011995719/article/d...
2018-11-14 16:55:38 466
原创 SoftMax函数,交叉熵损失函数与熵,对数似然函数
深度学习以及机器学习中都会用到SoftMax函数,交叉熵损失函数与熵,对数似然函数等一些数学方面的知识,此文作为个人学习笔记。1.softmax函数(1)定义多分类问题中,我们可以使用SoftMax函数,对输出的值归一化为概率值,映射到(0,1)区间。这里假设在进入softmax函数之前,已经有模型输出C值,其中C是要预测的类别数,模型可以是全连接网络的输出a,其输出个数为C,即输...
2018-11-08 15:17:06 10475
原创 caffe prototxt网络文件中参数含义
caffe中训练一个模型时,需要用到两个文件,一个是train.prototxt文件,里面定义了模型的网络结构;另一个是solver.prototxt文件,里面定义了训练模型时的一些参数配置。一些常用的参数的含义这里不做记录。1.train.prototxt文件(1)数据层在层类型中,也就是“type”这个参数,一般都会写“Data”,这个类型说明数据来自于数据库(如LevelDB和L...
2018-11-07 16:08:58 2013
原创 神经网络中反向传播算法(backpropagation)的pytorch实现,pytorch教程中的代码解读以及其他一些疑问与解答
pytorch的官网上有一段教程,是使用python的numpy工具实现一个简单的神经网络的bp算法。下面先贴上自己的代码:import numpy as npN,D_in,H,D_out = 4,10,8,5x = np.random.randn(N,D_in)#4x10y = np.random.randn(N,D_out)#4x5#print(x)#print(y)w...
2018-11-03 11:18:43 1511
opencv_contrib中用到的包
2018-08-29
ippicv_2017u2_lnx_intel64_20170418.tgz
2018-08-29
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人