- 博客(6)
- 资源 (13)
- 问答 (1)
- 收藏
- 关注
翻译 CNN——epoch、iteration、batchsize
目录概念换算关系示例概念epoch训练时,使用所有数据集对模型进行一次完整的训练,称为一次epochbatch_size在训练集中选择一组样本用来更新权值,1batch包含的样本数目,通常设为2的n次幂,如64、125、256。网络较小使用256,较大使用64.iteration每迭代一次权值更新一次,一个batch训练时经过一次前向传播和后向传播。一个迭代就是完成一次epoch所需的batch个数。换算关系NumberofBatches=TrainingSetSi
2020-09-29 21:38:52 3295
翻译 Caffe——超参数配置(solver.prototxt)、制作LMDB数据源
超参数配置solver.prototxt制作LMDB数据源caffe的超参数文本是caffe非常重要的一个文件,它是caffe训练网络的一个入口。solver.prototxtnet: "train_val.prototxt" #网络的位置train_net:"xxx.prototxt"test_new:"xxx..prototxt"test_iter: 100 # 一次迭代了多少个样本? batch*test_iter = 总测试样本数据type:SGD #优化算法,有SGD、
2020-09-20 16:45:31 209
翻译 Caffe——网络配置(prototxt文件)
网络配置数据层卷积层池化层激活函数全连接层显示准确率层softmax层reshape层Dropout层数据层数据层是模型最底层,提供提供数据输入和数据从Blobs转换成别的格式进行保存输出,通常数据预处理(减去均值,放大缩小,裁剪和镜像等)也在这一层设置参数实现。layer { name: "mnist" #名称 type: "Data" #输入的是LMDB数据,前面的create_mnist.sh做了转换 include: { phase:TRIAN #只在训练的时候才包括(测
2020-09-20 10:03:14 1582 1
原创 线性分类(1)
graph LRA[Hard edge] -->B(Round edge) B --> C{Decision} C -->|One| D[Result one] C -->|Two| E[Result two]```
2020-09-07 19:05:21 769
原创 最小二乘法及其正则化——求导、几何、概率角度
目录求导角度几何角度概率角度正则化频率角度贝叶斯角度总结汇总求导角度数据集:n个p维样本集用矩阵X表示,值Y为n维向量,W为p维向量。X=[x1x2...xn]T=[x1Tx2T...xnT]=[x11x12...x1px21x22...x2p............xn1xn2...xnp]np X = \left[ \begin{matrix} x_1 & x_2 & ... & x_n \end{matrix} \right]^T = \left[
2020-09-06 11:03:59 809
翻译 矩阵求导
目录布局概念求导表格小实例布局概念分子布局:分子为列向量或者分母为行向量分母布局:分子为行向量或者分母为列向量分子布局下面所有向量x、y默认都是m、n维列向量。矩阵X是pxq,矩阵Y是mxn。标量/向量∂y∂xT=[∂y∂x1∂y∂x2...∂y∂xm] \frac{\partial y}{\partial \boldsymbol x^T} = \left[ \begin{matrix} \frac{\partial y}{\partial x_1} &
2020-09-05 09:11:20 269
opencv3.4 windows64
2020-10-11
kaggle冰山船舶卫星图数据集
2020-08-04
flower_photos.7z
2020-08-01
HCNA认证必备资源——腾讯微云
2020-04-11
云服务器ubuntu配置文件
2019-01-12
直方图修正方法的研究
2019-01-11
图像的基本运算及应用研究
2019-01-11
数字图像处理课设——图形界面设计
2019-01-11
夜间防睡控制器
2019-01-11
急问·python中的函数文档
2017-07-06
TA创建的收藏夹 TA关注的收藏夹
TA关注的人