- 博客(4)
- 收藏
- 关注
转载 神经网络训练中,Epoch、Batch Size和迭代傻傻分不清?
原文链接:https://medium.com/towards-data-science/epoch-vs-iterations-vs-batch-size-4dfb9c7ce9c9 理解迭代,只需要知道乘法表或者一个计算器就可以了。迭代是 batch 需要完成一个 epoch 的次数。记住:在一个 epoch 中,batch 数和迭代数是相等的。 比如对于一个有 2000 个训练...
2018-08-02 19:53:30 2419
原创 对deconv的个人理解
本文参考链接如下:https://www.zhihu.com/question/43609045 对于图像的语义分割,我觉得比较经典文章的基本上的框架是:conv + deconv + (后续的处理模块)。 在conv中,是这样操作的:举例说明 4x4的输入,卷积Kernel为3x3, 没有Padding / Stride, 则输出为2x2。输入矩阵可展开为16维向量,记作,输出矩阵可展开为...
2018-07-25 14:40:04 4182
原创 图像拼接
今天看了关于图像处理中的图像拼接的内容,就是上次张院长要求做的将两个照片根据照片中的相似点将两张以上的内容拼到一起。看了看程序,我的天啊,真的太难了!!!这程序是在网上找的,拿来运行之后错误百出,在陈华同学的帮助下,此处省略好多字,终于可以完成拼接的任务了。可是对着这个程序大眼瞪小眼,啥都不会!!! 今天仔细看看程序,虽然还是看不懂,可是感觉还是有点收获的。嗯,今天就这样。
2017-11-21 17:03:14 376
原创 机器学习第五章
今天看了《机器学习》的第五章神经网络部分。本章主要讲述的是: 1.神经元是神经网络模型的最基本的单元 2.M-P神经元模型包括输入层、隐层和输出层。 2.1输入信号进行加权式的连接 2.2输入层仅接受输入,不进行函数处理,隐层和输出层包含神经功能元 3.比较经典的神经网络的算法是BP算法(标准BP算法、累积BP算法)。一般情况下的BP算法网络指的是训练多层(指的是隐层的层数)前反
2017-11-20 16:24:53 466
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人