ccn原理的理解
深度学习Deep Learning(01)_CNN卷积神经网络
这两篇文章里推荐的资源也很好:
还有有关tensorflow的:
深度学习之卷积神经网络CNN及tensorflow代码实现示例
tf里实现cnn的相关函数介绍
【TensorFlow】tf.nn.max_pool实现池化操作
还有 优达学城 这个慕课网上谷歌的课程里有cnn的介绍
自己还有两个问题要记录一下
1TensorFlow如何设置卷积核
按照 CNN中的卷积核及TensorFlow中卷积的各种实现 中
“CNN中的卷积核的一个重要特点是它是需要网络自己来学习的。这一点很简单也很重要:一般的卷积核如sobel算子、平滑算子等,都是人们根据数学知识得到的,比如求导,平均等等。所以一般的人工卷积核是不能放进卷积层的,这有悖于“学习”的概念。我们神经网络就是要自己学习卷积核的参数。来提取人们想不到甚至是无法理解的空间结构或特征。其他特征包括全局共享(一个卷积核滑动一整张图像),多核卷积(用一个卷积核只能提取一种空间结构或特征)。”
的意思,应该是不需要设置卷积核的,那应该就是某种随机数,但是暂未找到初始卷积核产生方法。通过反馈变成不同的卷积核。那又是如何产生不同的核的,不同的核对应不同的特征。那应该参考CNN(卷积神经网络)是什么?有入门简介或文章吗?
2池化层的max pooling具有平移不变形,ave对背景保存好,还有L2范数的方法。
但最多用max,这是否是真的好,有没有第一次max时丢失信息?别的为什么不被广泛使用。有没有都用的可能