![](https://img-blog.csdnimg.cn/20201014180756925.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
卷积
孩儿立志出乡关
这个作者很懒,什么都没留下…
展开
-
keras之padding=same具体实现
在keras中,之前只是从理论上了解了padding=same的原理,并没有自己尝试写出这个功能,当自己尝试写出这一过程时,发现我在理论上的理解与实际的实现有一定的差异,所以写出这篇博客,记录下自己写的过程中,对padding=same的更详细的实现。(注,由于我做的工作使用的是一维数据,不是图片这种二维数据,故下面都是以一维数据为例记录说明)padding的作用首先重复下padding的作用...原创 2019-07-12 10:14:58 · 12830 阅读 · 8 评论 -
keras中卷积核计算时是否有旋转180度
之前在研究卷积计算过程时,多次看到网上说到卷积核计算时,要先旋转180度后再与输入数据运算,当我重写训练好的keras模型时,发现使用旋转的卷积核参与运算,得不到正确结果。但是当我不使用旋转的卷积核时,能得到正确的结果,虽然不知道具体原因,但是结果是这样,所以记录于此,作为经验为后续做参考。...原创 2019-07-12 10:43:00 · 238 阅读 · 2 评论 -
keras中Dropout在预测过程中是否仍要起作用
因为需要,要重写训练好的keras模型,虽然只具备预测功能,但是发现还是有很多坑要趟过。其中Dropout这个坑,我记忆犹新。一开始,我以为预测时要保持和训练时完全一样的网络结构,所以预测时用的网络也是有丢弃的网络节点,这样想就掉进了一个大坑!因为怎么通过已经训练好的模型,来获取其训练时随机丢弃的网络节点是那些,这本身就根本不可能。训练过程中,使用Dropout,个人感觉就是对部分权重和偏置在...原创 2019-07-12 10:58:58 · 5925 阅读 · 6 评论