- 博客(7)
- 收藏
- 关注
原创 keras积累
input_shape argument to the first layer. This is a shape tuple (a tuple of integers or None entries, where Noneindicates that any positive integer may be expected none值这个地方可能输入任意的正整数https://machinel...
2018-04-06 19:47:22 234
原创 PAW预测下一步设想
1、快速训练,通过可视化获知最重要的那些特征,了解获得这些特征的方法,即什么样的图片训练了能够最大化模型的提升率,而这些图片有什么特征,是在什么参数下获取的,就是用最少的数据,最小的计算量,最快得dec2、stateful lstm,(A non-stateful model, on the other hand, will use an initial zero state every time...
2018-04-02 20:45:50 321
原创 LSTM需重要查看的资料
https://machinelearningmastery.com/seed-state-lstms-time-series-forecasting-python/lstm训练https://www.zybuluo.com/hanbingtao/note/581764lstm等更严谨的算法推导https://www.cnblogs.com/welhzh/p/6857409.html有关sampl...
2018-04-02 14:48:19 160
原创 How to write a good paper
http://approximatelycorrect.com/2018/01/29/heuristics-technical-scientific-writing-machine-learning-perspective/原文链接https://baijiahao.baidu.com/s?id=1594716444191642457&wfr=spider&for=pc翻译链接...
2018-03-15 15:23:13 255
转载 一些困惑
标签的数据类型是否会影响准确率等https://machinelearningmastery.com/timedistributed-layer-for-long-short-term-memory-networks-in-python/目前理解看来time_step的设置比较重要,体现了连续性,但模型设计时,将time step设置大,batch_size减小的做法被认为没有充分利用LSTM的特...
2018-03-02 17:31:55 115
转载 卷积层和反卷积层之间的关系+弄清楚反卷积层输入特征大小和输出特征大小之间的关系。
https://buptldy.github.io/2016/10/29/2016-10-29-deconv/#%E5%8F%8D%E5%8D%B7%E7%A7%AF%E5%B1%82
2018-03-02 17:17:24 3306
原创 一些比较重要的,有意思的博客
http://36kr.com/p/5091556.html对抗性训练http://www.cleverhans.io/关注Ian Goodfellow和Nicolas Papernot的cleverhans博客以跟进最新的研究进展https://zhuanlan.zhihu.com/p/21699462 卷积神经网络(CNN)的理解与可视化http://www.sohu.com/a/13060...
2018-02-10 18:25:48 254
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人