cnn 预测过程代码_CNN结构:可用于时序预测复合的DNN结构-AcGANs、误差编码网络 ENN...

前言:模式识别问题

模式函数是一个从问题定义域到模式值域的一个单射。

从简单的贝叶斯方法,到只能支持二分类的原始支持向量机,到十几个类的分类上最好用的随机森林方法,到可以支持ImageNet上海量1860个类且分类精度极高的InceptionV4(参考:CNNhttp://blog.csdn.net/wishchin/article/details/45286805),其模式函数为

f( x ) = { X——>Y }|{  X = ImageNet的图片,Y={ 1860个类的标记 }  }

是一个单射函数。 普遍情况下,定义域小于值域,模式函数成为一个hash函数。参考: AI:模式识别的数学表示(集合—函数观点)

生成式模型GAN:

机器之心所关注的GAN文章列表:f( x ) = { X——>Y }|{  X = ImageNet的图片,Y={ 1860个类的标记 }  }。

中,GANs用于人脸图像合成,让人提前看到年老时的模样,还原Gans不同于一般DNN模型的特殊应用及主要存在意义。

人脸图像合成和基于时间的预测,是一个判别函数的复合函数,但不同于GANs本身训练过程的一个时间过程。K(f( x )) = { X——>K(Y) }|{  X = 人脸图片的定义域,K(Y)={  生成人脸图片  }   },结果不是判别的,而是生成的。K(x)是一个时序函数模型。

使用时间函数复合,可使从判别模型,到预测模型,判别的另外一个目的是用于假设,进而用于探索,逐步靠近真正地智慧所在。

从贝叶斯、马尔科夫到预测/演绎模型

从可见条件推测模型,构造假设,用以探测真实,即是贝叶斯方法,是一种分析方法,使用了归纳,为判别模型。而预测模型,则使用了另一个重要的推理过程,演绎过程。从归纳到演绎,是处理问题的一般过程。时序GANs模型,是一个时间意义上的演绎模型。

为了做一些事情,仅仅是判别有什么意义!预测才有未来。以人为镜可以整衣冠,以史为镜可以见兴衰。收集到妹子各方面的知识,用以构建妹子的思考模型,当然不是最终目的。目的是该怎样选取一个怎样最优的函数,才能把得上她。

文章用于生成不同年龄的图片, 采用的模型是条件对抗网络,  主要创新点是,   首先通过一个网络,   提取图像特征向量,    并通过身份保持网络,    优化图像的特征向量 , 得到特征向量,  之后便可以对于每个输入年龄 ,  查找其年龄向量, 并将该年龄向量与输入图片特征向量串联/复合,  输入生成网络, 生成目标年龄图片.

预测结果:

误差编码网络 ENN

在这篇论文中,作者们介绍了一种新的架构,它让时间序列数据的条件预测也可以是多模态且健壮的。它的构建基于一个简单的直觉,就是把未来状态分成确定部分和随机部分的组合;确定部分可以根据当前状态直接做出预测,随机的(或者说难以预测)的部分就代表了关于未来的不确定性。训练这个确定性的网络就能够以网络预测的形式获得确定性因子,同时也得到了与真实状态相比得到的预测误差。这个误差可以用低维隐含变量的形式编码,然后送入第二个网络中;这第二个网络经过训练后就可以利用这些额外的信息准确地更正前一个确定性网络的预测结果。这就是论文中提出的误差编码网络(Error Encoding Network,ENN)。

简单来说,这个框架在三个时间步骤中分别含有三个函数映射:第一个函数映射把当前状态映射到未来状态,它也就把未来状态分成了确定性和不确定性的两个部分

第二个函数映射是从不确定部分映射到低维隐含向量‘

第三个函数映射是基于隐含向量的条件,把当前状态映射到未来状态,这个过程中也就编码了未来状态的模式信息。

模型的训练过程中会用到全部的三个映射,推理部分只需要最后一个映射。

模型架构

前述的两个网络都是根据监督学习的目标函数端到端训练的,隐含变量是通过学到的参数化函数计算的,这样一来训练过程就可以简单、快速。

翻一下这两个很长的PPT:

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
1. ARIMA 2. SARIMA 3. VAR 4. Auto-ARIMA 5. Auto-SARIMA 6. LSTM 7. GRU 8. RNN 9. CNN 10. MLP 11. DNN 12. MLP-LSTM 13. MLP-GRU 14. MLP-RNN 15. MLP-CNN 16. LSTM-ARIMA 17. LSTM-MLP 18. LSTM-CNN 19. GRU-ARIMA 20. GRU-MLP 21. GRU-CNN 22. RNN-ARIMA 23. RNN-MLP 24. RNN-CNN 25. CNN-ARIMA 26. CNN-MLP 27. CNN-LSTM 28. CNN-GRU 29. ARIMA-SVM 30. SARIMA-SVM 31. VAR-SVM 32. Auto-ARIMA-SVM 33. Auto-SARIMA-SVM 34. LSTM-SVM 35. GRU-SVM 36. RNN-SVM 37. CNN-SVM 38. MLP-SVM 39. LSTM-ARIMA-SVM 40. LSTM-MLP-SVM 41. LSTM-CNN-SVM 42. GRU-ARIMA-SVM 43. GRU-MLP-SVM 44. GRU-CNN-SVM 45. RNN-ARIMA-SVM 46. RNN-MLP-SVM 47. RNN-CNN-SVM 48. CNN-ARIMA-SVM 49. CNN-MLP-SVM 50. CNN-LSTM-SVM 51. CNN-GRU-SVM 52. ARIMA-RF 53. SARIMA-RF 54. VAR-RF 55. Auto-ARIMA-RF 56. Auto-SARIMA-RF 57. LSTM-RF 58. GRU-RF 59. RNN-RF 60. CNN-RF 61. MLP-RF 62. LSTM-ARIMA-RF 63. LSTM-MLP-RF 64. LSTM-CNN-RF 65. GRU-ARIMA-RF 66. GRU-MLP-RF 67. GRU-CNN-RF 68. RNN-ARIMA-RF 69. RNN-MLP-RF 70. RNN-CNN-RF 71. CNN-ARIMA-RF 72. CNN-MLP-RF 73. CNN-LSTM-RF 74. CNN-GRU-RF 75. ARIMA-XGBoost 76. SARIMA-XGBoost 77. VAR-XGBoost 78. Auto-ARIMA-XGBoost 79. Auto-SARIMA-XGBoost 80. LSTM-XGBoost 81. GRU-XGBoost 82. RNN-XGBoost 83. CNN-XGBoost 84. MLP-XGBoost 85. LSTM-ARIMA-XGBoost 86. LSTM-MLP-XGBoost 87. LSTM-CNN-XGBoost 88. GRU-ARIMA-XGBoost 89. GRU-MLP-XGBoost 90. GRU-CNN-XGBoost 91. RNN-ARIMA-XGBoost 92. RNN-MLP-XGBoost 93. RNN-CNN-XGBoost 94. CNN-ARIMA-XGBoost 95. CNN-MLP-XGBoost 96. CNN-LSTM-XGBoost 97. CNN-GRU-XGBoost 98. ARIMA-ANN 99. SARIMA-ANN 100. VAR-ANN 上面这些缩写模型的全称及相关用途功能详细解释
07-15

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值