![](https://img-blog.csdnimg.cn/20190927151117521.png?x-oss-process=image/resize,m_fixed,h_224,w_224)
深度学习
文章平均质量分 86
深度学习理论知识与实践
数据科学家修炼之道
Life is short, I use Python、Scala、Java、R、Julia、Spark、Flink、Matlab、Spss、Stata、Sas、ML and DL.
展开
-
线性神经网络
线性神经网络和单层感知器的区别主要在于:感知器的传输函数只能输出两种可能的值,而线性神经网络可以输出任意值,其传输函数是线性函数 如图所示,线性神经网络可以产生二值输出(图中的qqq)和模拟输出(图中的yyy)和感知器类似,先行神经网络的变量: x(n)=[1,x1(n),x2(n),...,xN(n)]Tx(n)=[1,x1(n),x2(n),...,xN(n)]Tx(n)=[1, ...原创 2020-03-12 21:18:02 · 256 阅读 · 0 评论 -
深度学习
2原创 2019-09-02 23:07:47 · 103 阅读 · 0 评论 -
深度学习系列
关于训练深度最难的事情之一是你要处理的参数的数量,从学习速率原创 2019-09-03 08:07:58 · 79 阅读 · 0 评论 -
深度学习系列
关于训练深度最难的事情之一是你要处理的参数的数量,从学习速率原创 2019-09-03 08:05:50 · 77 阅读 · 0 评论 -
深度学习系列
关于训练深度最难的事情之一是你要处理的参数的数量,从学习速率原创 2019-09-03 08:05:08 · 86 阅读 · 0 评论 -
深度学习系列
关于训练深度最难的事情之一是你要处理的参数的数量,从学习速率原创 2019-09-03 08:04:52 · 121 阅读 · 0 评论 -
深度学习
4原创 2019-09-02 23:07:17 · 86 阅读 · 0 评论 -
深度学习系列——6、深度强化学习
5原创 2019-09-02 23:07:02 · 345 阅读 · 1 评论 -
深度学习系列——5、循环神经网络
6原创 2019-09-02 23:06:41 · 399 阅读 · 0 评论 -
深度学习
3原创 2019-09-02 23:07:31 · 110 阅读 · 0 评论 -
深度学习系列——4、卷积神经网络
7原创 2019-09-02 23:06:22 · 756 阅读 · 0 评论 -
深度学习系列——3、自编码器
8原创 2019-09-02 23:06:07 · 174 阅读 · 1 评论 -
深度学习系列——2、多层感知器
9原创 2019-09-02 23:05:34 · 280 阅读 · 0 评论 -
深度学习系列——Softmax回归
关于训练深度最难的事情之一是你要处理的参数的数量,从学习速率原创 2019-09-02 23:04:37 · 310 阅读 · 0 评论 -
线性神经网络
线性神经网络线性神经网络和单层感知器的区别主要在于:感知器的传输函数只能输出两种可能的值,而线性神经网络可以输出任意值,其传输函数是线性函数 如图所示,线性神经网络可以产生二值输出(图中的qqq)和模拟输出(图中的yyy)和感知器类似,先行神经网络的变量: x(n)=[1,x1(n),x2(n),...,xN(n)]Tx(n)=[1,x1(n),x2(n),...,xN(n)]Tx...原创 2018-08-04 08:30:05 · 241 阅读 · 0 评论 -
径向基函数网络
todo原创 2018-08-04 08:31:38 · 260 阅读 · 0 评论 -
自组织竞争神经网络
todo原创 2018-08-04 08:32:01 · 536 阅读 · 0 评论 -
随机神经网络
todo原创 2018-08-04 08:32:37 · 1418 阅读 · 0 评论 -
线性神经网络
线性神经网络和单层感知器的区别主要在于:感知器的传输函数只能输出两种可能的值,而线性神经网络可以输出任意值,其传输函数是线性函数 如图所示,线性神经网络可以产生二值输出(图中的qqq)和模拟输出(图中的yyy)和感知器类似,先行神经网络的变量: x(n)=[1,x1(n),x2(n),...,xN(n)]Tx(n)=[1,x1(n),x2(n),...,xN(n)]Tx(n)=[1, ...原创 2018-08-02 19:34:18 · 242 阅读 · 0 评论 -
卷积神经网络
理论Python原创 2019-01-26 09:10:51 · 170 阅读 · 0 评论 -
循环神经网络
理论Python实现原创 2019-01-26 09:11:57 · 236 阅读 · 0 评论