“ 哎呀人工智能好像很火啊,神经网络又是啥,这里是机器学习系列第一篇,带你走进AI,那DNN了解一下(本文干货风哦)。”
图片挂了...贴个链接吧,大家可以到这看.
00 内容概览
机器学习系列(1):深度前馈神经网络--原理解释、公式推导及Python实现
深度神经网络的原理解释:
-
定义
-
变量约束
-
前向传播
-
反向传播
-
数据集
公式推导:
-
前向过程
-
BP算法
-
梯度下降
Python实现:
-
见文章内容
申明
本文原理解释及公式推导部分均由LSayhi完成,供学习参考,可传播;代码实现部分的框架由Coursera提供,由LSayhi完成,详细数据及代码可github查阅。
https://github.com/LSayhi/DeepLearning
微信公众号:AI有点可ai
01 原理解释
1.1 定义: 前馈神经网络,亦称多层感知机,网络的目标是近似一个目标映射 f ,记为y=f(x;θ)。 对于预测型神经网络来说,通过学习参数θ的值,使得函数 f 拟合因变量自变量之间的 映射关系;对于分类神经网络,学习参数θ的值,使映射 f 拟合各类别之间的边界。
-
神经网络模型由输入层、输出层、隐藏层及连接各层之间的权重(参数)组成。
-
“深度”是指 除去模型中输入层后网络的层数;
-
“前馈”是指 网络没有反馈的连接方式;
-
“网络”是指 它是由不同函数g所复合的。
1.2 变量约束: 以一个输入层特征数为 n_x(=12888,n_x定义为输入层的单元数) ,L(=L-1+1,L定义为除去输入层的网络层数) 层,即隐藏层数为 L-1 的前馈神经网络为例,见figure 1。
-
表示第
层第