机器学习系列(1):十分钟掌握深度神经网络的原理、推导与实现

 哎呀人工智能好像很火啊,神经网络又是啥,这里是机器学习系列第一篇,带你走进AI,那DNN了解一下(本文干货风哦)。

 

图片挂了...贴个链接吧,大家可以到这看.

https://mp.weixin.qq.com/s?__biz=MzU4NTY1NDM3MA==&mid=2247483715&idx=1&sn=f81cb0764e1a4c2fc5aef75f94ea8215&chksm=fd86084ecaf18158c7c4c6446745596510c64de5080fa43407ad1bd68c82e02c01c277de3e03#rd

                                                                

                                                             00 内容概览

 

机器学习系列(1):深度前馈神经网络--原理解释、公式推导及Python实现

深度神经网络的原理解释:

  • 定义

  • 变量约束

  • 前向传播

  • 反向传播

  • 数据集

公式推导:

  • 前向过程

  • BP算法

  • 梯度下降

Python实现:

  • 见文章内容

申明

本文原理解释及公式推导部分均由LSayhi完成,供学习参考,可传播;代码实现部分的框架由Coursera提供,由LSayhi完成,详细数据及代码可github查阅。 

https://github.com/LSayhi/DeepLearning

微信公众号:AI有点可ai

                                                                                              

                                                          01 原理解释

 

 

 

1.1 定义: 前馈神经网络,亦称多层感知机,网络的目标是近似一个目标映射 f ,记为y=f(x;θ)。 对于预测型神经网络来说,通过学习参数θ的值,使得函数 f 拟合因变量自变量之间的 映射关系;对于分类神经网络,学习参数θ的值,使映射 f 拟合各类别之间的边界。

  • 神经网络模型由输入层、输出层、隐藏层及连接各层之间的权重(参数)组成。

  • “深度”是指 除去模型中输入层后网络的层数;

  • “前馈”是指 网络没有反馈的连接方式;

  • “网络”是指 它是由不同函数g所复合的。

 

 

1.2 变量约束: 以一个输入层特征数为 n_x(=12888,n_x定义为输入层的单元数) ,L(=L-1+1,L定义为除去输入层的网络层数) 层,即隐藏层数为 L-1 的前馈神经网络为例,见figure 1。

  •  表示第  层第 

  • 1
    点赞
  • 24
    收藏
    觉得还不错? 一键收藏
  • 2
    评论
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值