传统神经网络

目录

1. 神经网络起源:线性回归

应用场景

一个线性回归问题

梯度下降:参数更新 m:=m-ηΔm

梯度下降法总结

线性回归

线性回归局限

非线性激励

常用的非线性激励函数

tahn

ReLU

神经元-神经网络

神经网络构建

神经网络的“配件”

损失函数

学习率 Learning rate

过拟合---应对


1. 神经网络起源:线性回归

线性回归:线性关系来描述输入到输出的映射关系

应用场景

一个线性回归问题

目标方程:y=ax1+bx2+cx3+d 参数:m=[a,b,c,d],

数据:[(x1,1,x2,1,x3,1), (x1,2,x2,2,x3,2), …(x1,n,x2,n,x3,n)]

[y1,y2…..yn]

预测:ŷt=ax1,t+bx2,t+cx3,t+d

目标: minimize (ŷt -yt),使得预测的y值和真实y值越小越好。

优化方法(优化目标)

模型参数:当前m0 =[a0,b0,c0,d0],每一步Δm? 参数:m=[a,b,c,d]

山坡高度:Loss ,将预测值和真实值之间的差距理解为山坡高度。地面位置:参数(abcd参数值)。

山坡最低点:Loss minimal

最低点位置:目标参数

怎么到达最低点:下坡方向,梯度下降 怎么找方向:高度对地面关系导数

梯度下降:梯度计算

Loss=ax1,t+bx2,t+cx3,t+d-y

梯度下降:参数更新 m:=m-ηΔm

梯度下降法总结

随机初始化参数。开启循环:t=0,1,2。带入数据求出结果ŷt,与真值比较得到loss=y-ŷt,对各个变量求导得到Δm 更新变量m如果loss足够小或t循环结束,停止。

线性回归

输出+

多目标学习,通过合并多个任务loss,一般能够产生比单个模型更好的效果。

线性回归局限

从图上可以看出线性回归能够清楚的描述分割线性分布的数据,对非线性分布的数据描述较弱。

非线性激励

考量标准:1.正向对输入的调整2.反向梯度损失。

常用的非线性激励函数

 

将输入数据映射到[0,1],梯度下降非常明显,至少减少75%。

常用的非线性激励函数

tahn

将输入数据映射到[-1,1],梯度损失明显。

ReLU

函数效果,导数,优点,缺点。

神经元-神经网络

神经网络构建

神经元的“并联”和“串联”,从第一层神经网络到最终输出,每一个神经元的数值由前一层神经元数值,神经元并联:宽度

参数W,b以及激励函数共同决定第n+1层第k个神经元的方程可由公式表示为:
 
 
在这里,m表示第n层神经网络的宽度,n为当前神经网络的深度。

神经网络求导-TensorFlow实现

data = tf.placeholder(tf.float32) var = tf.Variable(...)
loss = some_function_of(var, data)
var_grad = tf.gradients(loss, [var])


sess = tf.Session()
var_grad_val = sess.run(var_grad, feed_dict={data: ...})

神经网络的“配件”

1.损失函数-Loss

2.影响深度学习性能最重要因素之一。是外部世界对神经网络模型训练的直接指导。

3.合适的损失函数能够确保深度学习模型收敛。

4.设计合适的损失函数是研究工作的主要内容之一。

损失函数

学习率 Learning rate

 

过拟合---应对

 

Pooling的本质是降维,Droupout的本质是Regularization。

 

 

 

 

 

 

 

 

 

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
传统神经网络结构是指非循环神经网络,也称为前馈神经网络。在传统神经网络中,信息只能从输入层流向输出层,不存在循环连接。传统神经网络由多个神经元组成,每个神经元接收来自上一层神经元的输入,并通过激活函数对输入进行加权求和和非线性变换,然后将结果传递给下一层神经元。这种层与层之间的连接方式使得传统神经网络能够处理各种复杂的非线性关系。 传统神经网络的训练过程通常使用反向传播算法(Backpropagation)来更新网络中的权重和偏置,以最小化预测输出与真实输出之间的误差。反向传播算法通过计算误差梯度并将其传递回网络的每一层来实现权重和偏置的更新。 传统神经网络结构的一个重要特点是每个神经元与上一层的所有神经元都有连接,这导致了网络的参数数量随着网络规模的增加而呈指数级增长,从而增加了训练的复杂性和计算成本。 总结起来,传统神经网络结构是一种非循环的前馈网络,通过层与层之间的连接和激活函数的作用,能够处理各种复杂的非线性关系。它的训练过程使用反向传播算法来更新网络中的权重和偏置。然而,传统神经网络在处理序列数据等具有时间相关性的任务时存在一定的局限性,因此后来发展出了循环神经网络(RNN)等更加适用于这类任务的网络结构。\[1\]\[2\] #### 引用[.reference_title] - *1* [RNN(循环神经网络)详解](https://blog.csdn.net/fighting_qq/article/details/126708149)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^control,239^v3^insert_chatgpt"}} ] [.reference_item] - *2* [最全神经网络基础知识讲解](https://blog.csdn.net/CSS360/article/details/126388382)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^control,239^v3^insert_chatgpt"}} ] [.reference_item] - *3* [卷积神经网络结构详解](https://blog.csdn.net/ytusdc/article/details/78190651)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^control,239^v3^insert_chatgpt"}} ] [.reference_item] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值