传统神经网络

这篇博客详细介绍了传统神经网络,从线性回归的梯度下降法开始,探讨了非线性激励的重要性,包括sigmoid、tanh、ReLU和Leaky ReLU函数。接着,讲解了神经网络中的损失函数、学习速率和动量等关键概念,以及防止过拟合的策略,如正则化和dropout。最后,提到了在Mnist数据集上实现神经网络模型进行手写数字识别的例子。
摘要由CSDN通过智能技术生成

传统神经网络

1. 线性回归

梯度下降法

  • 总结:
    随机初始化参数;
    开启循环:t = 0, 1, 2 …
    带入数据求出结果: y^t
    与真值作比较得到: loss=yy^t
    对各个变量求导得到 Δm
    Δm=[x1,t,x2,t,x3,t,1]
    更新变量 m : m:=mηΔm
    如果 loss t$循环结束,则停止

2. 线性到非线性

非线性函数

评价非线性激励的两个标准

  • 正向对输入的调整
  • 反向梯度损失

常用的非线性激励函数

  • sigmoid函数

    y(x)=sigmoid(x)=11+exy(x)=y(x)(1y(x))

    这里写图片描述

    由图可以知道,当导数最大时, x=0 ,此时 y(x)=0.5 , y(x
  • 3
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
传统神经网络结构是指非循环神经网络,也称为前馈神经网络。在传统神经网络中,信息只能从输入层流向输出层,不存在循环连接。传统神经网络由多个神经元组成,每个神经元接收来自上一层神经元的输入,并通过激活函数对输入进行加权求和和非线性变换,然后将结果传递给下一层神经元。这种层与层之间的连接方式使得传统神经网络能够处理各种复杂的非线性关系。 传统神经网络的训练过程通常使用反向传播算法(Backpropagation)来更新网络中的权重和偏置,以最小化预测输出与真实输出之间的误差。反向传播算法通过计算误差梯度并将其传递回网络的每一层来实现权重和偏置的更新。 传统神经网络结构的一个重要特点是每个神经元与上一层的所有神经元都有连接,这导致了网络的参数数量随着网络规模的增加而呈指数级增长,从而增加了训练的复杂性和计算成本。 总结起来,传统神经网络结构是一种非循环的前馈网络,通过层与层之间的连接和激活函数的作用,能够处理各种复杂的非线性关系。它的训练过程使用反向传播算法来更新网络中的权重和偏置。然而,传统神经网络在处理序列数据等具有时间相关性的任务时存在一定的局限性,因此后来发展出了循环神经网络(RNN)等更加适用于这类任务的网络结构。\[1\]\[2\] #### 引用[.reference_title] - *1* [RNN(循环神经网络)详解](https://blog.csdn.net/fighting_qq/article/details/126708149)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^control,239^v3^insert_chatgpt"}} ] [.reference_item] - *2* [最全神经网络基础知识讲解](https://blog.csdn.net/CSS360/article/details/126388382)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^control,239^v3^insert_chatgpt"}} ] [.reference_item] - *3* [卷积神经网络结构详解](https://blog.csdn.net/ytusdc/article/details/78190651)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^control,239^v3^insert_chatgpt"}} ] [.reference_item] [ .reference_list ]
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值