大模型基础之神经网络

13 篇文章 15 订阅 ¥9.90 ¥99.00
本文介绍了神经网络的基础知识,包括神经元、激活函数、层的构成以及前向计算。详细阐述了训练过程中的目标——损失函数最小化,以及梯度下降法、反向传播和不同的梯度下降优化策略,如随机梯度下降和 mini-batch 梯度下降。此外,还提及了词向量模型 Word2Vec 和几种循环神经网络(RNN、GRU、LSTM 及双向 RNN),以及卷积神经网络(CNN)在处理序列和图像数据上的应用。
摘要由CSDN通过智能技术生成

【神经网络的构成】

神经元 激活函数 层

feedforward computation前向计算:从输入开始依次计算每一层的结果。

隐层:在输入之上添加的多层通常被称为隐层。

激活函数:非线性的激活函数,拟合非线性关系,进行非线性变换。

叠加若干隐层,提升网络的表达能力。

输出层:来得到结果。线性输出层,用来解决回归问题。sigmoid输出层,将结果压到0-1之内,用来解决二分类问题。softmax输出层,用来解决多分类问题。

【如何训练】

目标:均方差越小,模型越好。Mean Squared Error。每个预测值和真实值差的平方和再求平均。将均方差定义为损失函数,也就是所谓的loss。训练的目标就是去减小这个损失函数的值。

如果是分类任务呢,目标就是最小化交叉熵Cross-entropy.

如何使损失函数最小化,采用梯度下降法,把整个优化过程拆分成一个个步骤,每一步,缩小损失函数一点点。如何调整参数,才能使损失函数逐步变小呢。这需要去求损失函数对于模型参数的梯度,梯度代表了对这个参数进行单位大小的改动,然后损失函数它变化最快的方向。我们就顺着这个方向去对模型参数做一个小的改动,就可以降低

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

只要开始永远不晚

谢谢打赏~

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值