【深度学习】零基础理解NN和CNN

本文介绍了深度学习中的神经网络(NN)和卷积神经网络(CNN)的基础概念。NN由输入层、隐藏层和输出层构成,使用激活函数增加非线性表达,损失函数衡量预测误差,优化算法调整权重。CNN则利用局部连接和权值共享,通过卷积、池化等操作有效处理图像特征。CNN中的卷积层、池化层和全连接层各自承担不同的功能,实现特征提取和分类。
摘要由CSDN通过智能技术生成

作为一个十余年来快速发展的领域,深度学习越来越火了。深度学习善于从原始输入数据中挖掘越来越抽象的特征表示,而这些表示具有良好的泛化能力.它克服了过去人工智能中被认为难以解决的一些问题.且随着训练数据集数量的显著增长以及芯片处理能力的剧增,它在目标检测计算机视觉自然语言处理语音识别语义分析等领域成效卓然,因此也促进了人工智能的发展。

本文主要介绍深度学习中NN(神经网络)和CNN(卷积神经网络)的基本概念,并不涉及任何推导。

一、神经网络NN(Neural Network)

神经网络的基本结构是:输入层,隐含层,输出层

现在我们拿一个最简单的神经网络——逻辑回归,来理解一些神经网络的专业名词。如下图:

先说一下这个网络能干什么事情,我们输入一个图片,然后经过这个网络,我们就得到了一个概率,这个概率表示输入的图片是某一种东西(比如猫)的可能性。

以上面的图为例,这个网络的运转流程是这样的:

第一部分:输入1,x1,x2,...xm,然后让xi和wi分别相乘,通过计算得到 z = 1*w0+ x1*w1+...+xm*wm。w0 可以看做是偏置项,这个时候我们就能拟合一个完整的线性表达了。然后z经过一个激活函数sigmoid得到^y,即^y = sigmoid(z),激活函数的目的是为了增加函数的非线性表达。损失函数是用来评判预测值和真实值之间的误差的,我们根据定义的损失函数计算出预测值^y和真实值y之间的误差。

完整的第一部分即从输入到损失的计算这一过程就叫做前向传播

第二部分:然后我们根据损失函数和

  • 11
    点赞
  • 99
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值