CS231n笔记(5)神经网络(1)

本文介绍了神经网络的基本模型,包括单个神经元的结构、激活函数和网络的组织方式。神经网络通过非线性的激活函数如sigmoid、tanh和ReLU实现分类功能,并通过多层结构增强表达能力。在训练过程中,权重参数通过反向传播和随机梯度下降进行学习。文章讨论了神经网络的线性分类器实现,如二分类的softmax和SVM,并强调了ReLU在避免梯度消失问题上的优势。此外,还探讨了网络层数和尺寸对模型复杂性和过拟合的影响。
摘要由CSDN通过智能技术生成

其实还是全连接的神经网络(玄学模型),也算是基础吧,但是这里的基础打好了对后面学习CNN的时候会有一点帮助。

快速简介

和之前提到的线性分类器里面 s=Wx s = W x 来进行计算不同视觉类别的评分不同,神经网络是 s=W2max(0,W1x) s = W 2 max ( 0 , W 1 x ) ,其中 W1 W 1 的作用是将图像转化为一个特定维度的过渡向量(这里过度向量具体含义是什么目前貌似没有解释,只能说引进这个 W1 W 1 产生这么个过渡向量然后对图像进行分类的方法行得通)。这里的关键地方其实是 max max 这个非线性函数,因为少了这个 max max 的话那么就会导致 W1 W 1 W2 W 2 其实是可以合并在一起的(直接进行矩阵相乘运算就可以合并了,所以非线性的 max max 才是神经网络和线性分类器的不同)。参数 W1W2 W 1 、 W 2 后面会通过随机梯度下降来进行学习,梯度在反向传播过程中会通过链式法则来求导计算出。

如果是三层的神经网络的话就可以变成 s=W3

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值