机器学习面经--常见问题

在这里插入图片描述
在这里插入图片描述

csdn的排版真的太垃圾了,想看的移步知乎

1,Normalization
数据标准化处理主要包括数据同趋化处理和无量纲化处理两个方面。数据同趋化处理主要解决不同性质数据问题,对不同性质指标直接加总不能正确反映不同作用力的综合结果,须使所有指标对测评方案的作用力同趋化,之后再加总才能得出正确结果。数据无量纲化处理主要解决数据的可比性。经过标准化处理,原始数据均转换为无量纲化指标测评值,即各指标值都处于同一个数量级别上,可以进行综合测评分析。

机器学习中常见的Normalization方法分为两种类型,一种是特征标准化,是对输入的数据进行预处理,是对数据的不同特征分别进行处理,常见有max-min normalizaiton,z-score normalization等;第二种是参数归一化,比如L1范数,L2范数等。
深度学习中的normalization主要是为了减少Internal Covariate Shift,对某层每个神经元的激活值进行normalization。不论哪种标准化方法,其规范化目标都是一样的,就是将其激活值调整为均值为0,方差为1的正态分布。规范化统一形式为
图片: https://uploader.shimo.im/f/JsmV4c48qVmh0YzZ.png!thumbnail?accessToken=eyJhbGciOiJIUzI1NiIsImtpZCI6ImRlZmF1bHQiLCJ0eXAiOiJKV1QifQ.eyJleHAiOjE2NjQwMTMwOTUsImZpbGVHVUlEIjoiOE5rNk1lZFdXT0huNjZxTCIsImlhdCI6MTY2NDAxMjc5NSwiaXNzIjoidXBsb2FkZXJfYWNjZXNzX3Jlc291cmNlIiwidXNlcklkIjo2NjY4ODY1NX0.En3W1B-sGpIKbgt3x4ShC1vcuyilIDF-azrl6NJcjzE

γ和β是两个可学习的参数,用于减弱标准化的影响(比如,激活函数的输出分布并不需要归一化)。
为了能够将网络中某个神经元的激活值规范到均值为0方差为1的范围,必须求出均值和方差。要计算这两个指标需在一个集合范围内才可行,所以这就要求必须指定一个神经元组成的集合,利用这个集合里每个神经元的激活值来统计出所需的均值和方差,这样才能达到预定的规范化目标。所以,不同标准化方法最主要的区别在于神经元集合S的范围怎么定。

Batch Normalization中的集合S是由batch中n个样本在神经元k上的激活值组成的。n个样本,n个激活值。
Layer Normalization中集合S是由同一层神经元的激活值组成的。
Instacnce Normalization中的集合S是由CNN的同一卷积层内每个卷积核产生的输出通道单独构成。一个通道包含多个激活值。
Group Normalization中的集合是对CNN中某一层卷积层的输出或者输入通道进行分组,在分组范围内进行统计。

归一化可以加快基于梯度下降法的收敛速度;使各个特征对结果做出的贡献相同,提升模型的精度。BN本身上也是一种正则的方式,可以使用大学习率,但对batchsize 大小敏感,RNN等动态网络使用BN效果不佳且使用起来不方便

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

siyan985

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值