机器学习基础知识
文章平均质量分 71
包括深度学习,目标检测。关键的定位
私はいつも好きです樱岛麻衣
卑以自牧 剑胆琴心
展开
-
【基础知识】第九章 SVM支持向量机
一:线性可分原创 2021-12-10 14:46:12 · 650 阅读 · 0 评论 -
【基础知识】第八章 线性回归和逻辑回归
一:一元线性回归线性回归是机器学习中很基础的知识,这里复习推导一下。在中学时代我们就接触过一元线性方程, 由x->y。线性回归就是,我们通过y->x的过程。这里我们通过计算预测值y,和真实值的差距 单个样本点差距 整个数据集的差距和的均值代入上述公式得第一...原创 2021-12-06 20:32:21 · 962 阅读 · 0 评论 -
【基础知识】第七章:正则化
简介:正则化是机器学习和深度学习常用的规则化方法,目的是为了防止过拟合,降低参数的作用范围。从监督学习的角度来看,用来最小化目标函数,让模型更好的拟合数据。常见的范数在:零范数、一范数、二范数、迹范数、Frobenius范数和核范数等等一:L1和L0范数L0范数:是指向量中的非0的元素的个数。如果我们用L0来规范化一个参数矩阵W的话,就是期望W矩阵的大部分元素为0。即矩阵是稀疏的。L1范数:是指向量中的各个元素之和,也称"稀疏规则算子(Lasso regularization)" ...原创 2021-10-29 17:57:58 · 246 阅读 · 0 评论 -
【基础知识】第六章:深度学习中的几个问题
问题一:梯度消失和梯度爆炸1:梯度异常的原因神经网络中基于BP算法的梯度下降策略,使用目标的负梯度方向对参数进行更新。计算梯度对激活函数求导,如果如果梯度值大于1,网络一层一层向下传播,梯度会以指数形式增加,导致梯度爆炸,反之小于1,导致梯度消失。正向传播假设最终的输出为f(x2)=σ(x2)计算LOSS MSE反向传播>1 or <1 就可能会在神经网络中导致梯度消失或者爆炸(1)梯度消失隐藏层的层数过多 采用了不合适的激活函数(.原创 2021-10-28 17:45:10 · 184 阅读 · 0 评论 -
【基础知识】第五章:优化器
一:梯度下降的方法分类标准梯度下降法:计算所有样本汇总误差,根据总误差来更新权值 随机梯度下降法:先随机抽取一个样本来计算误差,再根据这个误差来更新权值 批量梯度下降法:从总样本中选取一个批次(batch)(例如10000个样本,随机选取1中的100个样本作为batch),然后计算这个batch的总误差,再根据这个误差来更新权值二:优化器1:GD 和 BGDGD:BGD:W:学习训练的模型参数为J(W):代价函数为ΔJ(W):则代价函数关于模型参数的偏导数即相关梯度为..原创 2021-10-26 17:39:45 · 176 阅读 · 0 评论 -
【基础知识】第四章:损失函数
一:什么是损失函数,代价函数,目标函数以及其之间的关系。损失函数:通常是对于单个样本而言(loss function) 是用来估量模型的预测值f(x)与真实值Y的不一致程度,它是一个非负实值函数,通常使用L(Y, f(x))来表示。损失函数是经验风险函数的核心部分,也是结构风险函数重要组成部分。模型的结构风险函数包括了经验风险项和正则项,通常可以表示成如下式子: :均值代表经验风险:损失函数:结构风险是衡量模型复杂度的。代价函数:针对整个数据集的 (或者是一个mini-b...原创 2021-10-27 16:11:49 · 933 阅读 · 0 评论 -
【基础知识】第三章:激活函数
一:激活函数的基本原理如果神经网络中只有卷积层,从数学的角度上讲,卷积是通过参数的矩阵乘法来实现的,给特征乘再多的矩阵,都改变不了纯卷积的运算是一个线性操作的本质。y=ABCD....Zx,x和y仍然是线性关系。从函数拟合的角度来看,线性函数的拟合能力就非常差劲,与神经网络能够拟合任何复杂的函数的远大理想不符。 激活函数的作用就是给神经网络带来非线性的特征,负责把线性函数给掰弯,这样神经网络拟合出来的函数也能适应复杂函数起伏,拟合的更好。...原创 2021-10-26 14:05:45 · 324 阅读 · 0 评论 -
【基础知识】第二章:Batch Normalization
## 1:什么是Batch NormalizationBatch Normalization,简称BN,译为“批归一化”,是神经网络中一种特殊的层。Normalization是一个统计学中的概念,我们可以叫它归一化或者规范化,它并不是一个完全定义好的数学操作(如加减乘除)。它通过将数据进行偏移和尺度缩放调整,在数据预处理时是非常常见的操作,在网络的中间层如今也很频繁的被使用。论文链接:Batch Normalization: Accelerating Deep Network Training b原创 2021-10-21 08:35:39 · 346 阅读 · 0 评论 -
【基础知识】第一章:神经网络中的卷积
前言一、卷积的基本概念卷积是一种特殊的线性运算。卷积神经网络是一种专门用来处理具有类似网格结构的数据的神经网络。1:卷积和互相关函数的区别互相关函数(cross-correlation)和卷积运算几乎一样但是并没有对核进行翻转,许多机器学习的库实现的是互相关函数但是称之为卷积。在机器学习中,学习算法会在核合适的位置学得恰当的值,所以一个基于核翻转的卷积运算的学习算法所学得的核,是对未进行翻转的算法学得的核的翻转。单独使用卷积运算在机器学习中是很少见的,卷积经常与其它的函数一起使用,无论卷积运算是否对原创 2021-10-19 11:33:31 · 1271 阅读 · 0 评论