![](https://img-blog.csdnimg.cn/20201014180756738.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
机器学习
文章平均质量分 76
机器学习入门
HHHhhhhhhhhhhallla
这个作者很懒,什么都没留下…
展开
-
机器学习(7)
卷积神经网络(CNN) 卷积神经网络与普通神经网络的区别在于,卷积神经网络包含了一个由卷积层和子采样层(池化层)构成的特征抽取器。在卷积神经网络的卷积层中,一个神经元只与部分邻层神经元连接。在CNN的一个卷积层中,通常包含若干个特征图(featureMap),每个特征图由一些矩形排列的的神经元组成,同一特征图的神经元共享权值,这里共享的权值就是卷积核。卷积核一般以随机小数矩阵的形式初始化,在网络的训练过程中卷积核将学习得到合理的权值。共享权值(卷积核)带来的直接好处是减少网络各层之间的连接,同时又降低了过拟原创 2022-05-27 18:25:44 · 86 阅读 · 0 评论 -
机器学习(6)
局部最小值与鞍点 当使用梯度下降法时,通常会在遇到梯度为0的地方停下来,而局部最小值点(local minima)和鞍点(saddle point)的梯度都为0,统称critical point,但鞍点并非满足我们要求的点。 1.优化失败的原因 当参数的梯度为0时,导致参数无法正常更新,使得loss function无法下降。 local minina saddle point 2.判断方法 loss function用泰勒展开,可近似等于: L(θ)=L(θ′)+(θ−θ′)Tg+12(θ−θ′)TH原创 2022-05-25 18:50:57 · 125 阅读 · 0 评论 -
机器学习(5)
深度学习与反向传播 1.深度学习 深度学习是用于建立、模拟人脑进行分析学习的神经网络,并模仿人脑的机制来解释数据的一种机器学习技术。它的基本特点是试图模仿大脑的神经元之间传递,处理信息的模式。最显著的应用是计算机视觉和自然语言处理(NLP)领域。显然,“深度学习”是与机器学习中的“神经网络”是强相关,“神经网络”也是其主要的算法和手段;或者我们可以将“深度学习”称之为“改良版的神经网络”算法。 1.1 深度学习的一般步骤 Step1:神经网络(Neural network) Step2:模型评估(Goo原创 2022-05-21 22:49:31 · 170 阅读 · 0 评论 -
机器学习(4)
机器学习之梯度下降法 1.什么是梯度下降 解决的问题:找到一组参数 θ,让损失函数L(θ)L(\theta)L(θ)越小越好 θ∗=arg minθL(θ)(1)\theta^∗= \underset{ \theta }{\operatorname{arg\ min}} L(\theta) \tag1θ∗=θarg minL(θ)(1) 解决方法:随机选取参数初始值θ0\theta^0θ0,计算初始值处各参数对LLL的偏微分,然后θ0\theta^0θ0减去η 乘上偏微分的值,得到原创 2022-05-20 13:13:41 · 84 阅读 · 0 评论 -
机器学习(3)
机器学习之误差 1.误差来源 Error(误差)= Variance(方差)+ Bias(偏差) Error反映的是整个模型的准确度,Bias反映的是模型在样本上的输出与真实值之间的误差,即模型本身的精准度,Variance反映的是模型每一次输出结果与模型输出期望之间的误差,即模型的稳定性 2.误差估测 偏差的估测 f(x;D)为训练集D中的x对模型f的输出,yDy _{D}yD为模型在数据集中的标记,y为x的真实标记 期望: 方差: 偏差: 3.误差与模型 3.1 误差与模型关系原创 2022-05-19 18:28:42 · 111 阅读 · 0 评论 -
机器学习(2)
有监督学习 有监督学习和无监督学习的区别在于输入的数据是否带有标签。有监督学习通过带标签的训练数据,学习如何预测未知数据的标签问题,其主要分为两个方面的问题:分类和回归。当输出是离散的,学习任务为分类任务,当输出为连续的,学习任务为回归任务。 回归 回归定义 Regression 就是找到一个函数 functionfunctionfunction ,通过输入特征 xxx,输出一个数值 ScalarScalarScalar。例如股市预测、自动驾驶和推荐系统等。 模型步骤 step1:模型假设,选择模型框架(原创 2022-05-17 14:34:35 · 132 阅读 · 0 评论 -
机器学习(1)
机器学习简介 机器学习简介 machine learning machine learning framework原创 2022-05-16 15:01:53 · 95 阅读 · 0 评论