- 博客(8)
- 资源 (4)
- 收藏
- 关注
原创 吴恩达机器学习之建议
在进行机器学习时,经常会有这样的困惑:1.选择假设模型;2.当学习结果不好时,该如何快速分析,决定下一步做什么,比如增加样本数量,还是增加特征数量等。吴老师给了一些很实用的建议。一、模型选择和训练、验证、测试集当选择模型时,或者调整一些超参数时,需要把数据集分为3部分:训练数据集,即用来训练模型;验证数据集,不参与训练模型;测试数据集,不参与训练模型。在这里,验证数据集是非常有必要的。从狭义...
2019-03-02 16:43:28 370
转载 常用激活函数比较
常用激活函数比较本文结构:什么是激活函数为什么要用都有什么sigmoid ,ReLU, softmax 的比较如何选择1. 什么是激活函数如下图,在神经元中,输入的 inputs 通过加权,求和后,还被作用了一个函数,这个函数就是激活函数 Activation Function。2. 为什么要用如果不用激励...
2019-02-16 12:41:40 319
原创 吴恩达机器学习之神经网络概述
一、非线性假设线性回归与逻辑回归,都是线性假设,对于一些问题,如果用线性假设模拟,参数将会非常多,计算量巨大,而用非线性假设模拟,参数数量可能要少的多。此外,所有的线性假设,如感知机,都不能解决异或(XOR,不同即为真)与同或(XNOR,相同即为真)问题,即非线性边界。神经网络,既可以做线性假设,也可以做非线性假设,因此应用范围更广。二、模型表示如上图,Layer1是输入层,Layer2是...
2019-02-16 12:27:28 562
原创 吴恩达机器学习之正则化
机器学习中在测试数据集上表现良好的能力被称为泛化,机器学习的目标是泛化误差足够低。训练过程,主要有2个挑战。欠拟合,指模型不能在训练集上获得足够低的误差。过拟合,指训练误差和测试误差之间的差距过大,即训练集表现很好,但泛化能力较差。通常假设函数参数过多,易导致过拟合。下图是线性回归中欠拟合,过拟合例子。数据集符合一元二次方程,如中间的图。但用直线拟合,就会出现左图欠拟合;用4次方程拟合,就会...
2019-02-16 11:17:45 367
原创 opencv的cvtColor函数Lab转RGB源码解析及结果截断处理解决
cvtColor( InputArray src, OutputArray dst, int code, int dstCn=0 ); 这是opencv中色彩转换函数。当由Lab转RGB时,code = COLOR_Lab2RGB,输出的RGB值域[0,1],再乘255,输出像素值即可归至[0,255]。色彩空间转换过程中,接口函数做了截断处理,即R,G,B的值,若<...
2019-02-14 15:48:14 1152
原创 吴恩达机器学习之logistic回归
logistic回归,是一种广义的线性回归分析模型,一般用于分类。与侠义的线性回归相比,模型形式基本上相同,都具有 w‘x+b,其中w和b是待求参数。区别是因变量不同,后者直接将w‘x+b作为因变量,即y =w‘x+b,而logistic回归则通过函数L将w‘x+b对应一个隐状态p,p =L(w‘x+b),然后根据p 与1-p的大小决定因变量的值。如果L是logistic函数,就是logi...
2019-02-12 19:18:38 375
原创 吴恩达机器学习之多变量线性回归笔记
1.特征归一化(缩放)归一化,对于梯度下降算法来说,是很重要的。如果能够把各特征缩放到相似范围,能够加快收敛速度。如果范围差异太大,就要重新考虑特征,或者进行归一化。典型的归一化范围:[-1,1];[-1/3,1/3];[-3,3].2.梯度下降中学习率确定学习率过大,可能导致不收敛;学习率过小,收敛速度很慢。因此,选择一个合适的学习率非常重要。可先选取一些学习率,如0.001,0.01,0...
2019-02-12 13:35:24 144
原创 吴恩达机器学习之单变量线性回归笔记
1.假设函数:即假设模型,比如线性函数2.代价函数:最小化函数3.梯度下降:分2部分,学习率和导数。当趋近局部最优时,导数值逐渐下降,如果学习率不变,梯度下降步长也逐渐减小4.凸函数:局部最优,即是全局最优。如线性回归的代价函数就是凸函数5.Batch Gradient descend:梯度下降过程,即迭代更新参数过程中,每一步迭代使用所有的训练集数据线性回归模型及梯度下降求解算法原理...
2019-02-12 11:55:54 176
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人