自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(15)
  • 收藏
  • 关注

原创 吴恩达机器学习-第十五章个人学习笔记

异常检测15、1问题的动机15、2高斯分布15、3算法15、4算法评估15、5异常检测算法VS监督学习15、6特征量的选择15、7多元高斯分布15、1问题的动机以飞机发动机检测为例,每个发动机啊我们检测两个特征量:热度和振动强度。假设我们现在的训练集数据是正常的(红色),无标签。现在如果要检测一个新的发动机,如果其对应点与整个红色区域相离很近,则认为它是正常的;相距很远,则认为它是不正常的。给定一个无标签的数据集,我们对x的分布概率建模。当有个新发动机要检测时,我们只需要算出该模型下发动机的概率,

2021-01-11 17:32:39 99

原创 吴恩达机器学习-第十四章个人学习笔记

PCL14、1数据压缩14、2可视化数据14、1数据压缩如果这时x1代表飞行员的飞行技巧,x2代表飞行员的快乐程度,则这两项可能关系紧密,甚至可以互相代替,这时我们就可以把特征量从二维降为一维。三维坐标上的点我们看出大部分都在同一个平面,所以我们可以把三维点压缩为二维点:14、2可视化数据当我们衡量一个国家的指标多达50个时,这时我们很难在图表把这些国家表示出来,如果这时50维的指标降为2维时,我们可以很好的在图标上表示每个国家。...

2020-12-20 21:45:35 120 1

原创 吴恩达机器学习-第十三章个人笔记

K均值算法13、1无监督学习13、2K均值算法13、3优化目标函数13、1无监督学习训练样本没有标签,用聚类算法划分出多簇:用处:市场分割社交网络分析计算机集群组织了解银河系的构成13、2K均值算法K均值算法的核心步骤:(假设我们要将下列样本分为两簇)初始化簇中心,遍历每个样本①将每个样本分配给相应的簇(距离最小优先原则)②对新簇的所有样本求平均值,得到新的簇中心重复①②步骤,知道每个簇不变为止算法的具体步骤:如果出现某个簇不包含任何一个样本,一般来说我们就丢弃这个簇中

2020-12-08 11:56:13 100

原创 吴恩达机器学习-第十二章个人笔记

支持向量机(SVM)12、1SVM的基本简介12、2大间距分类器12、3支持向量机背后的数学原理12、1SVM的基本简介SVM是由logistic regression演变而来的:假设函数:logistic regression的假设函数输出是使得y=1的概率;而SVM输出的是要么是0,要么是1.代价函数:logistic regression的代价函数分为y=1和y=0两种情况,对应的是下面左右两张图的黑色曲线;SVM的代价函数则是对应下图中的粉色折线(由一段水平直线和一段倾斜直线构成)

2020-12-07 17:51:15 115

原创 吴恩达机器学习-第十一章个人笔记

机器学习系统设计11、1垃圾邮件分类器11、1误差分析11、1垃圾邮件分类器先比较垃圾邮件和正常邮件的不同之处:这两种邮件的差别可能就是垃圾邮件经常会出现buy,deal等单词,我们把两者特有的单词作为特征项,从而得出特征向量。如何降低你的分类器的错误率:收集大量的数据(honeypot项目)构建更复杂的特征项(邮件的发件人)从邮件信息主体构建更复杂的特征向量(比如对discount和discounts一视同仁)构建更复杂的算法来检测故意错拼的单词11、1误差分析...

2020-11-21 17:30:06 200

原创 吴恩达机器学习-第十章个人笔记

机器学习算法的改进10、1绪论10、2评估假设函数10、3模型选择和训练、验证、测试数据集10、4偏差和方差10、5正则化、偏差和方差10、6学习曲线10、1绪论当你的机器学习算法出现很大的错误时:当你求得使J(θ\thetaθ)最小参数向量θ\thetaθ后,将这个机器学习算法即假设函数应用到一批新的数据集中,发现预测出现了很大的问题。解决方法:使用更多的数据来进行训练尝试选择更少的特征项尝试选择更多的特征项尝试添加多项式特征项尝试增大λ\lambdaλ的值尝试减少λ\lambdaλ

2020-11-20 21:59:40 161

原创 吴恩达机器学习-第九章个人笔记

神经网络9、1代价函数9、2反向传播算法9、3理解反向chuanb9、1代价函数二元分类和多元分类:二元分类就是前面的logistic regression .代价函数:这里的代价函数和logistic函数代价函数主要区别是:输出单元有1个变为k个,需要正则化的系数变多了。9、2反向传播算法前向传播:这里我们是假设只有一个训练集(x,y)反向传播算法:这里我们从最后一层的误差开始计算,逐个计算前两层的误差。这里的误差值会被用于计算偏导数。反向传播算法过程:9、3理解反向c

2020-11-18 18:40:30 105

原创 吴恩达机器学习-第八章个人笔记

神经网络8、1非线性假设8、2神经元和大脑8、3模型展示18、4模型展示28、1非线性假设如果我们用logistic回归处理这个模型的话:假设函数如下:g(θ\thetaθ0+θ\thetaθ1x1+θ\thetaθ2x2+θ\thetaθ3x1x2+θ\thetaθ4x12x2……)一般来说,特征项会很多,此时设特征项个数为n,则此时如果仅仅考虑二次项,此时大约有n2/2个,有时甚至需要考虑三次项、四次项,会让特征空间急剧增大。所以用logstic回归并不好。上图使用简单的logistic回

2020-11-16 12:11:52 78

原创 吴恩达机器学习-第七章个人笔记

这里写目录标题7、1过度拟合问题7、2正则化7、1过度拟合问题①linear regression拟合情况1)第一个图像用一次函数来拟合数据,出现的情况是:欠拟合,高偏差。2)第二个图像用二次函数来拟合数据,适度拟合。3)第三个图像用四次函数来拟合数据,出现情况是:过度拟合,高方差。过度拟合:有太多的参数以至于假设函数能够刚刚好地拟合训练集,但是这个假设函数并不适用于没有出现在训练集的样本所组成的样本集。出现过度拟合原因:变量太多,没有足够的条件去约束它(训练集数量偏少)。②logisti

2020-11-04 16:17:27 113

原创 计算机视觉与模式识别笔记-第二章

相机模型与单目几何2、1坐标系2、1坐标系①像平面坐标系像主点:主光轴在影像面的垂足叫做像主点主距:摄影中心到像平面的垂距f叫做主距

2020-11-01 20:39:52 122

原创 吴恩达机器学习-第六章个人笔记

分类算法logistic regression函数6、1分类算法简介6、2logistic regerssion假设函数6、3决策边界6、4代价函数6、5简化代价函数以及梯度下降6、6高级优化算法(自行掌握)6、7多类别分类算法6、1分类算法简介分类的场景:①邮件:垃圾邮件/非垃圾邮件②肿瘤:良性/恶性③网上交易:欺诈/非欺诈分类一般用0和1来表示:0表示负分类(良性肿瘤),1表示正分类(恶性肿瘤)。(其实0和1表示的类别是随意的,只要相对应就好)6、2logistic regerssion

2020-10-26 15:28:48 138

原创 吴恩达机器学习-第四章个人笔记

多元线性回归2、1多特征线性回归2、1多特征线性回归举例:一个房子的价格并不仅仅受面积影响,还有其他因素例如:楼层、年龄等这个这个图表显示房子的价格的影响因素有四个:面积x1、卧室的数量x2、楼层数x3、房屋的年龄x4。此时我们的假设函数就变成了:hθ\thetaθ=θ\thetaθ0+θ\thetaθ1x1+θ\thetaθ2x2+θ\thetaθ3x3+θ\thetaθ4x4当我们拥有n个特征后,我们的假设函数如下:...

2020-10-23 14:37:38 109

原创 计算机视觉与模式识别课程笔记——第一章

前言和基础知识准备1、前言1、1从人工智能到计算机视觉和模式识别1、2计算机视觉可以做什么2、基础知识准备2、1传感器及其搭载平台2、2多视几何基础知识1、前言1、1从人工智能到计算机视觉和模式识别让机器人像人一样看:计算机视觉让机器人像人一样听:自然语言理解和交流让机器人像人一样学习:机器学习让机器人像人一样思考:认知与推理、博弈与伦理让机器人一样运动:机器人计算机视觉: 执行类似人类的视觉系统的任务,研究基于传感器感知数据如何分析和理解世界。模式识别: 可以模拟人类的视觉和听觉系

2020-10-21 15:43:20 303

原创 吴恩达机器学习-第二章个人笔记

吴恩达-机器学习第二章2.1模型描述2.2代价函数(平方误差函数)2.3代价函数(1)2.4代价函数(2)2.5梯度下降算法2.6梯度下降算法总结2.7线性回归的梯度下降2.1模型描述①举例监督学习中,我们有一个数据集(训练集),算法从数据集中得到相应的正确答案。本例中训练集就是关于房价的数据集,我们的工作就是从这个数据中预测出正确的房价。②符号表示(定义)m:表示训练样本的数量x:表示输入变量或特征y:表示输出变量(预测的内容)(x,y):一个训练样本(x(i) ,y(i)):第i个训

2020-10-20 19:35:53 89

原创 吴恩达机器学习-第一章个人笔记

吴恩达机器学习课程第一章总结

2020-10-20 15:11:29 98

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除