人工智能
文章平均质量分 74
我想问问天
欢迎访问我的github地址:https://github.com/wxwwt
segmentfault:https://segmentfault.com/u/wxwwt
公众号:我想问问天(关注领取学习资料)
展开
-
机器学习笔记5-支持向量机2
1.低维到高维的映射根据上一节的结论,我们主要要做的就是解决线性可分的问题,线性可分的问题最后会被转换为一个凸函数的问题就认为是有解的。但是并不是每个问题都是线性可分的。遇到线性不可分的问题,我们可以将低维映射到高维。比如,二维映射到三维:当特征空间的维度M上升时,对应的(ω,b)待估计参数的维度也会随之上升,整个模型的自由度也会随之上升,就有更大的概率将低维数据分开。这里问题就由线性不可分变成了怎么找到φ(x),来完成低维到高维的映射。2.核函数为了解决上面找φ(x)的问题,引入了一个新的概原创 2021-07-18 23:05:41 · 320 阅读 · 2 评论 -
机器学习笔记5-支持向量机1
前言:支持向量机这一节是看的中国mooc网上浙大胡浩基的课,感觉还是中文讲课的比较清晰易懂,再结合看了周志华的《机器学习》。看完视频再看瓜书才明白上面那些公式是怎么来的,可能对于初学者来说还是母语的视频教学更好懂。一开始看瓜书真的是头痛,全是各种数学公式,推导过程也没有。1.支持向量机(support vector machine)定义:可分不可分如图如果能用一条直线把不同的数据给分隔开,就是线性可分的(linear separable)如果如果不能用一条直线把不同的数据给分隔开,就是线性原创 2021-07-04 22:15:30 · 341 阅读 · 6 评论 -
机器学习笔记4-多元梯度下降法
1.多特征2.多元特征下降法3.多元特征下降法-特征缩放有多个变量来求全局最优解的时候,如果变量的取值范围非常不一样,会使得等高线图变得扁平,比如图中的房屋尺寸和房间数量,一个是0-2000另外一个是1-5,会导致求全局最优解变得很慢,要花很长时间来计算。所以这里要把特征的范围缩小到比较相近的范围,比如x1/2000,x2/5,这样x1和x2都的范围是[0,1],使等高线的图看起来比较圆,会更快的找到全局最优解。均值归一化 mean normalization:μ1是x1的平均值,s1原创 2021-06-27 23:23:57 · 743 阅读 · 1 评论 -
机器学习3-线性代数回顾
引语:这一节基本上就是大学上的线性代数的内容的复习。1.矩阵和向量矩阵定义:矩阵(Matrix)是一个按照长方阵列排列的复数或实数集合,最早来自于方程组的系数及常数所构成的方阵。matrix:rectangular array of numbers矩阵的维数:是指它的行数和列数,比如上图就是一个4x2的矩阵dimension of matrix:number of rows x number of columns矩阵的元素:是矩阵中的数值,使用Aij来表示第i行第j列的数值向量是特殊的矩原创 2021-05-30 10:33:15 · 620 阅读 · 0 评论 -
机器学习笔记2-单变量线性回归
1.模型描述:1.1监督学习 Supervised Learning:given the right answer for each example in the data.对于每个数据集中的样例都有一个人为给出的正确答案。1.2回归问题 Regression problem:predict real-valued output.预测实际值的输出。ps:回归问题这个从字面意思上我老是会记错它是干嘛的,可以这样联想记忆,函数是一个线性模型,就是一条线,我们要让新的值,回归到这条线上面。就是预测一原创 2021-04-18 22:42:39 · 712 阅读 · 3 评论 -
机器学习学习笔记1-初始机器学习
导语:之前有做过一些简单的跟机器学习相关的一些小玩意,比如OCR识别,车牌识别的东西,不过没有系统话的学习过机器学习,最近打算系统的看看学一学。这个是看吴恩达的机器学习的学习笔记的记录。学习地址什么是机器学习 Machine Learning:视频中介绍了两位机器学习专家给出的机器学习的定义:1.Artthur Samuel(1959年).Machine Learning:Field of study that give computers the ability tolearn withou原创 2021-04-11 23:31:30 · 156 阅读 · 0 评论