- 博客(7)
- 收藏
- 关注
原创 林轩田机器学习基石Lecture 12: Nonlinear Transformation
@Lecture 12: Nonlinear Transformation本章主要讲如何通过特征变换,将线性模型推广到非线性 Quadratic Hypotheses 首先,从二次假设开始:假设数据不是线性可分的,但是可以通过一个二次曲线将其分开,如下图所示,样本数据的分界线是一个圆形曲线 分界线函数: 如果令z=x的平方,也就是把数据样本从x空间转换到z空间,发现z可以线性可分 Nonlin...
2020-04-29 09:59:44 204 1
原创 林轩田机器学习基石Lecture 11: Linear Models for Classification
@Lecture 11: Linear Models for Classifification 从之前学过的模型出发,看一下这些模型怎么来做复杂的分类问题 Linear Models for Binary Classifification 回顾一下线性模型都使用到了线性得分函数s =wx 三种模型的总结分析:如果他们之间和相似的话,那能不能用回归模型来帮助线性分类(因为linear classif...
2020-04-28 18:24:36 205
原创 林轩田机器学习基石Lecture 10: Logistic Regression
@Lecture 10: Logistic Regression Logistic Regression Problem 对比二元分类问题,感兴趣的不是一个事件是否发生,而是一个事情发生的概率是多少 理想情况下,要想知道一个事情发生的概率是多少,需要样本中y的值是发生 Logistic Regression Error Gradient of Logistic Regression Error G...
2020-04-28 10:31:36 193
原创 林轩田机器学习基石Lecture 9:Linear_Regression
@Lecture 9:Linear_Regression Linear Regression Problem 回归问题:输出空间为实数空间(连续) 希望观测值和预测值的差值越小越好 Err Measure: Linear Regression Algorithm 这一节讲如何最小化Ein的问题 先用矩阵形式对Ein进行展开简化 求Ein的最小值,即求Ein关于w的梯度为0 的点 对E...
2020-04-27 00:01:07 168
原创 林轩田机器学习基石Lecture 8: Noise and Error
@Lecture 8: Noise and Error 本部分在之前的数据中加入了噪声,VC bound是否还起作用,即是否还可以满足Ein和Eout的那个公式 Noise and Probabilistic Target Noise的产生: 错误的y:如相同的x标注的不同的y,或者应该是正样本的数据标注成错误数据 错误的x:如收集到的观测样本本身不准确 也就是说我不是学一个目标函数,而是学一个...
2020-04-26 20:13:13 176
原创 林轩田机器学习基石Lecture 7:The_VC_Dimension
@Lecture 7:The_VC_Dimension 上节课讲到mH会被N的多项式bound住,N的多项式又会小于N的k-1次方,因此坏事情(H的Ein和Eout离得很远)发生的概率会被bound住 Defifinition of VC Dimension VC Dimension of Perceptrons Physical Intuition of VC Dimension Interpr...
2020-04-26 16:29:46 275
原创 林轩田机器学习基石Lecture 6: Theory of Generalization
这里写自定义目录标题欢迎使用Markdown编辑器新的改变功能快捷键合理的创建标题,有助于目录的生成如何改变文本的样式插入链接与图片如何插入一段漂亮的代码片生成一个适合你的列表创建一个表格设定内容居中、居左、居右SmartyPants创建一个自定义列表如何创建一个注脚注释也是必不可少的KaTeX数学公式新的甘特图功能,丰富你的文章UML 图表FLowchart流程图导出与导入导出导入 欢迎使用Ma...
2020-04-26 14:11:55 169
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人