林轩田课程笔记
qq_42580910
这个作者很懒,什么都没留下…
展开
-
林轩田机器学习基石Lecture 12: Nonlinear Transformation
@Lecture 12: Nonlinear Transformation本章主要讲如何通过特征变换,将线性模型推广到非线性Quadratic Hypotheses首先,从二次假设开始:假设数据不是线性可分的,但是可以通过一个二次曲线将其分开,如下图所示,样本数据的分界线是一个圆形曲线分界线函数:如果令z=x的平方,也就是把数据样本从x空间转换到z空间,发现z可以线性可分Nonlin...原创 2020-04-29 09:59:44 · 205 阅读 · 1 评论 -
林轩田机器学习基石Lecture 11: Linear Models for Classification
@Lecture 11: Linear Models for Classifification从之前学过的模型出发,看一下这些模型怎么来做复杂的分类问题Linear Models for Binary Classifification回顾一下线性模型都使用到了线性得分函数s =wx三种模型的总结分析:如果他们之间和相似的话,那能不能用回归模型来帮助线性分类(因为linear classif...原创 2020-04-28 18:24:36 · 205 阅读 · 0 评论 -
林轩田机器学习基石Lecture 10: Logistic Regression
@Lecture 10: Logistic RegressionLogistic Regression Problem对比二元分类问题,感兴趣的不是一个事件是否发生,而是一个事情发生的概率是多少理想情况下,要想知道一个事情发生的概率是多少,需要样本中y的值是发生Logistic Regression ErrorGradient of Logistic Regression ErrorG...原创 2020-04-28 10:31:36 · 193 阅读 · 0 评论 -
林轩田机器学习基石Lecture 9:Linear_Regression
@Lecture 9:Linear_RegressionLinear Regression Problem回归问题:输出空间为实数空间(连续)希望观测值和预测值的差值越小越好Err Measure:Linear Regression Algorithm这一节讲如何最小化Ein的问题先用矩阵形式对Ein进行展开简化求Ein的最小值,即求Ein关于w的梯度为0 的点对E...原创 2020-04-27 00:01:07 · 168 阅读 · 0 评论 -
林轩田机器学习基石Lecture 8: Noise and Error
@Lecture 8: Noise and Error本部分在之前的数据中加入了噪声,VC bound是否还起作用,即是否还可以满足Ein和Eout的那个公式Noise and Probabilistic TargetNoise的产生:错误的y:如相同的x标注的不同的y,或者应该是正样本的数据标注成错误数据错误的x:如收集到的观测样本本身不准确也就是说我不是学一个目标函数,而是学一个...原创 2020-04-26 20:13:13 · 176 阅读 · 0 评论 -
林轩田机器学习基石Lecture 7:The_VC_Dimension
@Lecture 7:The_VC_Dimension上节课讲到mH会被N的多项式bound住,N的多项式又会小于N的k-1次方,因此坏事情(H的Ein和Eout离得很远)发生的概率会被bound住Defifinition of VC DimensionVC Dimension of PerceptronsPhysical Intuition of VC DimensionInterpr...原创 2020-04-26 16:29:46 · 275 阅读 · 0 评论 -
林轩田机器学习基石Lecture 6: Theory of Generalization
这里写自定义目录标题欢迎使用Markdown编辑器新的改变功能快捷键合理的创建标题,有助于目录的生成如何改变文本的样式插入链接与图片如何插入一段漂亮的代码片生成一个适合你的列表创建一个表格设定内容居中、居左、居右SmartyPants创建一个自定义列表如何创建一个注脚注释也是必不可少的KaTeX数学公式新的甘特图功能,丰富你的文章UML 图表FLowchart流程图导出与导入导出导入欢迎使用Ma...原创 2020-04-26 14:11:55 · 169 阅读 · 0 评论