![](https://img-blog.csdnimg.cn/20201014180756928.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
NYU机器学习课程笔记
Peter Ma
这个作者很懒,什么都没留下…
展开
-
岭回归是高斯回归的特殊情况
岭回归(ridge regression)和高斯回归贝叶斯概率高斯回归(贝叶斯推断先验分布是高斯分布)推出岭回归(ridge regression)岭回归其实高斯回归的特殊情况,不行你看!贝叶斯概率贝叶斯概率区别于频率(frequency)概率论主要在于做贝叶斯推断时候会给出一个先验分布,再加持以可能性方程得到最终的后验分布,有一类特殊的分布,先验和后验分布会属于相同的分布。比如,当先验...原创 2020-05-04 10:44:18 · 792 阅读 · 0 评论 -
lasso为什么叫lasso
lasso的由来和python实现lasso 的目标函数Subgradientaka shooting algorithmpython 实现AK 射击算法实验结果lasso源自Least Absolute Selection and Shrinkage Operator,讲的是通过lasso回归选择了全部变量的一个子集,通过引入绝对值惩罚项来收缩系数。如果你只想知道题目,下面的内容其实可以不用...原创 2020-04-06 00:26:13 · 612 阅读 · 0 评论 -
NYU机器学习第二期-l1l2正则化
l1 l2 regularization 课程资源上期解答l1 l2 regularization下文只会挑一些可以起到检验自学效果的并且有趣的地方来说明,系统的学习请前往课程资源链接。 【毕竟时间有限,和妹子吃鸡更要紧 同自学的可以相互交流一起从“kind of understanding”到“actual understanding”.课程资源 标有对号的问题下期给答案机...原创 2020-02-11 21:09:57 · 168 阅读 · 0 评论 -
机器学习中L1和L2正则化自然解释
目前一些博客或知乎上解释L1,L2正则化的,要么理论太多,搞一堆分布,可能性函数推来推去的,要么过于通俗,就好像说论语一样,让读者被动接收,就比如会告诉你L1,L2的famous picture说明了什么,但是却不会告诉你famous picture里面的椭圆为什么是椭圆,如果你不知道是椭圆,又怎能很好通过famous picture来理解L1比L2正则化的到解更具有稀疏性呢。所以说如何在通俗易懂和数学证明保持一个好的平衡,关键在于怎么把L1,L2自然而然的引入,下文就为此而写。原创 2020-02-08 20:26:16 · 4823 阅读 · 2 评论 -
NYU机器学习第一期(补充)-代价分解(excess risk decomposition)
error decompostion 代价分解代价分解原创 2020-02-06 22:05:23 · 1570 阅读 · 0 评论 -
NYU机器学习第一期(下)-梯度和方向导数
Gradients and Directional Derivatives课程资源第一期(上)-统计学习理论两个risk的问题及解答一个观点下文只会挑一些可以起到检验自学效果的并且有趣的地方来说明,系统的学习请前往课程资源链接。 【毕竟时间有限,和妹子吃鸡更要紧 同自学的可以相互交流一起从“kind of understanding”到“actual understanding”.课...原创 2020-02-03 16:40:14 · 254 阅读 · 0 评论 -
NYU机器学习第一期-统计学习理论
Introduction to Statistical Learning Theory下文只会挑一些有意思的地方来说明【毕竟时间有限,和妹子吃鸡更要紧】,系统的学习请前往课程资源链接。希望自学达到经得住被检验测试的水平,即从“kind of understanding”到“actual understanding”.课程资源机器学习课程知乎问答三个空间Input space: X\...原创 2020-02-02 20:05:50 · 479 阅读 · 0 评论