李宏毅机器学习
FCer
这个作者很懒,什么都没留下…
展开
-
【李宏毅机器学习笔记3】Gradient Desccent 梯度下降
背景博客参考:https://blog.csdn.net/soulmeetliang/article/details/72830179 梯度下降非常重要~篇幅也比较长,耐心看(PS:我认为纯数学的推导过程可以选择性的看,过程只是加深理解) 注释2:所有之前参数W的偏微分的均方根 3:η是随时间变化的参数 注释1:gradient究竟是大还是小,是比较得出的,所以用gradient➗之前...原创 2019-06-19 10:06:35 · 157 阅读 · 0 评论 -
【李宏毅机器学习笔记1】Learning-Map课程导览图
博主入门机器学习,全程基本上跟的都是台达李宏毅老C,讲课风趣且易懂,还能顺便学学英文,补充词汇量嘻嘻~ 我在自学李老师的机器学习的时候,也是在CSDN上找的博文笔记,在此感谢一下:https://blog.csdn.net/soulmeetliang/article/details/77461607,我笔记的主要框架都是在上面链接的基础上所作的额外笔记,所以我会以贴图形式贴出来。 发博主要是担心w...原创 2019-06-17 09:55:59 · 480 阅读 · 0 评论 -
【李宏毅机器学习笔记2】Regression:case study(回归:案例研究)
背景博客参考:https://blog.csdn.net/soulmeetliang/article/details/77461607 上图注释2:arg min L(f) 是指使得函数L(f)取得其最小值的所有自变量f的集合,得到该f以后可以计算得出f下的w和b。 注释3:面对实际问题时,在目标函数的优化过程中,极有可能掉到局部极值中出不来, 理论上只有保证目标函数是凸函数,梯度下...原创 2019-06-17 21:36:44 · 272 阅读 · 0 评论 -
【李宏毅机器学习笔记4】Where does the error come from 误差来源分析
背景博客参考:https://blog.csdn.net/soulmeetliang/article/details/72830179 https://blog.csdn.net/Allenlzcoder/article/details/78956056 本节讨论了误差来源的主要因素,由此引入了两个在深度学习神经网络中很重要的参数 W and b,话不多说,直接贴图: 注释1:用同一个mo...原创 2019-06-26 16:02:34 · 128 阅读 · 0 评论 -
【李宏毅机器学习笔记5】Classification 概率生成模型
背景博客参考:https://blog.csdn.net/Allenlzcoder/article/details/78989160 本节课以二分类问题为例,详细讲解了模型建立的过程及其背后的数学原理。 分类问题的理想模型如下图所示,定义损失函数,给定一个输入值,模型便能输出类别。 注释1:不能用回归做分类的原因是:因为单纯用数字定义class的话,model会因为这些数字之间的远近而以为这些t...原创 2019-06-26 16:32:37 · 348 阅读 · 0 评论 -
【李宏毅机器学习笔记6】Logistic Regression 逻辑回归
背景博客参考:https://blog.csdn.net/Allenlzcoder/article/details/78994291 上篇博客学习了概率生成式模型,本篇将介绍另一个模型,即判别式模型,也由此,“逻辑回归”,闪亮登场!作为神经网络的基本单元,本篇也十分重要~! 思考:为什么不用square error做线性回归? 因为linear regression在建模后其输出值是...原创 2019-06-28 17:30:05 · 382 阅读 · 0 评论