![](https://img-blog.csdnimg.cn/20201014180756927.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
机器学习
文章平均质量分 85
Simone Zeng
这个作者很懒,什么都没留下…
展开
-
李宏毅机器学习笔记 4.深度学习介绍和反向传播机制
最近在跟着Datawhale组队学习打卡,学习李宏毅的机器学习/深度学习的课程。课程视频:https://www.bilibili.com/video/BV1Ht411g7Ef开源内容:https://github.com/datawhalechina/leeml-notes本篇文章对应视频中的P13。另外,最近我也在学习邱锡鹏教授的《神经网络与深度学习》,会补充书上的一点内容。通过上一次课2.回归,我们了解到误差和梯度下降。本篇文章主要介绍深度学习介绍和反向传播机制。文章目录1. 深度学习1.原创 2021-08-22 22:43:03 · 394 阅读 · 0 评论 -
李宏毅机器学习笔记 3.误差和梯度下降
最近在跟着Datawhale组队学习打卡,学习李宏毅的机器学习/深度学习的课程。课程视频:https://www.bilibili.com/video/BV1Ht411g7Ef开源内容:https://github.com/datawhalechina/leeml-notes本篇文章对应视频中的P5-8。另外,最近我也在学习邱锡鹏教授的《神经网络与深度学习》,会补充书上的一点内容。通过上一次课2.回归,我们了解到机线性回归中的(1)损失函数、(2)梯度下降、(3)过拟合和正则化。本篇文章主要介绍.原创 2021-08-22 19:32:28 · 345 阅读 · 0 评论 -
李宏毅机器学习笔记 2.回归
最近在跟着Datawhale组队学习打卡,学习李宏毅的机器学习/深度学习的课程。课程视频:https://www.bilibili.com/video/BV1Ht411g7Ef开源内容:https://github.com/datawhalechina/leeml-notes本篇文章对应视频中的P3。另外,最近我也在学习邱锡鹏教授的《神经网络与深度学习》,会补充书上的一点内容。通过上一次课1.机器学习介绍,我们了解到机器学习分为3个步骤1)define a set of function;2)g.原创 2021-08-17 11:17:01 · 392 阅读 · 0 评论 -
李宏毅机器学习笔记 1. 机器学习介绍
找一个function,输入一张图片,然后输出图片里面有什么样的东西function set(集合),这个function里面有成千上万的function有效率的演算法可以从function的set里面挑出最好的function一个一个衡量function的好坏太花时间,实际上做不到。所以我们需要有一个好的演算法,从function set里面挑出一个最好的的function,这个最好的function将它记为f^*f∗...原创 2021-08-16 14:35:41 · 227 阅读 · 0 评论 -
adagrad原理 李宏毅 机器学习
这一系列的博客,主要是记录在学校的Machine Learning实践课中,一些学习的过程,以及自己补充的基础知识(以引用来表示)。原理在西瓜书上都有,因此本系列博客主要是用python来实现,会包含一些公式。“机器学习就是自动找函数”转发一篇博客,是对adagrad的一点理解链接:https://www.jianshu.com/p/a8637d1bb3fc在看到李宏毅老师讲gradient decent的时候,讲到Adagrad方法,这里记录一下。Adagrad是解决不同参数应该使用不同的.转载 2020-10-11 08:35:32 · 473 阅读 · 0 评论 -
线性回归 Linear Regression python实现(含最小二乘法、梯度下降)
这一系列的博客,主要是记录在学校的Machine Learning实践课中,一些学习的过程,以及自己补充的基础知识(以引用来表示)。原理在西瓜书上都有,因此本系列博客原理部分涉及较少,主要是用python来实现,会包含一些公式。“机器学习就是自动找函数”文章目录1. 最小二乘法求解Linear Regression2. 梯度下降求解Linear Regressionregression:函数的输出是一个数值binary classification:二分类generation:生成给出la.原创 2020-10-10 16:56:40 · 4201 阅读 · 0 评论