李宏毅《机器学习》| 学习笔记
文章平均质量分 92
LeeML-Notes
羊老羊
海的尽头是另一片海
展开
-
【笔记|李宏毅老师《机器学习》】:基础部分【完结】
李宏毅机器学习笔记(LeeML-Notes)DataWhale 7月学习笔记总结是对Datawhale笔记进行整理,分点列出,取其精华更新从2021.08.23开始,计划2021.08.31结束原笔记在线阅读地址在线阅读地址:https://datawhalechina.github.io/leeml-notes笔记内容出自;2017年课程ppt最新情况李老师课程最新视频,ppt:https://speech.ee.ntu.edu.tw/~hylee/B站有授权转载:https://w原创 2021-08-23 20:38:54 · 223 阅读 · 0 评论 -
李宏毅《机器学习》笔记:12.半监督学习
【参考文章】笔记:https://blog.csdn.net/oldmao_2001/article/details/91285039生成模式:https://blog.csdn.net/wistonty11/article/details/120365719EM算法:https://zhuanlan.zhihu.com/p/40991784文章目录1. 关于半监督学习1.1 定义1.2 分类1.3 半监督学习原因2. 半监督生成式模型(Semi-Supervised Generative Mod原创 2021-10-22 10:35:32 · 510 阅读 · 0 评论 -
李宏毅《机器学习》笔记:11.为什么要用深度模型
文章目录1. 同样数量的参数,哪种模型好?2. 原因2.1 问题1:为什么变高比变宽好呢?2.2 问题2:深度学习和模组化有什么关系?<--------感谢评论、答疑、指正!--------->2021.10.5LeeML-Notes:P22洋洋洒洒老师讲了一大章,主要内容很简单,讲了俩事1. 同样数量的参数,哪种模型好?前提就是调整shallow和Deep让他们的参数是一样多,shallow model较好还是deep model较好?【相同参数量的时候】我们用5层原创 2021-10-05 22:27:27 · 380 阅读 · 0 评论 -
李宏毅《机器学习》|2021笔记:9.卷积神经网络
一篇看懂,卷积神经网络过程原创 2021-10-05 21:38:06 · 252 阅读 · 1 评论 -
李宏毅《机器学习》|2021笔记:10. 神经网络改进流程
2021.09.30LeeML-Notes:P15,P16,P17祝大家国庆快乐,学个习为祖国庆生!参考文章:https://www.cnblogs.com/ncuhwxiong/p/9836648.html文章目录1 库导入部分1 库导入部分import keras #导入Kerasfrom keras.models import Sequential # 导入序贯模型from keras.layers.core import Dense,Dropout,Activation#原创 2021-10-03 14:29:10 · 264 阅读 · 0 评论 -
李宏毅《机器学习》笔记:8. keras_手写识别Demo
参考文章:https://www.cnblogs.com/ncuhwxiong/p/9836648.html文章目录1 库导入部分2. 载入数据并进行预处理3. 神经网络3.1 定义神经网络模型3.2 模型评估3.3 最佳模型3.4 完整code祝大家国庆快乐,学个习为祖国庆生!<--------感谢评论区指正,内容已更新!--------->2021.09.30LeeML-Notes:P15,P16,P171 库导入部分import keras #导入Kerasfrom原创 2021-10-03 09:15:36 · 412 阅读 · 1 评论 -
李宏毅《机器学习》笔记:7.反向传播
2021.09.25LeeML-Notes:P14【主要参考】https://www.jianshu.com/p/765d603c76a0https://blog.csdn.net/weixin_38347387/article/details/82936585https://www.bilibili.com/video/BV1Zg411T71bhttps://zhuanlan.zhihu.com/p/28821475文章目录7.1 反向传播是做啥的?7.1 反向传播是做啥的?前向传原创 2021-09-28 06:26:50 · 448 阅读 · 0 评论 -
李宏毅《机器学习》笔记:6.深度学习简介
2021.09.23LeeML-Notes:P13文章目录6.0 深度学习的三个步骤6.1 神经网络6.1.1 完全连接前馈神经网络6.0 深度学习的三个步骤神经网络模型评估选择最优函数6.1 神经网络6.1.1 完全连接前馈神经网络前馈(feedforward)也可以称为前向,信号流动是单向的,没有反馈,从输入逐层传播直到输出完全连接,如上图layer1与layer2之间两两都有连接,所以叫做Fully Connect;计算过程...原创 2021-09-24 00:31:07 · 360 阅读 · 0 评论 -
李宏毅《机器学习》笔记:5.logistic回归
2021.09.21原创 2021-09-21 18:35:45 · 352 阅读 · 0 评论 -
李宏毅《机器学习》笔记:4.概率分类模型
# 2021.09.18 点赞过1 明日更新下一P# 内容:P10,P11文章目录P10: 概率分类模型10.1 线性回归模型短板10.2 贝叶斯P10: 概率分类模型10.1 线性回归模型短板不足1: 当我们发现有些数据很离谱,那么会严重影响模型,使得得出我们不想要的结果右图我们得到的是紫的回归线,很明显 不是最理想的绿色不足2:多分类的时候,错误的估计关系我们多分类时,有分类1,2,3.线性回归会很自然的认为 3类离2类相似度更近,相对于1类来说。不足3:有些模型你原创 2021-09-19 21:57:20 · 636 阅读 · 0 评论 -
李宏毅《机器学习》笔记:3.误差分析和梯度下降
# 2021.09.05 点赞过1明日更新下一p# 内容:P5,P6# 本系列为原创总结,望点赞支持!!文章目录P5: 误差分析5.1 误差哪里来?5.2 啥是bias 和 variance?5.3 方差,偏差对实验的影响5.4 模型选择5.5 有关统计学补充(选读,没写完,后续补充)5.5.1 无偏估计5.5.2 偏差计算5.5.3 方差计算P5: 误差分析5.1 误差哪里来?Error 的主要有两个来源,分别是 偏差(bias) 和 方差(variance) 。5.2 啥是bias 和原创 2021-09-05 19:00:34 · 364 阅读 · 0 评论 -
李宏毅《机器学习》笔记:2.线性回归
# 2021.09.04 # 抱歉拖更了,最近事太多了,如果点赞超过一个,明天更新下一P# 内容P3-P4# 可参考以前一篇内容:https://blog.csdn.net/wistonty11/article/details/115719169文章目录P3:线性回归3.0 机器学习分类3.1 什么是回归3.2 线性回归3.3 模型步骤3.3.1 选择模型框架:线性模型3.3.2 模型评估:损失函数3.3.3 最佳模型:梯度下降3.4 如何验证好坏3.4.1 适当增加函数复杂度3.4.2 加入更多原创 2021-09-05 00:12:27 · 254 阅读 · 0 评论 -
李宏毅《机器学习》笔记:1.机器学习介绍
文章目录P1: 机器学习介绍1.1 人工智能、机器学习、深度学习关系1.2 实现途径1.3 实现方法1.4 总结# Time: 2021.08.23# 内容:P1~P2P1: 机器学习介绍1.1 人工智能、机器学习、深度学习关系① 什么是人工智能?>>人工智能像个函数,我们输入一些东西,它能输出它的判断。输入一段语音,他知道你说的是how are you;输入图片,它知道是个猫;输入棋路,它会下 下一步;输入hi 它会回答 hello;② 三者的关系人工智能原创 2021-08-24 23:20:54 · 304 阅读 · 0 评论