李宏毅机器学习完整笔记发布,AI界「最热视频博主」中文课程笔记全开源

点上方“小詹学Python”,选择“置顶公众号” 第一时间获取干货分享! 本文转自:Datawhale

提起李宏毅老师,熟悉机器学习的读者朋友一定不会陌生。很多人选择的机器学习入门学习材料都是李宏毅老师的台大公开课视频。现在,机器学习爱好者有更完善的学习资料了。来自 Datawhale 的朋友整理、总结了李宏毅老师的机器学习视频教程,添加了课程笔记,实现了课程内容的完整复现。目前项目已完全开源,包括课程内容和复现代码,供大家使用。

目录


1.李宏毅机器学习简介

2.《LeeML-Notes》李宏毅机器学习笔记

3.《LeeML-Notes》学习笔记框架

4.笔记内容细节展示

a. 对梯度下降概念的解析

b. 为什么需要做特征缩放

c. 隐形马尔科夫链的应用

5.代码呈现

a. 回归分析

b. 深度学习

6.作业展示

7.交流互动

8.开源地址

9.配套视频


 1. 李宏毅机器学习简介


李宏毅老师现任台湾大学电气工程助理教授,研究重点是机器学习,特别是深度学习领域。他有一系列公开的机器学习课程视频,在机器学习领域是很多人入门的教材,人气不输吴恩达的 Coursera 机器学习课程。


640?wx_fmt=png


李宏毅老师的课程视频包括多种监督学习、无监督学习、半监督学习等领域,算法包括简单的线性回归、logistic 回归、支持向量机,乃至深度学习中的各类神经网络模型。


640?wx_fmt=png

「梯度下降」课程中的 PPT 。对比了不同梯度下曲线的形状。


640?wx_fmt=png

「词嵌入」课程中的PPT。展示了语义相似词语在词嵌入后呈现出的聚集关系。


因为课程中干货满满,李宏毅老师的课程视频也被称为中文世界中最好的机器学习视频。李老师以幽默风趣的上课风格让很多晦涩难懂的机器学习理论变得轻松易懂,他将理论知识与有趣的例子结合在课堂上展现,并且对深奥的理论知识逐步推导,保证学习者能够学习到问题的精髓所在。比如老师会经常用宝可梦来结合很多机器学习算法。对于想入门机器学习又想看中文讲解的人来说绝对是非常推荐的。


但是,考虑到很多机器学习爱好者对于课程笔记的需求,我们不仅仅需要的是教学视频。我们需要一份课程笔记,能够引领学习者的思路,帮助引导他们进入这个领域。因此,就诞生了这款《LeeML-Notes》李宏毅机器学习笔记。


 2.《LeeML-Notes》李宏毅机器学习笔记


LeeML-Notes 是 Datawhale 开源组织自《机器学习南瓜书》后的又一开源学习项目,由团队成员王佳旭、金一鸣牵头,8 名成员历时半年精心打磨而成,实现了李宏毅老师机器学习课程内容的 100% 复现,并且在此基础上补充了有助于学习理解的相关资料和内容,对重难点公式进行了补充推导。期间,Datawhale 开源组织打造了《李宏毅老师机器学习》的组队学习,在众多学习者共同的努力下,对该内容进行了迭代和补充。下面,让我们来详细了解下工作详情吧。


具体准备工作:


  • 2019 年 2 月--2019 年 4 月:笔记整理初级阶段,视频 100% 复现

  • 2019 年 4 月--2019 年 6 月:网站搭建,对笔记内容及排版迭代优化

  • 2019 年 5 月--2019 年 6 月:组队学习《李宏毅机器学习》并对内容进行迭代完善

  • 2019 年 7 月:最后内容修正,正式推广。


下图为修订记录表:


640?wx_fmt=png

 3.《LeeML-Notes》学习笔记框架


3.a 亮点


这份学习笔记具有以下优点:


  • 完全将李宏毅老师的讲课内容转为文字,方便学习者查阅参考。
  • 不仅保留了 PPT 的内容,还根据课程内容补充了一些知识点。
  • 具有完整的代码复现资料。

3.b 笔记框架
内容在整体框架上与李宏毅老师的机器学习课程保持一致,主要由监督学习、半监督学习、迁移学习、无监督学习、监督学习中的结构化学习以及强化学习构成。建议学习过程中将李宏毅老师的视频和这份资料搭配使用,效果极佳。笔记也和课程视频完全同步。


目录详情见下:


  • P1 机器学习介绍
  • P2 为什么要学习机器学习
  • P3 回归
  • P4 回归-演示
  • P5 误差从哪来?
  • P6 梯度下降
  • P7 梯度下降(用 AOE 演示)
  • P8 梯度下降(用 Minecraft 演示)
  • P9 作业 1-PM2.5 预测
  • P10 概率分类模型
  • P11 logistic 回归
  • P12 作业 2-赢家还是输家
  • P13 深度学习简介
  • P14 反向传播
  • P15 深度学习初试
  • P16 Keras2.0
  • P17 Keras 演示
  • P18 深度学习技巧
  • P19 Keras 演示 2
  • P20 Tensorflow 实现 Fizz Buzz
  • P21 卷积神经网络
  • P22 为什么要「深度」学习?
  • P23 半监督学习
  • P24 无监督学习-线性降维
  • P25 无监督学习-词嵌入
  • P26 无监督学习-领域嵌入
  • P27 无监督学习-深度自编码器
  • P28 无监督学习-深度生成模型 I
  • P29 无监督学习-深度生成模型 II
  • P30 迁移学习
  • P31 支持向量机
  • P32 结构化学习-介绍
  • P33 结构化学习-线性模型
  • P34 结构化学习-结构化支持向量机
  • P35 结构化学习-序列标签
  • P36 循环神经网络 I
  • P37 循环神经网络 II
  • P38 集成学习
  • P39 深度强化学习浅析
  • P40 机器学习的下一步


 4. 笔记内容细节展示


4.a 对梯度下降概念的解析


640?wx_fmt=png 在笔记中重新整理PPT内容,并增加了一些注释。


640?wx_fmt=png 不对视频语音直接转文字,而是根据内容整理成知识点,方便读者理解阅读。


4.b 为什么需要做特征缩放
640?wx_fmt=png 对特征缩放的PPT进行整理记录。


 4.c 隐形马尔科夫链的应用


640?wx_fmt=png 隐形马尔科夫链在语言模型中的应用。


4.d 利用贴近学生的例题解释知识点
640?wx_fmt=png 用算法对精灵宝可梦(神奇宝贝)进行分类。
 5. 代码呈现


代码在李宏毅老师提供代码的基础上进行了优化,在 python3 上全部调试通过。


5.a 回归分析


640?wx_fmt=png


640?wx_fmt=png


5.b 深度学习
640?wx_fmt=png Keras 的基础模型构建代码。


640?wx_fmt=png 用Keras构建深层模型


6. 作业展示


对笔记课程的作业进行了讲解与解读,并且总结了一些需要注意的点,同样在 python3 上调试通过。


640?wx_fmt=png 问题描述。
640?wx_fmt=png
640?wx_fmt=png 笔记中提供了课程作业的参考答案。


 7. 交流互动


目录中每一节最后都设置了交流互动区供大家总结学习内容、提出自己的疑问和广大学习者互动,可以使用 GitHub 登录,方便读者们交流。


640?wx_fmt=png


  • 8.开源地址:https://github.com/datawhalechina/leeml-notes
  • 9. 配套视频:https://www.bilibili.com/video/av59538266


主要贡献人员


  • 负责人:王佳旭、金一鸣
  • 成员:黑桃、李威、 排骨、追风者、Summer、杨冰楠
  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
李宏的2020机器学习笔记中,有一个关于注意力机制(Attention)的部分。这部分内容要介绍了生成模型(Generation)、注意力(Attention)、生成的技巧(Tips for Generation)以及指针网络(Pointer Network)。在生成模型中,要讲述了如何生成一个有结构的对象。接下来介绍了注意力机制,包括一些有趣的技术,比如图片生成句子等。在生成的技巧部分,提到了一些新的技术以及可能遇到的问题和偏差,并给出了相应的解决方案。最后,稍微提到了强化学习。其中还提到了在输出"machine"这个单词时,只需要关注"机器"这个部分,而不必考虑输入中的"学习"这个部分。这样可以得到更好的结果。另外,还提到了关于产生"ei"的方法,其中有研究应用了连续动态模型自注意力(Self-attention)来学习位置编码的方法。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* *2* [2020李宏机器学习笔记-Condition Generation by RNN&Attention](https://blog.csdn.net/zn961018/article/details/117593813)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v92^chatsearchT3_1"}}] [.reference_item style="max-width: 50%"] - *3* [李宏机器学习学习笔记:Self-attention](https://blog.csdn.net/weixin_44455827/article/details/128094176)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v92^chatsearchT3_1"}}] [.reference_item style="max-width: 50%"] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值