【视频+PPT】2021年李宏毅版40节机器学习课程已更新完毕,推荐收藏!

提起李宏毅老师,熟悉机器学习的读者朋友一定不会陌生。最典型的就是开局一言不合就“宝可梦”。李宏毅老师幽默风趣的教学风格也吸引力很多机器学习爱好者。

李宏毅老师,是宝岛台湾大学电机工程系教授,他分别于2010年和2012年获得硕士和博士学位,主要研究机器学习尤其是深度学习、语言理解和语音识别。李宏毅老师的机器学习课程可以说是最具代表性的中文公开课之一,已经成为大量国内初学者的首选。

截至目前,2021年版的机器学习40节课程已经全部更新完毕,全程中文讲解,覆盖的内容也非常丰富,视频均长约40分钟,内容较多,喜欢的小伙伴先收藏、关注,慢慢学习!

今年李宏毅老师的课程视频会与时俱进,课程新增 Transformer、流模型和对抗攻击等新内容。去年的课程则对BERT、XLNet 等语言模型做了很多介绍。

李教授的课幽默风趣、重点突出、基础知识和最新技术一应俱全,PPT 也做得简洁易懂,非常用心,还有课后作业,记得用心完成哦!

李老师说了面向所有人,而且完全可以在家自学。在 B 站上视频已被“机器学习社区”整理为合集,可以方便观看。

视频链接:
2021年李宏毅老师机器学习

视频课程目录
  • 1、预测本频道观看人数(上)-机器学习基本概念简介
  • 2、预测本频道观看人数(下)-深度学习基本概念简介
  • 3、机器学习任务攻略
  • 4、类神经网络训练不起来怎么办(一):局部最小值(local minima)与鞍点(saddle point)
  • 5、类神经网络训练不起来怎么办(二):批次(batch)与动量(momentum)
  • 6、类神经网络训练不起来怎么办(三):自动调整学习率(learning rate)
  • 7、类神经网络训练不起来怎么办(四):损失函数(loss)也可能有影响
  • 8、类神经网络训练不起来怎么办(五):批次标准化(batch normalization)简介
  • 9、卷积神经网络(Convolutional Neural Networks,即CNN)
  • 10、注意力机制(self-attention)(上)
  • 11、注意力机制(self-attention)(下)
  • 12、Transformer(上)
  • 13、Transformer(下)
  • 14、生成对抗网络(Generative Adversarial Network,即GAN)(一) – 基本概念介绍
  • 15、生成对抗网络(Generative Adversarial Network,即GAN)(二) – 理论介绍与WGAN
  • 16、生成对抗网络(Generative Adversarial Network,即GAN)(三) – 生成器效能评估与条件式生成
  • 17、生成对抗网络(Generative Adversarial Network,即GAN)(四) – Cycle GAN
  • 18、自监督式学习(Self-supervised Learning) (一) – 芝麻街与进击的巨人
  • 19、自监督式学习(Self-supervised Learning) (二) – BERT简介
  • 20、自监督式学习(Self-supervised Learning) (三) – BERT的奇闻异事
  • 21、自监督式学习(Self-supervised Learning) (四) – GPT的野望
  • 22、自编码器(Auto encoder)(上) - 基本概念
  • 23、自编码器(Auto encoder)(下) - 领结变声器与更多应用
  • 24、来自人类的恶意攻击(Adversarial Attack) (上) – 基本概念
  • 25、来自人类的恶意攻击(Adversarial Attack) (下) – 类神经网络能否躲过人类深不见底的恶意?
  • 26、机器学习模型的可解释性(Explainable ML) (上) - 为什么神经网络可以正确分辨宝可梦和数码宝贝呢?
  • 27、机器学习模型的可解释性(Explainable ML) (下) - 机器心中的猫长什么样子?
  • 28、概述领域自适应(Domain Adaptation)
  • 29、概述增强式学习(Reinforcement Learning, RL) (一) – 增强式学习跟机器学习一样都是三个步骤
  • 30、概述增强式学习(Reinforcement Learning, RL) (二) – Policy Gradient与修课心情
  • 31、概述增强式学习(Reinforcement Learning, RL) (三) – Actor-Critic
  • 32、概述增强式学习(Reinforcement Learning, RL) (四) – 回馈非常罕见的时候怎么办?机器的望梅止渴
  • 33、概述增强式学习(Reinforcement Learning, RL) (五) – 如何从示范中学习?逆向增强式学习
  • 34、机器终身学习(Life Long Learning, LL) (一) - 为什么今日的人工智能无法成为天网?灾难性遗忘(Catastrophic Forgetting)
  • 35、机器终身学习(Life Long Learning, LL) (二) - 灾难性遗忘(Catastrophic Forgetting)的克服之道
  • 36、神经网络压缩(Network Compression) (一) - 类神经网络剪枝(Pruning)与大乐透假说(Lottery Ticket Hypothesis)
  • 37、神经网络压缩(Network Compression) (二) - 从各种不同的面向来压缩神经网络
  • 38、元学习Meta Learning (一) - 元学习跟机器学习一样也是三个步骤
  • 39、元学习Meta Learning (二) - 万物皆可Meta
  • 40、课程结语 - 最后的作业并改编《为学一首示子侄》作结
课程作业
  • 1、你应该自己完成作业。
  • 2、您不应手动修改您的预测文件。
  • 3、不要与任何生物共享代码或预测文件。
  • 4、不要使用任何方法每天提交超过 5 次的结果。
  • 5、不要搜索或使用额外的数据或预先训练的模型。
  • 6、如果您违反上述任何规则,您的最终成绩将受到 10% 的处罚。
  • 7、Lee教授和助教保留更改规则和等级的权利。
作业内容

技术交流

欢迎转载、收藏本文,码字不易,有所收获点赞支持一下!

为方便进行学习交流,本号开通了技术交流群,添加方式如下:

直接添加小助手微信号:dkl88191,备注:CSDN+机器学习,或者按照如下方式(发送至微信,识别即可)添加均可!
在这里插入图片描述

  • 1
    点赞
  • 12
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值