P1 | ML Lecture0 | 机器学习介绍 |
P2 | ML Lecture1 | 逻辑回归案例学习 |
P3 | ML Lecture1 | 逻辑回归的例子 |
P4 | ML Lecture2 | 误差从哪来 |
P5 | ML Lecture3-1 | 梯度下降 |
P6 | ML Lecture3-2 | 梯度下降(以AOE为例) |
P7 | ML Lecture3-2 | 梯度下降(以Minecraft为例) |
P8 | ML Lecture4 | 分类 |
P9 | ML Lecture5 | 逻辑回归 |
P10 | ML Lecture6 | 对于深度学习的简短介绍 |
P11 | ML Lecture7 | 反向传播 |
P12 | ML Lecture8-1 | 深度学习的“Hello world” |
P13 | ML Lecture8-2 | Keras2.0 |
P14 | ML Lecture8-3 | Keras的例子 |
P15 | ML Lecture9-1 | 训练DNN的技巧 |
P16 | ML Lecture9-2 | Keras的例子2 |
P17 | ML Lecture9-3 | |
P18 | ML Lecture10 | 卷积神经网络 |
P19 | ML Lecture11 | 为什么是“深度” |
P20 | ML Lecture12 | 半监督 |
P21 | ML Lecture13 | 无监督学习——线性方法 |
P22 | ML Lecture14 | 无监督学习——Word Embedding |
P23 | ML Lecture15 | 无监督学习——Neighbor Embedding |
P24 | ML Lecture16 | 无监督学习——自编码器 |
P25 | ML Lecture17 | 无监督学习——深度生成模型(I) |
P26 | ML Lecture18 | 无监督学习——深度生成模型(II) |
P27 | ML Lecture19 | 迁移学习 |
P28 | ML Lecture20 | 支持向量机 |
P29 | ML Lecture21-1 | 循环神经网络(I) |
P30 | ML Lecture21-2 | 循环神经网络(II) |
P31 | ML Lecture22 | |
P32 | ML Lecture23-1 | 深度强化学习 |
P33 | ML Lecture23-2 | 策略梯度(补充说明) |
P34 | ML Lecture23-3 | 强化学习(包括Q-learning) |
P35 | ML Structured Learning1 | (结构化预测)介绍 |
P36 | ML Structured Learning2 | 线性模型 |
P37 | ML Structured Learning3 | 结构化SVM |
P38 | ML Structured Learning4 | 序列标注 |
李宏毅机器学习课程2019目录翻译
最新推荐文章于 2022-08-02 10:59:11 发布