目录
- 04 数据操作+数据预处理
- 05 线性代数
- 06 矩阵计算
- 07 自动求导
- 08 线性回归
- 09 Softmax 回归 + 损失函数 + 图片分类数据集
- 10 多层感知机
- 11 模型选择 + 过拟合和欠拟合
- 12 权重衰退
- 13 丢弃法
- 14 数值稳定性 + 模型初始化和激活函数
- 19 卷积层
- 20 卷积层里的填充和步幅
- 21 卷积层里的多输入多输出通道
- 22 池化层
- 23 经典卷积神经网络 LeNet
- 24 深度卷积神经网络 AlexNet
- 25 使用块的网络 VGG
- 26 网络中的网络 NiN
- 27 含并行连结的网络 GoogLeNet / Inception V3
- 28 批量归一化
- 29 残差网络 ResNet
- 31 深度学习硬件:CPU 和 GPU
- 32 深度学习硬件:TPU和其他
- 33 单机多卡并行
- 35 分布式训练
- 36 数据增广
- 37 微调
- 41 物体检测和数据集
- 42 锚框
- 44 物体检测算法
- 45 SSD实现
- 46 语义分割和数据集
- 47 转置卷积
- 47.2 转置卷积是一种卷积
- 48 全连接卷积神经网络 FCN
- 49 样式迁移
- 51 序列模型
- 52 文本预处理
- 53 语言模型
- 54 循环神经网络 RNN
- 56 门控循环单元(GRU)
- 57 长短期记忆网络(LSTM)
- 58 深层循环神经网络
- 59 双向循环神经网络
- 61 编码器-解码器架构
- 63 束搜索
- 64 注意力机制
- 65 注意力分数
- 66 使用注意力机制的seq2seq
- 67 自注意力
- 68 Transformer
- 69 BERT预训练
- 70 BERT微调
- 72 优化算法
- 【完结】73 - 课程总结和进阶学习
04 数据操作+数据预处理
https://github.com/Whiffe/Mu_Li_course_note/blob/main/04%E6%95%B0%E6%8D%AE%E6%93%8D%E4%BD%9C.ipynb
数据预处理
CSV全称:Comma-Separated Values
05 线性代数
按照特定轴求和
操作:
https://github.com/Whiffe/Mu_Li_course_note/blob/main/05%E7%BA%BF%E6%80%A7%E4%BB%A3%E6%95%B0.ipynb
06 矩阵计算
07 自动求导
08 线性回归
09 Softmax 回归 + 损失函数 + 图片分类数据集
10 多层感知机
11 模型选择 + 过拟合和欠拟合
12 权重衰退
13 丢弃法
14 数值稳定性 + 模型初始化和激活函数
19 卷积层
20 卷积层里的填充和步幅
21 卷积层里的多输入多输出通道
22 池化层
23 经典卷积神经网络 LeNet
24 深度卷积神经网络 AlexNet
25 使用块的网络 VGG
26 网络中的网络 NiN
27 含并行连结的网络 GoogLeNet / Inception V3
28 批量归一化
29 残差网络 ResNet
31 深度学习硬件:CPU 和 GPU
32 深度学习硬件:TPU和其他
33 单机多卡并行
35 分布式训练
36 数据增广
37 微调
41 物体检测和数据集
42 锚框
44 物体检测算法
45 SSD实现
46 语义分割和数据集
47 转置卷积
47.2 转置卷积是一种卷积
48 全连接卷积神经网络 FCN
49 样式迁移
51 序列模型
52 文本预处理
53 语言模型
54 循环神经网络 RNN
56 门控循环单元(GRU)
57 长短期记忆网络(LSTM)
58 深层循环神经网络
59 双向循环神经网络
61 编码器-解码器架构
·# 62 序列到序列学习(seq2seq)
63 束搜索
64 注意力机制
65 注意力分数
66 使用注意力机制的seq2seq
67 自注意力
68 Transformer
69 BERT预训练
70 BERT微调
72 优化算法
【完结】73 - 课程总结和进阶学习