机器学习李宏毅
文章平均质量分 65
温涛
硕士在读的普通人
展开
-
P11机器学习--李宏毅笔记GAN(对抗生成网络)
GAN的基本概念GAN的训练方法训练GAN的目标Model CollapseModel Dropping计算多样性Conditional GANCondtitional GAN+Supervised learingcycle Gan原创 2022-11-13 11:17:40 · 1112 阅读 · 0 评论 -
P11机器学习--李宏毅笔记(Transformer Decoder)Testing部分
大概运作模式Encoder与Decoder对比那为什么要用masked Self-attention呢怎么让输出停下来AT vs NATcross-attentionDecoder接受的输入原创 2022-10-19 21:34:55 · 550 阅读 · 2 评论 -
P11机器学习--李宏毅笔记(Transformer Encoder)
Encoderresidual connectionLayer normolizationFully Connect networkEncoder架构改进原创 2022-10-18 20:43:04 · 412 阅读 · 0 评论 -
P11机器学习--李宏毅笔记(Bactch normolization 让error surface 变好)
一、怎么变成好的error face二、Feature Normalization三、在深度学习中再使用Feature Normalization四、batch normolization原创 2022-10-17 10:41:31 · 521 阅读 · 0 评论 -
P10.2机器学习笔记--李宏毅(self-attention机制)
一、self-attention二、多头self-attention三、Positional Encoding四、self-attention在多领域的运用原创 2022-10-15 17:54:09 · 401 阅读 · 0 评论 -
P10.1机器学习笔记--李宏毅(self-attention机制)
P10.1机器学习笔记--李宏毅(self-attention机制)原创 2022-10-11 09:30:59 · 286 阅读 · 0 评论 -
P9机器学习笔记--李宏毅(鱼与熊掌兼得)为什么要更深
P9机器学习笔记--李宏毅(鱼与熊掌兼得)为什么要更深原创 2022-10-10 21:29:43 · 612 阅读 · 0 评论 -
P8机器学习笔记--李宏毅(卷积神经网络CNN)
P8机器学习笔记--李宏毅(卷积神经网络CNN)最大池化原创 2022-10-09 20:16:13 · 764 阅读 · 0 评论 -
P6机器学习笔记--李宏毅
一、分类任务时我们怎么设置呢二、改变loss function可以改变optimization的难度原创 2022-10-04 16:41:18 · 292 阅读 · 1 评论 -
P5机器学习笔记--李宏毅(train stuck住了是为什么?)
一、train stuck住了是因为驻点还是导数小了呢二、不同的参数需要不同的learing rate原创 2022-10-04 15:51:10 · 283 阅读 · 0 评论 -
P4机器学习笔记--李宏毅
batchsize大小的差异对抗Critical point(驻点)的方法Momentum原创 2022-10-03 21:08:27 · 260 阅读 · 0 评论 -
P3机器学习笔记--李宏毅
判断local minima ,localmaxima 或是saddle point原创 2022-10-02 16:37:23 · 194 阅读 · 0 评论 -
P2机器学习--李宏毅
机器学习,loss情况解析原创 2022-10-02 11:40:32 · 145 阅读 · 0 评论 -
p1机器学习---李宏毅笔记
机器学习原创 2022-10-01 11:49:11 · 232 阅读 · 0 评论