![](https://img-blog.csdnimg.cn/20201014180756922.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
深度学习
文章平均质量分 82
LittleDragorse
有任何问题可以留言,我们共同进步!
展开
-
深度学习笔记(二)前馈神经网络(MLP)
神经网络的历史神经网络:1943反向传播:1960(改进于1986)卷积网络:1980(改进于1998)DBN:2006自动编码机:2006深度学习:2007神经网络的优缺点优点只要有数据就能用不依赖于人类对领域的理解可以用来建立非线性依赖关系的模型对噪声较为鲁棒即使输入的信息不完整也能够给出一些答案网络很容易维护缺点需要足够的数据对超参数敏感计算精度存在局限尚不具备可解释性前馈神经网络假设在输入与输出间存在对应函数f∗(x)=yf^*(x)=yf∗(x原创 2022-05-29 22:25:25 · 1504 阅读 · 0 评论 -
深度学习笔记(一)深度学习基础
关于深度学习你所需要的全部基础知识原创 2022-05-28 21:15:49 · 159 阅读 · 0 评论 -
深度学习笔记(十一)图神经网络
图神经网络的几个模型的简单介绍原创 2022-05-13 15:03:47 · 308 阅读 · 0 评论 -
李宏毅课程笔记(常见架构)
一、CNN3*3卷积核,边缘补值,共享参数(filter)Convolutional Layer(卷积层)产生Feature MapPooling Layer(池化层)本身没有参数,是为了把图片变小减少运算量Max Pooling:在n*n个值中选择最大的那个作为代表Flatten把矩阵拉直成一个向量Spacial Transformer Layer二、Attentionword embedding每个输入一个输出Sequence Labeling、所有输入一个输出、Seq2Se原创 2021-05-14 18:23:30 · 144 阅读 · 1 评论 -
炼丹笔记(一)MNIST
一、从SGDm到AdamMNIST是每个炼丹术士都要尝试的一颗丹药,众所周知,同一种丹药可能有着不同的数十乃至数百种丹方。在尝试了入门中的入门级丹方:三层FC夹BN并取得了98%纯度的好结果后,我开始尝试二级丹方:CNN。所用丹方为两层CNN接Pooling,后接两层FC,ReLU激活。在料想之中,FC都已经98纯了,CNN一出,那不是手到擒来?于是我手持SGDm款炼丹铲,向Model中加入了其他所需原料。但没想到的是,甫一测试,结果却没有显著变好(十轮还是在98%左右),而且还有一个奇怪的陡坡——这个原创 2021-05-19 16:07:55 · 252 阅读 · 0 评论 -
李宏毅课程笔记(机器学习基础
机器学习的分类从输出角度分类Regression(回归):输出是一个值Classification(分类):做选择题(需要准备好答案)用n维单位向量来表示一类SoftMax:yi′=ln(yi)∑ln(yi)y_i'=\frac{ln(y_i)}{\sum ln(y_i)}yi′=∑ln(yi)ln(yi)在两个Class的情况下softmax等价于两个sigmoidStructured Learning:产生一个有结构的机器学习的训练过程LossMAE(mean abso原创 2021-05-14 10:40:41 · 188 阅读 · 0 评论