![](https://img-blog.csdnimg.cn/20201014180756913.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
深度学习
文章平均质量分 72
Vonjor
Hunan University
展开
-
Transfomer详解
Transformer 和 LSTM 的最大区别,就是 LSTM 的训练是迭代的、串行的,必须要等当前字处理完,才可以处理下一个字。而 Transformer 的训练时并行的,即所有字是同时训练的,这样就大大增加了计算效率。Transformer 模型主要分为两大部分,分别是 Encoder 和 Decoder。Encoder 负责把输入(语言序列)隐射成隐藏层,然后解码器再把隐藏层映射为自然语言序列。本文主要介绍Encoder结构,Decoder内容大致相同。原创 2022-10-18 14:58:04 · 1209 阅读 · 2 评论 -
Deep Learning(深度学习)基本概念
Deep Learning(深度学习)基本概念原创 2022-07-17 15:56:43 · 1500 阅读 · 0 评论 -
Neural Network(神经网络)基本概念
Neural Network(神经网络)基本概念原创 2022-07-16 18:55:49 · 782 阅读 · 0 评论 -
keras框架下的MNIST数据集训练及自己手写数字照片的识别
在上学期曾借着课余时间看了一些吴恩达的机器学习网课,并尝试着用Python的Numpy、pandas、plt这3个库实现了线性回归等简单功能,但是实在太过繁琐,有一点点偷懒的因素,于是就想用现成的框架(但是初学还是自己一步一步实现最好啦),sklearn、tensorflow都有试过,但是感觉…也不太想用…然后这学期实验室的学姐要求我们用keras做深度学习,于是我就半主动半不主动的开始了看ker...原创 2019-03-13 14:24:24 · 3906 阅读 · 2 评论