自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(1)
  • 资源 (3)
  • 收藏
  • 关注

原创 深度学习浅析

目录 一、第一阶段 1.1、MP模型 1.2、感知机 二、第二阶段 2.1、多层感知机(DNN) 2.2、BP神经网络 2.3、卷积神经网络(CNN) 2.4、循环神经网络(RNN) 2.5、长短时记忆网络(LSTM) 三、第三阶段 3.1、Hopfield网络 3.2、玻尔兹曼机 3.3、受限玻尔兹曼机 深度学习是基于神经网络发展起来的技术,而神经网络的发展具有...

2019-03-12 16:14:41 445

Attention Is All You Need论文

"Attention Is All You Need" 论文的详细解读如下: 1. 摘要(Abstract): 论文摘要简要介绍了Transformer模型,一种基于注意力机制的序列到序列学习模型。摘要提到,Transformer摒弃了传统的循环和卷积层,完全依赖于注意力机制来实现输入和输出序列之间的关联。实验结果表明,在翻译质量、并行能力和所需训练时间方面,Transformer优于此前的方法。 2. 引言(Introduction): 引言部分首先回顾了传统的序列到序列模型,特别是基于RNN和CNN的模型,并指出了它们在处理长距离依赖和并行计算方面的局限性。随后,作者介绍了注意力机制,并强调了其在机器翻译等任务中的重要性。最后,作者总结了Transformer模型的主要特点和实验结果,指出其在翻译质量和模型效率方面的优势。 3. 相关工作(Background): 在这一部分,作者简要回顾了与Transformer模型相关的先前工作,包括传统的序列到序列模型、基于注意力机制的模型以及一些优化技术。这些工作为Transformer模型的设计提供了理论基础和实践经验。

2024-07-04

RAG技术知识图谱概览

RAG技术知识

2024-05-22

RNN循环神经网络代码

RNN循环神经网络代码

2024-02-28

回归样本数据(教育年限与收入关系)

回归样本数据(教育年限与收入关系)

2023-01-10

时间序列样例数据(股票数据)

时间序列样例数据(股票数据) 可用于时间序列分析进行测试 时间颗粒度为“天” 包含每一天的开盘价、收盘价、最低值、最高值

2023-01-04

iris鸢尾花数据集下载

鸢尾花数据

2022-01-17

orange中文版.txt

orange中文版

2022-01-17

diabetes_train.txt

糖尿病数据集,主要用于机器学习或者深度学习分类算法,共有9个字段 前8个维变量,最后一个字段为标签,为二分类数据集,当然自己可以转换成ONE-HOT类型

2020-05-08

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除