- 博客(5)
- 资源 (4)
- 收藏
- 关注
翻译 深度模型(四):Transformer
Google2017论文《Attention is All You Need》引入Transformer,本文将介绍Transformer的相关知识。 整体结构 首先来看一下模型的整体结构。在机器翻译应用中,Transformer的输入是一种语言的某一句话,输出是另一种语言下这句话对应的翻译。 Transformer内部由encoding和decoding两部分组成: encoding部分由若...
2019-07-29 20:58:25 510
原创 深度模型(三):Capsule
胶囊网络 胶囊与传统神经元比较: 胶囊 传统神经元 输入类型 向量ui,i∈[1,m]\mathbf{u}_i,i\in[1,m]ui,i∈[1,m],mmm表示底层胶囊数量 标量xi,i∈[1,m]x_i,i\in[1,m]xi,i∈[1,m],m表示底层神经元数量 仿射变换 u^j∣i=Wijui\mathbf{\widehat u}_{j\lvert i}=\mat...
2019-07-28 16:14:23 835
原创 深度模型(二):Attention
Seq2Seq 讲解Attention之前,必须先了解Seq2Seq模型。 sequence to sequence模型广泛应用于机器翻译、机器问答、文章摘要、图片描述等等领域,是深度学习领域最常见的模型之一。它的基本结构如下: 模型包含一个编码器encoder和一个解码器decoder。编码器encoder将输入序列source转化成一种中间表示形式C: source=(x1,x2,......
2019-07-27 20:16:27 348
翻译 深度模型(一):LSTM
本文翻译自Understanding LSTM Networks 循环神经网络 人类并不是每次都是从零开始去思考一个问题的。比如你在阅读这篇文章时,你对当前每个字的理解都是基于前面字的理解的,并不是孤立的去理解每个字的意思。 传统的神经网络做不到这点,者看起来是个很大的问题。比如,你想对电影里出现的事件进行分类,传统的神经网络就没办法用前面事件的信息和理解来推断后面事件的类型。 循环神经网络克服了...
2019-07-25 16:15:36 1114
翻译 论文笔记:Rank and Rate: Multi-task Learning for Recommender Systems
本文是对论文Rank and Rate:Multi-task Learning for recommender Systems阅读笔记。 基于评分和基于排序是推荐系统中常见的两种推荐算法。其中基于评分的需要用户的显式反馈数据,也就是评分,基于排序可以基于用户的各种隐式反馈数据。两种方式各有优缺点。 论文提出了一种结合两种算法的多任务学习框架。闲话少述,直接上模型结构图: 用P表示评分预估算法,L...
2019-07-21 17:55:14 733
Web Information Extraction
2018-11-28
嵌入式Linux应用程序开发标准教程
2014-01-24
嵌入式系统原理与设计 中文清晰版本
2014-01-24
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人