论文笔记
文章平均质量分 93
Zjhao666
泰山不择细壤,故能成其大;江河不择细流,故能成其深。
展开
-
用Bibtex导出GB/T 7714等格式引用的方法
1、背景:为什么这tmd会成为一个问题?有的会议期刊,比如ICLR,它在谷歌学术等一众学术搜索引擎上,都只有arxiv的引用出处。比如,针对论文:《Learning invariant representations for reinforcement learning without reconstruction》它在谷歌学术里的引用就长这个样子,只有arxiv:但是呢,老板要求一些引用文献的时候,要有牌面,然后就有如下对话:谁让你引用arxiv的文献的? 不老师你听我解释,它其原创 2022-03-14 18:16:46 · 22668 阅读 · 9 评论 -
Typora使用指南——论如何用Markdown把笔记记得欲仙欲死
工具Typora:https://typora.io/标题自动编号https://blog.csdn.net/Zjhao666/article/details/105952606基本使用源代码与美化界面切换ctrl+/标题一到六级标题:ctrl+1 2 3 4 5 6表格ctrl t,选择行列数学公式$行内公式$$单行公式$扫描公式出结果(word、latex、markdown都有)的工具:https://mathpix.com/基本公式规则:原创 2020-07-13 20:45:28 · 991 阅读 · 0 评论 -
ABCNN Attention-Based Convolutional Neural Network for Modeling Sentence Pairs笔记
一、基本的BCNN1、输入两个(长度不一定相同的)句子 长度分别为s0,s1 s=max(s0,s1)每一个word都用词向量表示了,词向量维度为d0,默认300所以每个句子都是个d0*s的矩阵2、卷积层vi 句子中第i个word卷积部分为vi-w+1到vi,即长度为w,如果在原始范围之外则用0填充。使用卷积层权重,即利用卷积部分里的每一个word的词向量,0&...原创 2019-09-01 13:38:38 · 563 阅读 · 0 评论 -
Neural-Machine-Translation-by-Jointly-Learning-to-Align-and-Translate笔记
时间步iyi 目标单词si RNN隐含层状态ci 上下文向量x 输入单词词向量最大化条件概率其中si由生成。hj 单词j的注释(词向量)a 前向神经网络上下文语境向量ci生成方式 时间步i单词j生成的概率 对eij进行softmax 上下文语境向量...原创 2019-08-31 10:40:11 · 218 阅读 · 0 评论 -
Effective Approaches to Attention-based Neural Machine Translation笔记
一、概要时间步t1 首先使用最顶层堆叠LSTM的隐含层ht作为输入,以获得语境向量ct2 进而预测出目标单词ytglobal和local的区别仅在于语境向量ct的获取方式3 拼接隐含层ht和语境向量ct,以获得注意力隐含层状态4 接着注意力向量ht通过softmax层去生成预测分布二、global attention 关注全局思想:在生成语境向量ct时...原创 2019-08-31 11:53:35 · 288 阅读 · 0 评论 -
attention is all you need笔记
传统encoder输入:符号序列 x1,…,xn输出:连续表示z1,…,zndecoder输入:连续表示z1,…,zn输出:符号序列y1,….ym作者原创transformer使用堆叠的self-attention和point-wise,全连接层。(左encoder,右decoder) transformer结构图encoder由6个相同层堆叠...原创 2019-09-02 11:00:09 · 484 阅读 · 0 评论