学习总结
文章平均质量分 79
ttliu_kiwi
进一寸有一寸的欢喜~
读经典的书,走更多的路。
展开
-
论文笔记 | CodeXGLUE: A Machine Learning Benchmark Dataset for Code Understanding and Generation
arxiv 2021Shuai Lu, Daya Guo, Shuo Ren, …Peking University, Sun Yat-sen University, Beihang University, Microsoftkeywords: program understanding, benchmark dataset本文提出了一个代码理解领域的benchmark,其中包括10个任务,14个数据集,还有一个可以供研究者们参考和比较的平台。文章中所有内容基本可以用下面这张表概括,主要是在讲.原创 2021-03-03 10:07:08 · 1379 阅读 · 0 评论 -
论文笔记 | Type4Py: Deep Similarity Learning-Based Type Inference for Python
arxiv 2021Amir M. Mir, Evaldas Latoskinas, Sebastian Proksch, Georgios GousiosDelft University of Technology(荷兰代尔夫特理工大学)keywords: type inference of identifier, deep similarity learning-based method, large type vocabulary研究动机本文做的任务是动态编程语言的变量类型预测。所谓动态.原创 2021-02-23 19:06:00 · 457 阅读 · 0 评论 -
pytorch数据可视化(tensorboard的安装和使用)
根据《深入浅出pytorch》一书中的实例进行了修改和总结Tensorboard简介tensorboard是一个数据可视化工具,能够展示深度学习过程中张量的变化。可视化的内容可以包括:模型训练过程中的损失、张量的分布直方图、训练过程中输出的图片和音频数据等。Tensorboard安装pip install tensorboard【注意:tensorboard版本号要和tensorflow版本匹配,具体的匹配规则不太清楚,以下给出我的版本号】使用方法以线性模型的训练为例,以下为完整代码:.原创 2021-02-21 20:19:08 · 1311 阅读 · 1 评论 -
软件工程领域国际会议列表
学术期刊CCF期刊名称影响因子出版商CCF AIEEE Transactions on Software Engineering (TSE)4.778IEEECCF AACM Transactions on Software Engineering and Methodology (TOSEM)ACMCCF BJournal of Software: Evolution and Process0.606John Wiley & Sons, Lt原创 2021-02-20 21:45:18 · 4285 阅读 · 0 评论 -
论文笔记 | code pretraining(代码预训练系列)
文章目录Pre-trained contextual embedding of source codeCodeBERT: A Pre-trained model for programming and natural languagesGraphCodeBert: Pre-training code representations with data flowContrastive code representation learningInferCode: Self-Supervised Learning原创 2021-02-20 21:42:40 · 4585 阅读 · 0 评论 -
机器学习算法总结
持续更新…文章目录XgBoost算法XgBoost算法XgBoost是Boosting算法的其中一种,Boosting算法的思想是将许多弱分类器集成在一起,形成一个强分类器。因为XgBoost是一种提升树模型,所以它是将许多树模型集成在一起,形成一个很强的分类器,所用到的树模型是CART回归树模型。也就是XgBoost是由很多CART树集成。什么是CART树呢?数据挖掘或机器学习中使用的决策树主要有两种类型:分类树分析是指预测结果是数据所属的类回归树分析是指预测结果可以是实数而术语分.原创 2021-02-20 20:50:36 · 108 阅读 · 0 评论 -
论文笔记 | Graph Pooling
文章目录Graph U-Nets研究动机主要内容Hierarchical Graph Representation Learning with Differentiable Pooling研究动机研究内容Graph U-Nets会议:ICML 2019Authors:Hongyang Gao, Shuiwang JiDepartments: Texas A&M UniversityRecommend Score: 8.5 / 10.0Keywords: graph classifica原创 2021-02-20 20:46:04 · 848 阅读 · 0 评论 -
论文笔记 | 基础知识类论文(多任务学习、图卷积等)
文章目录Representation Learning Using Multi-Task Deep Neural Networks for Semantic Classification and Information Retrieval研究动机两个任务模型框架模型训练实验评估总结An Overview of Multi-Task Learning in Deep Neural Networks什么是Multi-task Learning?Multi-task learning 适用场景两种常见的参数共享方原创 2021-02-20 20:39:43 · 559 阅读 · 0 评论 -
Attention 和 Transformer详解
Attention & Transformer由Jay Alammar的博客总结链接:1. seq2seq and attention 2. transformerAttention以下的内容都以机器翻译任务举例。Seq2seq for translation传统的seq2seq架构在做机器翻译任务时,encoder部分获取输入句子的embedding,也就是最后一个时间步的hidden state向量,输入到decoder中,经过多个时间步后,得到输出的序列。但其中存在的原创 2021-02-20 20:35:02 · 816 阅读 · 0 评论 -
pytorch学习最佳工具——官方文档
python/pytorch各个库的官方docHugging Face:包含各个预训练模型的详细文档,可以直接使用。比如BERT中的tokenizer和model等。除此之外,还有一些公开的数据集。pytorch documentation同理,numpy或者其他的库,在学习的时候都可以找到他们的官方文档,看看某个函数的具体介绍。...原创 2021-02-17 20:46:56 · 289 阅读 · 0 评论 -
pytorch读取数据(Dataset, DataLoader, DataLoaderIter)
pytorch数据读取参考资料:pytorch数据读取pytorch对nlp数据的处理博客(以短文本匹配为例)dataloader使用教程博客pytorch使用DataLoader对数据集进行批处理简单示例Pytorch的数据读取主要包含三个类:DatasetDataLoaderDataLoaderIter这三者是依次封装的关系,Dataset被装进DataLoader,DataLoder被装进DataLoaderIter。Dataloader的处理逻辑是先通过Dataset类原创 2021-02-17 20:43:06 · 10024 阅读 · 1 评论 -
论文笔记 | code representation(代码表示学习)系列
文章目录Associating Natural language comment and source code entities研究动机本文方法Deep Learning Similarities from Different Representations of Source Code研究动机具体方法实验部分Learning Semantic Vector Representations of Source Code via a Siamese Neural Network研究动机具体方法实验部分数据N原创 2021-01-31 21:29:42 · 5632 阅读 · 1 评论 -
论文笔记 | code summarization(代码摘要生成)系列
代码摘要生成论文列表1. Recommendations for Datasets for Source Code Summarization2. Abridging Source Code3. Summarizing Source Code Using a Neural Attention Model4. Code Generation as a Dual Task of Code Summarization5. A Transformer-based Approach for Source Code S原创 2021-01-19 20:23:04 · 6183 阅读 · 4 评论 -
读书笔记 | 韭菜的自我修养
书名:韭菜的自我修养作者:李笑来阅读时间:2020年8月1. "韭菜"究竟是谁我们可以从人们的常用语境里得出基本上还算准确的定义:所谓“韭菜”,指的是在交易市场中没有挣到钱甚至赔钱的势单力薄的散户这样看来,作为一根韭菜,想要成为"非韭菜",任务很简单啊:赚到钱...2. "韭菜"的宿命从那一刻开始“韭菜"之所以是"韭菜”,绝大多数情况下只不过源自一个相同的原因:他们一进场就开始“买买买”!对于新手来说,有一个定律永恒不变:你一买,它就开始跌;你一卖,它就开始涨...为什么会出.原创 2021-01-19 09:39:03 · 908 阅读 · 4 评论 -
论文笔记 | graph pre-training 系列论文
图预训练论文笔记1. Strategies for pre-training graph neural networks2. Multi-stage self-supervised learning for Graph Convolutional Networks on graphs with few labeled nodesMotivation具体方法3. GPT-GNN: Generative Pre-training of Graph Neural Networks4. Pre-training G原创 2021-01-17 08:50:21 · 1615 阅读 · 0 评论 -
论文笔记 | 语义解析相关论文
文章目录1. Language to Logical Form with Neural Attention2. Abstract Syntax Networks for Code Generation and Semantic Parsing3. A Syntactic Neural Model for General-Purpose Code Generation4. Tree-structured Decoding with Doubly-recurrent Neural Network5. Seman原创 2020-05-16 14:53:49 · 1743 阅读 · 0 评论 -
强化学习导论 | 第10章 On-policyControl with Approximation
上一章讲了on-policy策略下,怎样估计状态价值函数,也就是“预测”任务。对应的还有一个“控制”任务,就是要找到最优策略。并且,在控制任务中,我们现在要估计的是动作价值函数,即q^(s,a,w)≈q∗(s,a)\hat{q}(s, a, \mathbf{w}) \approx q_*(s, a)q^(s,a,w)≈q∗(s,a),其中w∈Rd\mathbf{w} \in \mathbb{R...原创 2020-04-28 08:12:32 · 405 阅读 · 0 评论 -
全面理解RNN(包括GRU、LSTM)以及对应pytorch实现
之前在学习RNN的时候,总是零零散散的搜一些东西。这次想要将关于RNN的知识总结起来,包括各种RNN网络的结构、输入输出以及pytorch代码实现。文章目录单向RNN网络简介Vanilla RNN / GRU 的结构LSTM 的结构双向RNN网络简介单向和双向LSTM的pytorch代码实现单向LSTM双向LSTMReference单向RNN网络简介我们首先介绍单向RNN网络的结构,如下图所...原创 2020-04-26 20:35:07 · 2323 阅读 · 3 评论 -
强化学习导论 | 第九章 on-policy的近似预测
本章的题目为"on-policy prediction with approximation",之前几章的内容也涉及到了on-policy prediction,这里的不同就在于“估计”。因为前面讲到的内容是根据策略采样轨迹,再基于轨迹得到的奖励,计算价值函数。但这里不再是采用这样的思路,而是估计价值函数,并且估计出来的价值函数不再是以表格的形式存在,而是得到一个参数化的函数形式。形式化表示为v^...原创 2020-04-25 17:55:42 · 600 阅读 · 1 评论 -
强化学习导论 | 第八章 规划和学习
前面几章已经讲了model-based (如:动态规划)和model-free (蒙特卡洛、时序差分)方法。这两种方法的区别在于计算价值函数的时候是否已知模型(这里指状态转移概率)。虽然这两种强化学习方法不同,但也有相同的地方,比如:两种方法的核心都在于计算价值函数,还都是根据未来的奖励来估算当前状态价值。既然有相同之处,这两种强化学习方法能否统一起来呢?这就是本章的内容,其中,model-ba...原创 2020-04-07 17:45:59 · 1710 阅读 · 0 评论 -
论文笔记 | Tree-structured Decoding for Solving Math Word Problems
这篇文章是由京都大学和北京大学合作发表在EMNLP 2019上的。主要是在seq2seq架构上做了改进,用树结构的decoder来生成抽象语法树(也可简单理解为表达式树)。并且利用栈结构辅助,能够清楚的知道下一次要生成的token是什么,还有什么时候可以停止解码。文章目录研究动机系统架构图Strong PointsWeak Points补充研究动机目前已有很多用seq2seq结构来做解题的工...原创 2020-03-30 12:42:30 · 1415 阅读 · 9 评论 -
强化学习导论 | 第七章 n步时序差分算法
前面讲到了MC(蒙特卡洛方法)和TD(0)算法。MC方式是根据采样到的经验轨迹实际得到的奖励来更新轨迹中出现的状态的价值,即在每个轨迹结束之后更新。TD(0)方法中某个状态的价值是根据从当前状态走一步的即时奖励和后续状态的估计价值相加得来的,即在执行一个动作之后就更新价值。那么,能否将MC和TD(0)结合呢?基于这个想法,就产生了n步时序差分算法。即在某个状态的价值等于在当前状态下走n步得到的奖...原创 2020-03-19 16:56:50 · 2364 阅读 · 1 评论 -
论文笔记 | Learning Fine-Grained Expressions to Solve Math Word Problems
这篇文章是腾讯人工智能实验室发表在EMNLP 2017上的文章,基于细粒度的模板解数学应用题。文章目录贡献点整体思路1. 模板归纳 sketch for template2. 训练过程3. 测试过程分析贡献点学习问题文本到模板片段的映射,充分利用模板的信息。为每个模板自动构建sketch。实现了一个两阶段的系统,包括模板检索和对齐排序。整体思路总结下来,该工作主要分为三个部分:...原创 2020-03-13 21:20:27 · 853 阅读 · 0 评论 -
强化学习导论 | 第六章 时序差分方法
前面讲到的动态规划方法和蒙特卡洛方法都可以用来计算价值函数。动态规划方法是model-based的,需要知道状态的转换概率,某个状态的价值是根据其后续的状态价值计算的;蒙特卡洛方法是model-free的,不需要知道状态的转换概率,某个状态的价值是根据从该状态开始到轨迹结束的折扣奖励来计算的。本章的时序差分方法是对动态规划方法和蒙特卡洛方法的结合,跟蒙特卡洛方法一样,也是根据经验来学习,而不需要知...原创 2020-03-12 15:55:24 · 579 阅读 · 0 评论 -
强化学习导论 | 第五章 蒙特卡洛方法
在第四章 动态规划中,已知模型(即状态转换概率)能够对策略进行评估和更新,最终得到最优的策略和最优价值函数。但是,很多情况下,状态转移概率p(s′,r∣s,a)p(s', r | s, a)p(s′,r∣s,a)并不知道,那要怎么求解最优策略呢?本章将的蒙特卡洛方法可以利用经验学习到价值函数和策略。经验是指agent和环境交互生成的(状态,动作,奖励)的轨迹序列。文章目录5.1 蒙特卡洛预测 ...原创 2020-03-05 11:07:12 · 816 阅读 · 0 评论 -
强化学习导论 | 第四章 动态规划
本章主要讲了动态规划是怎样求解价值函数(value function)的。1. 动态规划和强化学习动态规划问题的特点是:原创 2020-02-29 16:07:59 · 398 阅读 · 0 评论 -
论文笔记 | Modeling Intra-Relation in Math Word Problems with Different Functional Multi-Head Attentions
简介Jierui Li, Wang Lei 和 Dongxiang Zhang团队发表在ACL19上的工作。主要使用不同功能的Multi-Head Attention来获取不同类型对象的关系。受到multi-head attention工作的启发,作者设计了四种不同的attention机制:Global attention:以整个句子的表示作为query, key和value,以获取全局信...原创 2020-02-25 21:24:10 · 1159 阅读 · 0 评论 -
强化学习导论 | 第三章 有限马尔科夫决策过程
本章将讲解有限马尔科夫决策过程中的有关反馈、策略和价值函数的内容。这个问题也是评估性反馈(evaluative feedback),但和上一章中讲到的多臂赌博机不同,多臂赌博机仅包含一个状态。在包含多个状态的情况下,我们需要考虑在不同状态下选择不同的动作。文章目录3.1 agent和环境的交互3.2 马尔科夫性质3.1 agent和环境的交互agent是决策者,在每个时间步ttt与环境进行交...原创 2020-02-25 19:35:34 · 745 阅读 · 0 评论 -
强化学习导论 | 第二章 多臂赌博机
这本书第一部分的内容是表格解决方法(即用表格来存储价值函数,从而选择最优动作)。但这类方法仅适用于状态空间和动作空间不大的情况下。本章要讲的赌博机问题只存在一个状态。多臂赌博机问题简介假设在我们面前有kkk个赌博机(即kkk个动作),每当我们选择一个赌博机,并且摇动它的摇杆时,就会得到一个数值奖励。我们的目标是最大化一定时间内总的奖励。由于摇动一个赌博机的摇杆得到的奖励是不确定的,所以某个动...原创 2020-02-20 16:14:50 · 359 阅读 · 0 评论 -
mathdqn代码记录
mathdqn代码github地址对应于论文《MathDQN: Solving Arithmetric Word Problems via Deep Reinforcement Learning》代码主体data文件夹中保存了AI2数据集的相关信息,包括每个题目的解析结构数据、训练集和测试集划分的数据等等。model文件夹中保存了训练过程中的模型文件。predict文件夹中包含模型预...原创 2020-02-18 21:37:55 · 503 阅读 · 2 评论 -
强化学习导论 | 第一章 简介
概要主要从四个方面介绍:强化学习是什么?解决什么问题?用什么样的方式解决问题?强化学习的重要概念强化学习是什么?强化学习是一个序列决策问题。即处在当前状态应该做出什么样的动作。强化学习的思想就是在和环境的不断交互中,最大化奖励。以游戏为例,采取某个策略赢得游戏,则“强化”这个策略,即倾向于选择该策略,以取得好的结果。当然,这里也涉及强化学习中的探索(explpration)和利...原创 2020-02-17 21:10:20 · 418 阅读 · 0 评论 -
论文笔记 | MathDQN: Solving Arithmetric Word Problems via Deep Reinforcement Learning
简介Lei Wang 和 Dongxiang Zhang团队在AAAI18上发表的文章,使用了DQN来解决MWP(Math Word Problem)问题。Motivation在将问题表达成一个表达式树的时候,有一种方法是枚举所有的操作数,组成树的叶子节点。这种方法所需的搜索空间很大,虽然有一些剪枝的算法可以运用,但仍不能满足需求。在实践中,可以发现Deep Q-netwrok能够处理搜索...原创 2020-02-17 16:27:21 · 1090 阅读 · 5 评论 -
博士经验分享——Lucy A. Taylor
Lucy A. Taylor:牛津大学跨学科生物科学博士,最近博士毕业,根据自己的经历写了20条建议。我觉得非常真切,如下:1. 找到适合自己的节奏,保持健康的工作-生活平衡。读博期间始终维持这种平衡、保持平稳的工作状态可比过度工作然后崩溃好多了。好的身体是成功的关键。 2. 与导师讨论期望。每个人的工作方式不同。确保你了解自己的需求,并及时与导师沟通,这样你可以和导师一起更富有成...转载 2018-11-21 09:54:19 · 416 阅读 · 2 评论 -
论文阅读笔记 | 《Constraint-Based Question Answering with Knowledge Graph》
1. 主要内容在KBQA(基于知识库的问答)的基础上,由于其他问答系统都是回答简单问题,本文提出一种方法可以回答复杂问题(多个限制下的问题),并且提供一个数据集,名为ComplexQuestion,以此评测回答复杂问题的KBQA系统性能。2个被用作benchmark的数据集:WebQuestions,SimpleQuestions.多限制问题可以分为六种:多实体限制;答案类型限制;明确...原创 2018-12-20 20:27:09 · 2436 阅读 · 0 评论 -
baseline 和 benchmark 的区别
baseline 可以理解成比较中作为“参照物”的存在,强调比较,在比较中作为参照物,基线。benchmark:本身是一种标准、规则。原创 2018-12-14 19:52:40 · 4101 阅读 · 3 评论 -
Node2vec: Scalable Feature Learning for Networks(KDD16)
Node2vec: Scalable Feature Learning for Networks(KDD16)阅读笔记作者:斯坦福大学 Aditya Grover,Jure Leskovec研究内容研究问题:学习网络的特征表示,将节点映射到低维空间,并且最大程度的保留节点的邻居信息。现有方法的不足:不能获取和表示网络中连接模式的多样性diversity研究难点:研究方法:提出nod...原创 2019-03-29 14:09:36 · 700 阅读 · 0 评论 -
指数族分布和变分推断
指数族分布指数族分布的pdf / pmf可以表示成:p(x∣η)=h(x)exp(T(x)Tη−A(η))p(x| \eta)=h(x)exp(T(x)^T \eta - A(\eta))p(x∣η)=h(x)exp(T(x)Tη−A(η))其中,、T(x)、h(x)、T(x)、h(x)、T(x)、h(x)只是包含xxx的函数, A(η)A(\eta)A(η)是只包含η\etaη的函...原创 2019-04-18 20:22:59 · 659 阅读 · 1 评论 -
Word Embedding论文阅读笔记
Word Embedding论文阅读笔记1. Google 2017—Attention is All You Need主要内容提出Transformer架构,用于机器翻译任务中。可替代RNN和Encoder-Decoder结构。仅使用attention机制(Self Attention + Multi-Head Attention),没有任何递归和卷积。不仅在机器翻译任务中效果好,而且可...原创 2019-04-18 21:17:11 · 493 阅读 · 0 评论 -
查看GPU使用情况
在使用GPU的时候,不知道GPU和显存的使用情况,这时候可以输入以下命令查看:Ubuntu系统中输入:nvidia-smiWindows系统中:在C:\Program Files\NVIDIA Corporation\NVSMI里找到文件nvidia-smi.exe,把该文件拖到命令提示符窗口中即可。得到的GPU和显存状态图如下:这是服务器上特斯拉K80的信息。上面的表格...原创 2019-05-05 14:51:35 · 4979 阅读 · 0 评论 -
博士生涯
今晚7点开始了一场师长交流会,在这会上,我收获比较大,也想写下来,供自己以后看看。态度决定高度及时自省:学期初的计划实现了多少? 为什么中文稿件有很多错别字? 为什么英文论文几乎句句有语病? 本学期阅读了多少最新文献?(想要优秀,那就保持每周两篇A类) 同行们的最新进展是什么?(同行是指自己领域的稍微扩展) 在数学、统计学上的进展是什么?(比如:关注算法等方面,搬到自己的领域...原创 2018-09-11 21:09:13 · 382 阅读 · 0 评论