自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(47)
  • 收藏
  • 关注

原创 【Lifelong learning】Continual Learning with Knowledge Transfer for Sentiment Classification

链接:http://arxiv.org/abs/2112.10021

2022-01-05 18:44:03 881

原创 【任务型对话系统】Database Search Results Disambiguation for Task-Oriented Dialog Systems

链接:https://arxiv.org/pdf/2112.08351.pdf简介在任务型对话系统(task-oriented dialog systems)中,有时我们会遇到这样一个问题:对于用户的一个提问或要求,我们可以从数据库中找到多个可能的答案,无法做出决断。比方说下图:无论是订宾馆、订酒店,还是买衣服,这种情况在生活中很常见。我们将这种情况称为数据库搜索结果歧义( database search result ambiguity),简称DSR-ambiguity。我们通常说的歧

2021-12-22 15:09:30 914

原创 【对话系统】Knowledge-Grounded Dialogue Generation with a Unified Knowledge Representation

链接:http://arxiv.org/abs/2010.08824v1简介本文提出了一种基于知识的对话系统PLUG。什么是基于知识的对话系统(Knowledge-grounded dialogue systems)呢?传统的对话系统大多是一个端到端系统,将历史对话和人类的问题作为输入,从而输出应答。但是,这种方法的一个弊端是:只考虑了历史对话,而没有考虑到话题本身,即:话题的知识。比方说,我们在谈论NBA比赛,那我们会在脑海里回忆有关NBA的各种信息。为了将话题本身的知识加入到对话系统中,基于

2021-12-18 11:44:30 1066

原创 【Vision-Language】VLMo: Unified Vision-Language Pre-Training with Mixture-of-Modality-Experts

链接:https://arxiv.org/pdf/2111.02358.pdf简介首先我们做一些背景介绍,什么是vision-language?众所周知,目前人工智能涉及一个领域叫:多模态学习。简单而言,这个领域研究的重点在于如何将两种不同的东西联系起来,一起学习知识。比如:不同媒介:图像和文字,视频和语音不同语言:汉语和英语因此 vision-language(VL)就是研究视觉与语言的联系,比如:给一张图片让计算机生成一段描述文字(图像描述生成,Image Caption);给一张图片让

2021-12-16 19:59:10 1922 1

原创 【Lifelong learning】Achieving Forgetting Prevention and Knowledge Transfer in Continual Learning

链接:https://link.zhihu.com/?target=https%3A//arxiv.org/abs/2112.02706简介本文专注于连续学习的两个方面:连续学习(或终身学习)主要面临问题有catastrophic forgetting (CF,学了后面忘了前面)和knowledge transfer (KT,学了前面要对后面任务有帮助)。大部分工作只关注于CF,却忽视了KT。本文专注于如何鼓励知识迁移,因为大量NLP任务之间有很多相似、共同之处。预训练模型(如BERT)通常不在连

2021-12-12 00:29:56 1384

原创 【Lifelong learning】Efficient Continual Learning with Modular Networks and Task-Driven Priors

链接:http://arxiv.org/abs/2012.12631v2简介这是发表在ICLR 2021上的终身学习paper。贡献:除了避免遗忘之外,优秀的终身学习模型还应该具备的一般特性。比如,模型应该如何能够从过去看到的相关任务中转移知识。当这些任务是相关的时,模型还应该能够根据任务的数量进行次线性扩展,无论是在记忆方面还是在计算方面。引入一个新的基准测试套件CTrL来测试上述属性,因为当前的基准测试只关注遗忘。为了简单起见,并作为更全面评价CL模型的第一步,在本工作中,我们将注意力限制在

2021-12-09 12:23:44 159

原创 【Lifelong learning】Compositional Language Continual Learning

链接:https://openreview.net/forum?id=rklnDgHtDS简介在2019年之前,大多数终身学习(持续学习,LLL)主要应用于分类任务,有固定的输入和输出规模。本文提出了一种新的LLL场景:处理语言学习中常见的seq2seq的任务。构建持续的语言学习模式,提高组合性理解能力,是本文研究的核心。更具体地说,我们通过LLL来解决开放和增长的词汇问题的挑战。它需要优化两个目标:将以前学到的知识转移,并与新的知识相结合。习得的模型应该抵抗catastrophic forg

2021-12-03 15:42:52 146

转载 【Lifelong learning】Continual Learning for Sentence Representations Using Conceptors

转载:学习ML的皮皮虾地址:https://zhuanlan.zhihu.com/p/148223989abstractNLP 中句子表示很重要。这篇文章,我们考虑一个用于句子表示的持续学习场景:给定语料序列,我们的目标是在维持旧语料准确率的同时针对新语料优化句子表示。为了解决这个问题,我们提出使用 corpus-independent features 初始化句子编码器,然后使用 Boolean operations of conceptor matrices sequentially 更新句子.

2021-12-02 18:43:28 193

原创 【Lifelong learning】Lifelong Language Knowledge Distillation

链接:http://arxiv.org/abs/2010.02123简介Lifelong Language Knowledge Distillation终身语言知识提炼,是一种利用知识蒸馏的终身学习方法。其主要思想是:每次遇到新任务时,不直接让model去学习,而是先在任务上训练一个teacher model,然后运用知识蒸馏技术,将知识传递给model。知识蒸馏:有两个模型: student model(小)和teacher model(大)。student model需要通过训练,模仿teac

2021-12-02 16:12:33 2334

原创 【Lifelong learning】LAMOL: LANGUAGE MODELING FOR LIFELONG LANGUAGE LEARNING

链接:http://arxiv.org/abs/1909.03329v2简介之前的终身学习模型大多应用于CV和游戏领域,在nlp方面的应用比较少,本文因此提出了一个语言专用的终身学习模型:LAMOL。LAMOL是一种语言模型,它可以同时学习解决任务和生成训练样本。当模型为一个新任务进行训练时,它生成训练前任务的伪样本,同时生成新任务的数据。因而LAMOL不需要额外的存储空间。结果表明,LAMOL可以在没有任何不妥协迹象的情况下防止 catastrophic forgetting,并且可以用一个模型连

2021-12-01 14:59:27 604

原创 【Lifelong learning】Efficient Meta Lifelong-Learning with Limited Memory

链接:http://arxiv.org/abs/2010.02500实现终身学习的一个成功方法是通过情景记忆模块来增强学习模式(Sprechmann等人,2018年)。其基本思想是首先将之前看到的训练示例存储在记忆中,然后使用它们执行经验重放(Rolnick et al., 2019)或导出优化约束(Lopez-Paz和Ranzato, 2017;Chaudhry等人,2019),同时培训新任务。最近,d 'Autume等人(2019)提出使用这种记忆模块在语言领域进行稀疏经验回放和局部适应,在文本分类和

2021-11-30 19:45:27 826

原创 李宏毅机器学习(30)

Q-LearingCritic相比于Policy,Critics的评价方法很不一样:他有一个状态评价函数VπV^πVπ,输入是Environment的一个状态State,然后根据Actor也就是πππ的情况,输出从当前这个状态开始到结束,一共能获得多少期望的Reward,记为Vπ(s)V^π(s)Vπ(s)。比如打砖块时,VπV^πVπ会输出从现在到结束大概能得多少分。比如下围棋,VπV^πVπ会输出现在的局势下双方胜率是多少。那么,如何做这个VπV^πVπ呢?一般有两种办法。第一种,蒙特卡

2021-08-21 21:46:32 197

原创 李宏毅机器学习(29)

Proximal Policy Optimization近端策略优化算法PPO(Proximal Policy Optimization)是PG(Policy Gradient)的进阶版。因此,在学习PPO之前,先复习一下PG的内容。Policy Gradient往期复习On-Policy和Off-Policy为什么要Off-Policy呢?如果我们可以让πθ′π_{θ'}πθ′​去收集数据,让πθπ_{θ}πθ​去做训练,那我们就可以把πθ′π_{θ'}πθ′​收集到的数据使用很多次,极大地

2021-08-20 17:48:29 110

原创 李宏毅机器学习(28)

Deep Reinforcement Learning深度强化学习Reinforcement Learning就是强化学习,最著名的应用就是Alpha Go。有人认为AI=Deep Learning + Reinforcement Learning。那么强化学习具体是什么呢?我们以下面的例子讲解:有两个物体:机器Agent和环境Environment,Agent从Environment观察到的一切东西统称为状态State,Agent对Environment的改变称为行动Action,Environm

2021-08-20 15:57:34 109

原创 李宏毅机器学习(26)

Meta Learning-Gradient Descent as LSTM观察我们之前学到MAML流程,发现这是一个类似RNN的过程。我们可以把参数看成RNN的Memory,而每次都会把一个训练数据放进NN中。复习RNN简短地复习一下RNN。RNN的优势就在于无论input再怎么长,参数量都不会增加。因此很适合处理input是一个sequence的情况。但我们一般用到的是RNN的变形LSTM。一般说RNN就是指LSTM。RNN和Gradient Descent我们将RNN和Gradient D

2021-08-19 20:49:10 75

原创 李宏毅机器学习(27)

Life Long Learning对比人类从生到死都只用一个脑子学习,而机器每做一个任务就要换一个模型。那为什么机器不像人一样,也只用一个神经网络做所有事呢?这就是Life Long Learning(LLL)。我们希望机器学会了一个技能之后就永远记得这项技能。对此,我们需要解决三个问题:让机器永远记得学过的知识,也要能学会新的东西。举例而言:在图像识别中,先学任务1再学任务2会发现机器把任务1基本都忘了。但如果两个任务一起学,发现机器表现反而不错。这说明机器不是学不会,就是忘了!文

2021-08-19 20:43:56 126

原创 李宏毅机器学习(25)

Meta Learning-MAML所谓Meta Learning,就是让机器学习如何学习,即:机器可以根据之前所学,更好更快地完成一项任务。不同于Machine Learning只能完成单一的任务,Meta Learning可以完成多种不同的任务机器之所以能够学习地更快并不是依赖于在旧任务中已获取的“知识”,而是机器学到了如何去更好获取知识的方法,并将这一方法应用于新任务当中,从而较快地提升学习效率。基本流程回顾Machine Learning的过程。Meta Learning其实也是一样的,就

2021-08-18 21:44:51 128

原创 李宏毅机器学习(24)

transfer learning在日常生活中,我们往往无法直接对某件事情进行学习,而是通过其他事情进行“类比”。这就是迁移学习,transfer learning,旨在利用一些不直接相关的数据对完成目标任务做出贡献。比方说猫狗识别:input domain是类似的,但task是无关的。比如输入都是动物的图像,但这些data是属于另一组有关大象和老虎识别的task。input domain是不同的,但task是一样的。比如task同样是做猫狗识别,但输入的是卡通类型的图像。因此,我们

2021-08-18 15:28:56 191

原创 李宏毅机器学习(23)

Anomaly DetectionAnomaly Detection(异常检测)顾名思义,就是让机器检测出异常的数据。什么是异常?异常就是“与training data不类似的数据”。即:机器“不知道”的数据。举例而言,假设你的训练集里全是宝可梦,那么输入是宝可梦就是正常数据,输入其他的都是异常数据。(比如数码宝贝)问题定义给定一个训练集x1,x2,...xNx_1,x_2,...x_Nx1​,x2​,...xN​我们要找到一个函数来检测输入xxx是否和训练集的数据属于同一类东西。应用

2021-08-16 15:39:24 113

原创 李宏毅机器学习(22)

More about Auto-encoder经过之前的学习,我们已经对Auto-encoder有基本的了解。这一课将进一步学习近年来的Auto-encoder的技术。What is good embedding?我们回归最开始的问题:我们希望embedding能干什么?答案很显然:我们希望embedding能代表原来的图片。比如:耳机代表三玖。换言之,如何知道 Encoder 的输出,能否很好地表征出输入的特性呢?因此,我们需要有一个 Discriminator ,用于判断图片与embed

2021-08-15 20:02:20 272

原创 李宏毅机器学习(21)

Unsupervised Learning: Deep Auto-encoder简单回顾一下Encoder和Decoder:Encoder(编码器),它可以把原先的图像压缩成更低维度的向量Decoder(解码器),它可以把压缩后的向量还原成图像把两者连起来一起做学习,就是Auto-encoder。实际上PCA用到的思想与之非常类似,PCA的过程本质上就是按组件拆分,再按组件重构的过程。在PCA中,我们先把均一化后的xxx根据组件WWW分解到更低维度的ccc,然后再将组件权重ccc乘上组件的

2021-08-14 15:50:38 120

原创 李宏毅机器学习(20)

Unsupervised Learning: Neighbor EmbeddingPCA和Word Embedding介绍了线性降维的思想,而Neighbor Embedding要介绍的是非线性的降维。Manifold Learning有的时候,样本点的分布可能是在高维空间里的一个流行(Manifold),也就是说,样本点其实是分布在低维空间里面,只是被扭曲地塞到了一个高维空间里。地球的表面就是一个流行(Manifold),它是一个二维的平面,但是被塞到了一个三维空间里。而Manifold Lear

2021-08-14 14:48:22 77

原创 李宏毅机器学习(19)

Unsupervised Learning - Linear Methods无监督学习可以分为两类:化繁为简(聚类 Clustering,降维 Dimension Reduction):输入各种各样的树,输出一个简化抽象的树无中生有(Generation):输出对应的代码,输出各种各样的树Clustering(聚类)就是把各个无标签的数据进行分类。手动打上cluster 1、cluster 2、cluster 3的标签,这个分类过程就是化繁为简的过程。那么,分成几类呢?有一种K-means

2021-08-13 23:16:09 160

原创 李宏毅机器学习(17)

Seq2seqGeneration我们希望NN能生成structured object,比如:一句话。这个问题我们已经知道要用RNN来解决了。类似的,我们可以讲一副图片拆成一个个像素,用RNN生成。但更好的方法是,我们应该让就近的像素对生成的像素进行影响,而非按行来。可以进行 filter + 3维记忆空间 的方法。Conditional Generation但更多的时候,我们会给机器一个条件作为输入,从而获得相应的输出。比如:输入一副图片,机器输出一句话来描述这幅图像。那我们就可以用

2021-08-12 17:31:29 162

原创 李宏毅机器学习(16)

Network Compression在很多运算量、存储量有限的情况下,比如:移动端app、低电量时的运算。NN不能太大。因此,我们在移植的过程中,可以舍弃一些精度,从而获得一个更小的模型。这就是模型压缩(Network Compression)。今天介绍了5种模型压缩的方法:Network PruningKnowledge DistillationParameter QuantizationArchitecture DesignDynamic ComputationNetwork

2021-08-12 11:37:40 151

原创 李宏毅机器学习(15)

Attack ML Models

2021-08-09 23:17:38 312 1

原创 李宏毅机器学习(14)

Explainable ML为什么要Explainable ML有时候机器可能正确率很高,但实际上什么都没学到。这样以后必定是会犯错的。而当我们有了机器的解释后,不仅可以用于法律、金融,还可以根据解释改进机器学习。但这并不是必须的:人脑和ML都是黑盒子啊!所以,ML的目标是让客户、老板、开发者爽。Local Explanation: Explain the Decision将一个物体抽象成一个VectorVectorVector,想知道每个部分对决策的重要性。一种方法:将这个部分去掉,观察

2021-08-07 18:19:49 204

原创 李宏毅机器学习(13)

Word Embedding当我们要用一个vectorvectorvector表示一个word时,会发现1-of-N Encoding具有局限性,无法体现词义之间的联系;做word class也无法体现全面的信息。因此需要 word embedding。word embedding就是用向量表示词。但这是无监督学习(输入一个词,输出一个向量)。但不可用auto-encoder。其基本思路就是:通过上下文找到这个词的意义。目前,主要方法有Count based 与 Perdiction based,

2021-08-06 15:17:45 249

原创 李宏毅机器学习(12)

Semi-supervised简介比如在图像识别中。监督学习:每个图像都有标签。半监督学习:部分数据没有标签,只有输入x;通常,无标签的数据量远大于有标签的。半监督学习可以分为两种情况:Transductive Learning:unlabeled data is the testing data。把testing data当做无标签的training data使用(这个是没有问题的,因为在比赛中,所有已有的数据都可以使用,当然包括测试数据的特征值);Inductive Learnin

2021-08-05 23:01:12 167

原创 李宏毅机器学习(11)

RNN什么是RNN(Recurrent Neural Network)在之前的所提到的NN,比如CNN,都是没有记忆性的。但如果我们要求NN能处理上下文的信息,比如下面的航空检票系统:每次输入一条信息,我们想知道每个单词是属于哪一类(slot),即:构建一个NN,输出每个单词属于每个slot的概率。在第一条信息时,我们已经知道了Taipei是dest,因此在处理第二条信息我们要能使用这一信息。这就要求NN有存储功能。这就是RNN的核心。Elman Network实际的操作并不复杂:在一

2021-08-04 16:57:17 180

原创 李宏毅机器学习(10)

Tips for training DNN一个困境得到一个DNN的步骤:设定Function SetFunction\ SetFunction Set设定Loss FunctionLoss\ FunctionLoss Function找到最好的函数但容易出现一个问题:如果FunctionFunctionFunction在Training DataTraining\ DataTraining Data上表现不好,我们会重新调整Fu

2021-08-01 10:58:15 133

原创 李宏毅机器学习(9)

CNNWhy CNN for ImageFNN 处理图片的缺点需要很多的参数假设有一张尺寸100×100的图片(尺寸已经算很小了),那输入层就有100×100×3=30K个像素,假设第一个隐藏层有1K个神经元(一个神经元包含30K个参数),这就已经需要30M个参数了……该架构中每个神经元就是一个分类器,这是没必要的第一个隐藏层作为最基础的pattern分类器(比如判断有无绿色、边缘等),第二个隐藏层基于第一个隐藏层继续做pattern分类(比如木头、肉类),以此类推……图片的一些性质So

2021-07-24 21:40:46 148

原创 李宏毅机器学习(8)

BackpropagationGradient DescentNetwork parameters θ={w1,w2,...,b1,b2,...}θ=\{w_1,w_2,...,b_1,b_2,...\}θ={w1​,w2​,...,b1​,b2​,...}尽管理论上可以直接计算,但Network里参数太多,实际运用中难以计算。解决方案:Backpropagation算法。前置技能:Chain Rule 链式法则L(θ)=∑n=1NCn(θ)→αL(θ)αw=∑n=1NαCn(θ)αwL(

2021-07-23 14:20:13 63

原创 李宏毅机器学习(7)

Brief introduction for Deep Learning深度学习3步骤设定神经网络(define a set of function)设定Loss函数(goodness of function)选出最好的函数(pick the best function)Network parameter θθθ:all the weights and biases in the neurons...

2021-07-22 14:38:32 123

原创 李宏毅机器学习(6)

Why Deep评比长什么样的神经网络更好?为了评判公平,model的参数要一样多。Fat+Short vs. Thin+Tall结果:Thin+Tall更好The modularization is automatically learned from dataModularization 在NPL很有用,例如:The first stage of speech recognitionClassification:input→\rightarrow→acousti

2021-07-20 22:50:56 113 1

原创 李宏毅机器学习(5)

Logistic Regression步骤Step 1:Function Set:fw,b(x)=Pw,b(C1∣x)f_{w,b}(x)=P_{w,b}(C_1|x)fw,b​(x)=Pw,b​(C1​∣x) including all different www and bbbfw,b(x)=σ(∑iwi⋅xi+b)f_{w,b}(x)=σ(\sum_{i}w_i·x_i+b)fw,b​(x)=σ(∑i​wi​⋅xi​+b)Output:0~1...

2021-07-20 15:45:23 83

原创 李宏毅机器学习(4)

Classification简介定义:输入一个xxx,输出xxx属于哪一种类xxx

2021-07-16 09:50:02 81

原创 李宏毅机器学习(3)

Gradient DescentTip1:Tuning your learning rate(η)设θθθ为L(θ)L(θ)L(θ)的参数集,例:θ0=[θ0,1θ0,2]θ_0=\left[ \begin{matrix}θ_{0,1} \\θ_{0,2} \\\end{matrix} \right]θ0​=[θ0,1​θ0,2​​]则θn+1=θn−η[αL(θn,1)αθ1αL(θn,2)αθ2]=θn−η•∇L(θ)θ_{n+1}=θ_n-η\left[\begin{matrix}\frac

2021-07-14 16:16:07 89

原创 李宏毅机器学习(2)

Basic Concept1.Error 来源于bias(误差,期望歪了)variance(方差,

2021-07-12 22:41:37 96

原创 软件构造——关于设计模式

1.设计模式在软件构造的学习中,我们学习了几种设计模式,这里做出一个汇总和分类。创建型模式结构型模式行为类模式2.创建型模式(1).工厂方法模式当client不知道要创建哪个具体类的实例,或者不想在client代码中指明要具体创建的实例时,用工厂方法。定义一个用于创建对象的接口,让其子类来决定实例化哪一个类,从而使一个类的实例化延迟到其子类。3.结构型模式(1).适配器模式将某个类/接口转换为client期望的其他形式。通过增加一个接口,将已存在的子类封装起来,client面向

2021-07-04 10:28:15 239

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除