![](https://img-blog.csdnimg.cn/20201014180756754.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
李宏毅机器学习课程笔记
文章平均质量分 85
Baigker
这个作者很懒,什么都没留下…
展开
-
李宏毅机器学习(12)
Semi-supervised简介比如在图像识别中。监督学习:每个图像都有标签。半监督学习:部分数据没有标签,只有输入x;通常,无标签的数据量远大于有标签的。半监督学习可以分为两种情况:Transductive Learning:unlabeled data is the testing data。把testing data当做无标签的training data使用(这个是没有问题的,因为在比赛中,所有已有的数据都可以使用,当然包括测试数据的特征值);Inductive Learnin原创 2021-08-05 23:01:12 · 170 阅读 · 0 评论 -
李宏毅机器学习(17)
Seq2seqGeneration我们希望NN能生成structured object,比如:一句话。这个问题我们已经知道要用RNN来解决了。类似的,我们可以讲一副图片拆成一个个像素,用RNN生成。但更好的方法是,我们应该让就近的像素对生成的像素进行影响,而非按行来。可以进行 filter + 3维记忆空间 的方法。Conditional Generation但更多的时候,我们会给机器一个条件作为输入,从而获得相应的输出。比如:输入一副图片,机器输出一句话来描述这幅图像。那我们就可以用原创 2021-08-12 17:31:29 · 169 阅读 · 0 评论 -
李宏毅机器学习(30)
Q-LearingCritic相比于Policy,Critics的评价方法很不一样:他有一个状态评价函数VπV^πVπ,输入是Environment的一个状态State,然后根据Actor也就是πππ的情况,输出从当前这个状态开始到结束,一共能获得多少期望的Reward,记为Vπ(s)V^π(s)Vπ(s)。比如打砖块时,VπV^πVπ会输出从现在到结束大概能得多少分。比如下围棋,VπV^πVπ会输出现在的局势下双方胜率是多少。那么,如何做这个VπV^πVπ呢?一般有两种办法。第一种,蒙特卡原创 2021-08-21 21:46:32 · 206 阅读 · 0 评论 -
李宏毅机器学习(22)
More about Auto-encoder经过之前的学习,我们已经对Auto-encoder有基本的了解。这一课将进一步学习近年来的Auto-encoder的技术。What is good embedding?我们回归最开始的问题:我们希望embedding能干什么?答案很显然:我们希望embedding能代表原来的图片。比如:耳机代表三玖。换言之,如何知道 Encoder 的输出,能否很好地表征出输入的特性呢?因此,我们需要有一个 Discriminator ,用于判断图片与embed原创 2021-08-15 20:02:20 · 282 阅读 · 0 评论 -
李宏毅机器学习(28)
Deep Reinforcement Learning深度强化学习Reinforcement Learning就是强化学习,最著名的应用就是Alpha Go。有人认为AI=Deep Learning + Reinforcement Learning。那么强化学习具体是什么呢?我们以下面的例子讲解:有两个物体:机器Agent和环境Environment,Agent从Environment观察到的一切东西统称为状态State,Agent对Environment的改变称为行动Action,Environm原创 2021-08-20 15:57:34 · 117 阅读 · 0 评论 -
李宏毅机器学习(11)
RNN什么是RNN(Recurrent Neural Network)在之前的所提到的NN,比如CNN,都是没有记忆性的。但如果我们要求NN能处理上下文的信息,比如下面的航空检票系统:每次输入一条信息,我们想知道每个单词是属于哪一类(slot),即:构建一个NN,输出每个单词属于每个slot的概率。在第一条信息时,我们已经知道了Taipei是dest,因此在处理第二条信息我们要能使用这一信息。这就要求NN有存储功能。这就是RNN的核心。Elman Network实际的操作并不复杂:在一原创 2021-08-04 16:57:17 · 189 阅读 · 0 评论 -
李宏毅机器学习(13)
Word Embedding当我们要用一个vectorvectorvector表示一个word时,会发现1-of-N Encoding具有局限性,无法体现词义之间的联系;做word class也无法体现全面的信息。因此需要 word embedding。word embedding就是用向量表示词。但这是无监督学习(输入一个词,输出一个向量)。但不可用auto-encoder。其基本思路就是:通过上下文找到这个词的意义。目前,主要方法有Count based 与 Perdiction based,原创 2021-08-06 15:17:45 · 253 阅读 · 0 评论 -
李宏毅机器学习(24)
transfer learning在日常生活中,我们往往无法直接对某件事情进行学习,而是通过其他事情进行“类比”。这就是迁移学习,transfer learning,旨在利用一些不直接相关的数据对完成目标任务做出贡献。比方说猫狗识别:input domain是类似的,但task是无关的。比如输入都是动物的图像,但这些data是属于另一组有关大象和老虎识别的task。input domain是不同的,但task是一样的。比如task同样是做猫狗识别,但输入的是卡通类型的图像。因此,我们原创 2021-08-18 15:28:56 · 199 阅读 · 0 评论 -
李宏毅机器学习(10)
Tips for training DNN一个困境得到一个DNN的步骤:设定Function SetFunction\ SetFunction Set设定Loss FunctionLoss\ FunctionLoss Function找到最好的函数但容易出现一个问题:如果FunctionFunctionFunction在Training DataTraining\ DataTraining Data上表现不好,我们会重新调整Fu原创 2021-08-01 10:58:15 · 143 阅读 · 0 评论 -
李宏毅机器学习(27)
Life Long Learning对比人类从生到死都只用一个脑子学习,而机器每做一个任务就要换一个模型。那为什么机器不像人一样,也只用一个神经网络做所有事呢?这就是Life Long Learning(LLL)。我们希望机器学会了一个技能之后就永远记得这项技能。对此,我们需要解决三个问题:让机器永远记得学过的知识,也要能学会新的东西。举例而言:在图像识别中,先学任务1再学任务2会发现机器把任务1基本都忘了。但如果两个任务一起学,发现机器表现反而不错。这说明机器不是学不会,就是忘了!文原创 2021-08-19 20:43:56 · 132 阅读 · 0 评论 -
李宏毅机器学习(14)
Explainable ML为什么要Explainable ML有时候机器可能正确率很高,但实际上什么都没学到。这样以后必定是会犯错的。而当我们有了机器的解释后,不仅可以用于法律、金融,还可以根据解释改进机器学习。但这并不是必须的:人脑和ML都是黑盒子啊!所以,ML的目标是让客户、老板、开发者爽。Local Explanation: Explain the Decision将一个物体抽象成一个VectorVectorVector,想知道每个部分对决策的重要性。一种方法:将这个部分去掉,观察原创 2021-08-07 18:19:49 · 210 阅读 · 0 评论 -
李宏毅机器学习(25)
Meta Learning-MAML所谓Meta Learning,就是让机器学习如何学习,即:机器可以根据之前所学,更好更快地完成一项任务。不同于Machine Learning只能完成单一的任务,Meta Learning可以完成多种不同的任务机器之所以能够学习地更快并不是依赖于在旧任务中已获取的“知识”,而是机器学到了如何去更好获取知识的方法,并将这一方法应用于新任务当中,从而较快地提升学习效率。基本流程回顾Machine Learning的过程。Meta Learning其实也是一样的,就原创 2021-08-18 21:44:51 · 136 阅读 · 0 评论 -
李宏毅机器学习(26)
Meta Learning-Gradient Descent as LSTM观察我们之前学到MAML流程,发现这是一个类似RNN的过程。我们可以把参数看成RNN的Memory,而每次都会把一个训练数据放进NN中。复习RNN简短地复习一下RNN。RNN的优势就在于无论input再怎么长,参数量都不会增加。因此很适合处理input是一个sequence的情况。但我们一般用到的是RNN的变形LSTM。一般说RNN就是指LSTM。RNN和Gradient Descent我们将RNN和Gradient D原创 2021-08-19 20:49:10 · 79 阅读 · 0 评论 -
李宏毅机器学习(16)
Network Compression在很多运算量、存储量有限的情况下,比如:移动端app、低电量时的运算。NN不能太大。因此,我们在移植的过程中,可以舍弃一些精度,从而获得一个更小的模型。这就是模型压缩(Network Compression)。今天介绍了5种模型压缩的方法:Network PruningKnowledge DistillationParameter QuantizationArchitecture DesignDynamic ComputationNetwork原创 2021-08-12 11:37:40 · 160 阅读 · 0 评论 -
李宏毅机器学习(23)
Anomaly DetectionAnomaly Detection(异常检测)顾名思义,就是让机器检测出异常的数据。什么是异常?异常就是“与training data不类似的数据”。即:机器“不知道”的数据。举例而言,假设你的训练集里全是宝可梦,那么输入是宝可梦就是正常数据,输入其他的都是异常数据。(比如数码宝贝)问题定义给定一个训练集x1,x2,...xNx_1,x_2,...x_Nx1,x2,...xN我们要找到一个函数来检测输入xxx是否和训练集的数据属于同一类东西。应用原创 2021-08-16 15:39:24 · 126 阅读 · 0 评论 -
李宏毅机器学习(15)
Attack ML Models原创 2021-08-09 23:17:38 · 321 阅读 · 1 评论 -
李宏毅机器学习(20)
Unsupervised Learning: Neighbor EmbeddingPCA和Word Embedding介绍了线性降维的思想,而Neighbor Embedding要介绍的是非线性的降维。Manifold Learning有的时候,样本点的分布可能是在高维空间里的一个流行(Manifold),也就是说,样本点其实是分布在低维空间里面,只是被扭曲地塞到了一个高维空间里。地球的表面就是一个流行(Manifold),它是一个二维的平面,但是被塞到了一个三维空间里。而Manifold Lear原创 2021-08-14 14:48:22 · 84 阅读 · 0 评论 -
李宏毅机器学习(29)
Proximal Policy Optimization近端策略优化算法PPO(Proximal Policy Optimization)是PG(Policy Gradient)的进阶版。因此,在学习PPO之前,先复习一下PG的内容。Policy Gradient往期复习On-Policy和Off-Policy为什么要Off-Policy呢?如果我们可以让πθ′π_{θ'}πθ′去收集数据,让πθπ_{θ}πθ去做训练,那我们就可以把πθ′π_{θ'}πθ′收集到的数据使用很多次,极大地原创 2021-08-20 17:48:29 · 117 阅读 · 0 评论 -
李宏毅机器学习(19)
Unsupervised Learning - Linear Methods无监督学习可以分为两类:化繁为简(聚类 Clustering,降维 Dimension Reduction):输入各种各样的树,输出一个简化抽象的树无中生有(Generation):输出对应的代码,输出各种各样的树Clustering(聚类)就是把各个无标签的数据进行分类。手动打上cluster 1、cluster 2、cluster 3的标签,这个分类过程就是化繁为简的过程。那么,分成几类呢?有一种K-means原创 2021-08-13 23:16:09 · 171 阅读 · 0 评论 -
李宏毅机器学习(21)
Unsupervised Learning: Deep Auto-encoder简单回顾一下Encoder和Decoder:Encoder(编码器),它可以把原先的图像压缩成更低维度的向量Decoder(解码器),它可以把压缩后的向量还原成图像把两者连起来一起做学习,就是Auto-encoder。实际上PCA用到的思想与之非常类似,PCA的过程本质上就是按组件拆分,再按组件重构的过程。在PCA中,我们先把均一化后的xxx根据组件WWW分解到更低维度的ccc,然后再将组件权重ccc乘上组件的原创 2021-08-14 15:50:38 · 126 阅读 · 0 评论 -
李宏毅机器学习(9)
CNNWhy CNN for ImageFNN 处理图片的缺点需要很多的参数假设有一张尺寸100×100的图片(尺寸已经算很小了),那输入层就有100×100×3=30K个像素,假设第一个隐藏层有1K个神经元(一个神经元包含30K个参数),这就已经需要30M个参数了……该架构中每个神经元就是一个分类器,这是没必要的第一个隐藏层作为最基础的pattern分类器(比如判断有无绿色、边缘等),第二个隐藏层基于第一个隐藏层继续做pattern分类(比如木头、肉类),以此类推……图片的一些性质So原创 2021-07-24 21:40:46 · 166 阅读 · 0 评论 -
李宏毅机器学习(4)
Classification简介定义:输入一个xxx,输出xxx属于哪一种类xxx原创 2021-07-16 09:50:02 · 87 阅读 · 0 评论 -
李宏毅机器学习(5)
Logistic Regression步骤Step 1:Function Set:fw,b(x)=Pw,b(C1∣x)f_{w,b}(x)=P_{w,b}(C_1|x)fw,b(x)=Pw,b(C1∣x) including all different www and bbbfw,b(x)=σ(∑iwi⋅xi+b)f_{w,b}(x)=σ(\sum_{i}w_i·x_i+b)fw,b(x)=σ(∑iwi⋅xi+b)Output:0~1...原创 2021-07-20 15:45:23 · 92 阅读 · 0 评论 -
李宏毅机器学习(2)
Basic Concept1.Error 来源于bias(误差,期望歪了)variance(方差,原创 2021-07-12 22:41:37 · 101 阅读 · 0 评论 -
李宏毅机器学习(1)
这里写自定义目录标题欢迎使用Markdown编辑器新的改变功能快捷键合理的创建标题,有助于目录的生成如何改变文本的样式插入链接与图片如何插入一段漂亮的代码片生成一个适合你的列表创建一个表格设定内容居中、居左、居右SmartyPants创建一个自定义列表如何创建一个注脚注释也是必不可少的KaTeX数学公式新的甘特图功能,丰富你的文章UML 图表FLowchart流程图导出与导入导出导入欢迎使用Markdown编辑器你好! 这是你第一次使用 Markdown编辑器 所展示的欢迎页。如果你想学习如何使用Mar原创 2021-06-08 21:50:33 · 163 阅读 · 0 评论 -
李宏毅机器学习(8)
BackpropagationGradient DescentNetwork parameters θ={w1,w2,...,b1,b2,...}θ=\{w_1,w_2,...,b_1,b_2,...\}θ={w1,w2,...,b1,b2,...}尽管理论上可以直接计算,但Network里参数太多,实际运用中难以计算。解决方案:Backpropagation算法。前置技能:Chain Rule 链式法则L(θ)=∑n=1NCn(θ)→αL(θ)αw=∑n=1NαCn(θ)αwL(原创 2021-07-23 14:20:13 · 70 阅读 · 0 评论 -
李宏毅机器学习(7)
Brief introduction for Deep Learning深度学习3步骤设定神经网络(define a set of function)设定Loss函数(goodness of function)选出最好的函数(pick the best function)Network parameter θθθ:all the weights and biases in the neurons...原创 2021-07-22 14:38:32 · 131 阅读 · 0 评论 -
李宏毅机器学习(6)
Why Deep评比长什么样的神经网络更好?为了评判公平,model的参数要一样多。Fat+Short vs. Thin+Tall结果:Thin+Tall更好The modularization is automatically learned from dataModularization 在NPL很有用,例如:The first stage of speech recognitionClassification:input→\rightarrow→acousti原创 2021-07-20 22:50:56 · 123 阅读 · 1 评论 -
李宏毅机器学习(3)
Gradient DescentTip1:Tuning your learning rate(η)设θθθ为L(θ)L(θ)L(θ)的参数集,例:θ0=[θ0,1θ0,2]θ_0=\left[ \begin{matrix}θ_{0,1} \\θ_{0,2} \\\end{matrix} \right]θ0=[θ0,1θ0,2]则θn+1=θn−η[αL(θn,1)αθ1αL(θn,2)αθ2]=θn−η•∇L(θ)θ_{n+1}=θ_n-η\left[\begin{matrix}\frac原创 2021-07-14 16:16:07 · 97 阅读 · 0 评论