机器学习
文章平均质量分 85
smallflyingpig
私信基本不看,需要联系请邮件:[email protected]
展开
-
深入理解拉格朗日乘子法(Lagrange Multiplier) 和KKT条件
在求取有约束条件的优化问题时,拉格朗日乘子法(Lagrange Multiplier) 和KKT条件是非常重要的两个求取方法,对于等式约束的优化问题,可以应用拉格朗日乘子法去求取最优值;如果含有不等式约束,可以应用KKT条件去求取。当然,这两个方法求得的结果只是必要条件,只有当是凸函数的情况下,才能保证是充分必要条件。KKT条件是拉格朗日乘子法的泛化。之前学习的时候,只知道直接应用两个方法,但是却不知道为什么拉格朗日乘子法(Lagrange Multiplier) 和KKT条件能够起作用,为什么要这样去求取转载 2017-03-03 11:17:40 · 511 阅读 · 0 评论 -
基于RNN的语言模型与机器翻译NMT
语言模型传统的语言模型基于RNN的语言模型机器翻译基于统计的机器翻译架构基于RNN的seq2seq架构seq2seq结构优化seq2seqattentionsearch in decoderTensorflow实例以RNN为代表的语言模型在机器翻译领域已经达到了State of Art的效果,本文将简要介绍语言模型、机器翻译,基于RNN的seq2seq架构及优化方法。转载 2017-06-25 21:42:02 · 6000 阅读 · 6 评论 -
为什么极大似然估计得到的方差是有偏估计
问题来源在学习模式分类过程中,我们会用到极大似然估计,最常见的是用它来估计期望和方差,而概率论中有这个结论,就是极大似然估计得到的方差是有偏的,那么为什么呢?这里我们用数学的方法对其证明原创 2016-10-29 13:36:08 · 26202 阅读 · 5 评论 -
caffe on windows 安装
最近准备入坑caffe,操作系统是windows,记录下安过程,基本上就是按照github上的的安装步骤来的。下载代码caffe: a fast open framework for deep learning 依赖项安装python路径运动demo原创 2017-12-01 22:51:59 · 987 阅读 · 0 评论 -
RNN与LSTM
推荐资料wiki:Long short-term memoryRNN原创 2017-12-18 18:23:20 · 943 阅读 · 0 评论 -
Linux 16.04+Caffe+TensorFlow+CUDA9
转载自:http://blog.csdn.net/shiorioxy/article/details/78850199 原作者:宇宙骑士欧老师(http://blog.csdn.net/shiorioxy) 特别说明: 0. Caffe 官网地址:http://caffe.berkeleyvision.org/ TensorFl转载 2018-01-05 09:35:37 · 509 阅读 · 0 评论 -
卷积(conv)与转置卷积(transposed conv, deconv)
转置卷积/解卷积/transposed conv/deconvreference: http://deeplearning.net/software/theano/tutorial/conv_arithmetic.html 1. 从一维卷积开始 * kernel=3, stride=1, padding=0 conv(x)=(x1,x2,x3,x4,x5)T⎡⎣⎢⎢⎢⎢⎢k1k2k300...原创 2018-08-14 13:41:25 · 659 阅读 · 0 评论