Machine Learning
文章平均质量分 59
小妖精Fsky
这个作者很懒,什么都没留下…
展开
-
傅里叶变换和拉普拉斯算子
最近在看傅里叶变换和拉普拉斯算子,看到的非常好非常好,容易理解又有形象概念的解释:傅里叶变换:如何给文科生解释傅里叶变换?https://www.jianshu.com/p/73f0ab14828a深入浅出的讲解傅里叶变换(真正的通俗易懂)https://zhuanlan.zhihu.com/p/19763358拉普拉斯算子:拉普拉斯变换中的S是个什么鬼https://mp.wei...原创 2019-07-18 09:18:22 · 6819 阅读 · 0 评论 -
机器学习十大算法
最近在复习机器学习的一些算法,发现一些博客关于算法表达清楚, 逻辑清晰,讲解透彻,真的怕以后再混沌不开忘记想复习的时候找不到,所以特意放于此地,以便下次方便查询。我是看一个算法记录一下,所以博文应该是慢慢补全 SVM: https://zhuanlan.zhihu.com/p/24638007...原创 2018-08-09 11:20:34 · 392 阅读 · 0 评论 -
极大似然估计与极大后验估计
这两个概念一直说混混沌沌,在看决策树的时候出现了极大似然估计,于是趁此机会也彻底分清楚两个概念, 我们从根源开始说起:参考文献: https://www.cnblogs.com/sylvanas2012/p/5058065.html...原创 2018-08-03 23:14:09 · 569 阅读 · 0 评论 -
大学的的NLP组
有已经总结好的清单了,但是我想把这些大学NLP的主页给出来,这样想follow的时候就特别方便.所以就特意做了这个: 一点点累计,一点点写吧. 加州大学-圣塔芭芭拉: http://nlp.cs.ucsb.edu/最全国内外自然语言处理(NLP)研究组清单: https://www.sohu.com/a/155362446_642762...原创 2018-07-12 17:57:40 · 1297 阅读 · 0 评论 -
CNN的变体
从一篇文章中看到的,说这些都是CNN的变体,其中有看过的,有没有看过的.所以都放在这里,找个事件都浏览下,看下具体的内容. piecewise-CNN distant supervision for relation extraction via piecewise convolutional neural networkds[EMNLP2015] relation classificat...原创 2018-07-05 22:30:46 · 2839 阅读 · 0 评论 -
decoding算法总结
依存树中的解码算法: 我想把每种算法的大概流程都记录下来,以及优缺点,暂时先放在这里 1. dynamic programming 2. maximum spanning tree 3. beam search算法原创 2018-07-10 14:51:35 · 1034 阅读 · 0 评论 -
dependency parsing的两种解决方案
Transition-based的依存解析方法 解析过程:首先设计一系列action, 其就是有方向带类型的边,接着从左向右依次解析句子中的每一个词,解析词的同时通过选择某一个action开始增量构建依存树, 直到句子中的词解析完. 优点:解析过程是线性的 挑战:在解析的每一步都只是利用局部信息,会导致错误传播,性能比graph-based效果略差 目前工作:Graph-bas...原创 2018-07-09 11:10:55 · 3865 阅读 · 1 评论 -
relation classification(or relation extraction)的总结
最近看了很多关于relation extraction的文章,看的时候觉得每一篇都很有新意,看完隔一段事件就全忘记了,觉得这样下去不是好兆头,所以决定隔一段时间就总结一下,关于这个任务目前都用到了什么技术,好的模型.此处占坑,请赐予我力量让我尽快更新,为了督促自己,没有完善的文章我都置顶,一点完善后就撤销置顶.给自己的机智点个赞,我还真是见缝插针地表扬自己哈...原创 2018-05-24 09:39:04 · 2254 阅读 · 0 评论 -
pytorch中bilstm-crf部分code解析
解析119行到132行 关于self.transition的理解原创 2017-11-20 10:18:39 · 7492 阅读 · 1 评论 -
提高论文写作质量和效率的小工具
把Excel表格转化成LaTeX代码 :ctan.org 识别手写符号并给出对应LaTeX代码:detexify.kirelabs.org 纠正语法,提供同义词建议:www.grammarly.com 查询词组固定搭配:linggle.com 作图(画图):www.draw.io...原创 2018-05-14 15:59:17 · 1696 阅读 · 0 评论 -
LSTM的各种变体
sequential LSTMs model sequences from left to rightstack LSTMs permit embedding of a stack of objects that are both added to (using a push operation) and removed from (using a pop operation). this a...原创 2018-05-11 11:29:58 · 4831 阅读 · 0 评论 -
NLP中的采样理解
采样的目的是评估一个函数在某个分布上的期望值 采样分为上采样和下采样 一般理解上采样: 上采样:重新采样的时候新采样率和原采样率的大小的比较,如果是大于原信号就就称为上采样 其实质也就是内插和差值NLP处理数据时采样定义: 下采样:对于一个样值序列间隔几个样值取样一次,这样得到新序列就是原序列的下采样。https://blog.csdn.net/weiweiliulu/a...原创 2018-05-03 11:37:30 · 2569 阅读 · 0 评论 -
[概念解释]基于符号特征的方法和基于表示学习的方法
在查找文章的时候看到别人的分类方式,我不是太明白这两个方法到底区别是什么,先放与此,明白后再解释 基于符号特征的方法:基于表示学习的方法:...原创 2018-03-09 11:51:50 · 1246 阅读 · 1 评论 -
关于CNN的小知识
CNN知识1: 什么是卷积?什么是池化: https://blog.csdn.net/myboyliu2007/article/details/51535679 CNN知识2: 宽卷积:句子长度为S,kernel的大小是K,则卷积后的长度是S+K-1, 其实是句子的前后各padding了(k-1)个零 窄卷积:句子没有进行pad, 卷积后的长度是S-K+1 CNN只是2: pyto...原创 2018-01-22 11:28:56 · 538 阅读 · 0 评论 -
神经网络中涉及到的一些问题
RNN梯度消失和爆炸的原因: https://zhuanlan.zhihu.com/p/28687529 LSTM如何解决梯度消失问题: https://zhuanlan.zhihu.com/p/28749444原创 2018-08-09 16:15:07 · 364 阅读 · 1 评论 -
[机器学习算法]决策树
我的短板呀,慢慢积累慢慢攒,结合已有的知识,琢磨琢磨并总结给出自己的理解 类型:有监督学习 决策树目标:根据 training data 学习出一棵合理的决策树,使它能够对实例进行正确的分类, 测试样本通过这棵决策树得到分类结果 学习的步骤: 1. 特征选择, 就是决定用哪个特征来划分特征空间 2. 决策树的生成 3. 决策树的修剪。节点的分裂,一般当一个节点所代表的属性无法...原创 2018-08-02 19:30:20 · 462 阅读 · 0 评论 -
关于熵的种种, 这个熵就是那个熵呗
这个概念一直闹不明白,今天我就彻彻底底想清楚,嘿嘿 经验熵 条件熵 今天有很多东西要更,加油原创 2018-08-02 19:35:01 · 438 阅读 · 0 评论 -
docker学习资料集锦
https://www.cnblogs.com/wangqiaomei/p/5818636.htmlhttps://blog.csdn.net/birdben/article/details/49873725原创 2019-05-14 15:36:57 · 332 阅读 · 0 评论 -
强化学习资料集锦
感觉要学习的东西好多呀,感觉时间不够用啊不够用强化学习系列:http://www.cnblogs.com/steven-yang/p/6481772.html时序差分学习(Temporal-Difference Learning)https://blog.csdn.net/qq_30159351/article/details/72896220...原创 2019-04-18 14:03:19 · 429 阅读 · 0 评论 -
VAE学习资料集锦
英文:http://kvfrans.com/variational-autoencoders-explained/中文:https://www.cnblogs.com/huangshiyu13/p/6209016.html原创 2019-04-17 16:40:57 · 610 阅读 · 0 评论 -
数学基础知识
真想把自己捆起来暴打一顿,以前干什么去了,不好好学数学,到现在方觉数学重要啊,我是觉得这些网址对我补习想要的数学知识有很大帮助,便于以后复习,特意总结放在此处多元高斯模型:https://www.cnblogs.com/bingjianing/p/9117330.html...原创 2019-04-17 13:47:18 · 611 阅读 · 0 评论 -
VAE资料
我仔细看的就是这个,这个里面没涉及到很多数学公式及推到,但是在概念方面介绍的很浅显易懂,会陆续总结出好的VAE资料放予此处。(一)从自编码器到变分自编码器 :http://www.atyun.com/17888.html(二)从自编码器到变分自编码器:http://www.atyun.com/17976.html...原创 2019-04-16 17:57:56 · 978 阅读 · 0 评论 -
LSTM的新理解unit
一直对RNN的梯度爆炸和梯度消失懵懵懂懂,还有关于LSTM如何解决了这些问题的理解不透彻痛定思痛,要把这些边边角角都理解明白。fighting!!!https://blog.csdn.net/jizhidexiaoming/article/details/80930287...原创 2019-03-08 14:42:34 · 2079 阅读 · 0 评论 -
深度学习中的网络集锦
highway networkpointer networkmaxout networkgraph network原创 2019-02-20 17:35:37 · 296 阅读 · 0 评论 -
机器学习中解决模型过拟合的方法
(1)目标函数中加入正则化(2)dropout(3)batch normalization(4)label smoothinghttps://baijiahao.baidu.com/s?id=1572001686264680&wfr=spider&for=pchttps://blog.csdn.net/qiu931110/article/details/86684241...原创 2019-02-19 16:57:51 · 695 阅读 · 0 评论 -
GAN在自然语言处理方面的资料集锦
GAN在NLP上的运用:https://blog.csdn.net/longshao0612/article/details/72781495记录一次与大神们的关于GAN应用于NLP的讨论:https://www.jianshu.com/p/32e164883eab原创 2019-01-17 10:37:15 · 1322 阅读 · 0 评论 -
policy gradient
最近看强化学习的文章,里面涉及到的一个概念就是 policy gradient, 在网上找到的资料,觉得写得非常棒,特意总结于此,以备时时查看。https://www.jianshu.com/p/e9d47bb2dab2?utm_source=oschina-app...原创 2018-12-26 10:38:13 · 912 阅读 · 0 评论 -
Machine Learning中的基本概念
[1] 概率问题与统计问题 概率是已知模型和参数,推数据。 统计是已知数据,推模型和参数 [2] 分类与回归 监督学习中,如果预测的变量是离散的,我们称其为分类(如决策树,支持向量机等),如果预测的变量是连续的,我们称其为回归。 [3] 一元线性回归和多元线性回归 回归分析中,如果只包括一个自变量和一个因变量,且二者的关系可用一条直线近似表示,这种回归分析称为一元线性回归分析。如...原创 2018-08-19 20:25:36 · 372 阅读 · 0 评论 -
自动文本摘要(automatic text summarization)目前的研究方法分类
自动文本摘要通常可分为两类,分别是抽取式(extractive)和生成式(abstractive)。 (1)抽取式摘要判断原文本中重要的句子,抽取这些句子成为一篇摘要。 (2)生成式方法则应用先进的自然语言处理的算法,通过转述、同义替换、句子缩写等技术,生成更凝练简洁的摘要。比起抽取式,生成式更接近人进行摘要的过程。历史上,抽取式的效果通常优于生成式。伴随深度神经网络的兴起和研究,基于神经网络...原创 2018-08-22 12:11:38 · 7380 阅读 · 1 评论 -
以例子给出CRF的理解
不太能看懂bilstm-crf的code,其实关键是没理解crf, 以例子来讲解crf过程非常容易理解,以下两个是我在网上浏览看到的非常的例子,以免忘记,时常浏览.example 1: 一,标记问题解决分词:就是将 词语开始和结束的字标记出来,就能对一个句子完成分词,假设使用两个标记B (开始),E(结束)对句子进行处理,如:“民主是普世价值”,民B主E是B普B世E价B值E, 这样标记明确,分词结原创 2017-10-10 11:13:57 · 7632 阅读 · 0 评论 -
machine learning的知识收集
机器学习笔记:https://zhuanlan.zhihu.com/danche PaperWeekly:https://zhuanlan.zhihu.com/paperweekly 深度学习与NLP:https://zhuanlan.zhihu.com/lqfarmerhttp://www.wildml.com/2015/11/understanding-convolutional-ne...原创 2018-02-05 16:35:57 · 497 阅读 · 0 评论 -
BatchNormalization在各神经网络中的应用
因为之前用CNN中用BatchNorm中用错了位置,所以特意记录以免再次犯错 1. BatchNorm在CNN中的应用(第(1)种正确) 我个人偏向第一种可能,因为在fully connection中batch normalization应用在了激活函数之前 (1)先卷积,再batchnorm, 然后激活函数,最后pooling https://github.com/PadamS原创 2018-01-25 21:07:42 · 6881 阅读 · 15 评论 -
Gibbs抽样方法详解
Gibbs抽样方法的作用:积分,期望或者联合分布很难计算,通常情况下当前面三个问题是NP问题时才需要Gibbs Sampling。不然的话,直接计算就可以了嘛,既准确又快速,干嘛还要Gibbs Sampling呢。补充一句Gibbs Sampling只是(也只能)到近似解。参考模型: http://www.cnblogs.com/peizhe1原创 2016-10-23 10:34:54 · 8426 阅读 · 0 评论 -
推荐几个机器学习算法及应用领域相关的中国大牛
李航:http://research.microsoft.com/en-us/people/hangli/,是MSRA Web Search and Mining Group高级研究员和主管,主要研究领域是信息检索,自然语言处理和统计学习。近年来,主要与人合作使用机器学习方法对信息检索中排序,相关性等问题的研究。曾在人大听过一场他的讲座,对实际应用的问题抽象,转化和解决能力值得学习。周志华:h转载 2016-07-10 20:49:08 · 1589 阅读 · 0 评论 -
牛人主页
Sebastian Riedel (生物事件抽取):http://is.cs.ucl.ac.uk/publications/原创 2014-05-15 10:19:05 · 1642 阅读 · 0 评论 -
batch-GD, SGD, Mini-batch-GD, Stochastic GD, Online-GD -- 大数据背景下的梯度训练算法
原地址:http://www.cnblogs.com/richqian/p/4549590.html机器学习中梯度下降(Gradient Descent, GD)算法只需要计算损失函数的一阶导数,计算代价小,非常适合训练数据非常大的应用。梯度下降法的物理意义很好理解,就是沿着当前点的梯度方向进行线搜索,找到下一个迭代点。但是,为什么有会派生出 batch、mini-batch、转载 2015-12-11 10:05:13 · 1389 阅读 · 0 评论 -
softmax 函数
http://ufldl.stanford.edu/wiki/index.php/Softmax_Regressionhttp://www.cnblogs.com/tornadomeet/archive/2013/03/22/2975978.htmlhttp://blog.csdn.net/kevinew/article/details/9407367http://blog.csd原创 2015-09-24 14:08:40 · 1092 阅读 · 0 评论 -
机器学习中的范数规则化之(一)L0、L1与L2范数
http://blog.csdn.net/zouxy09/article/details/24971995/转载 2015-09-24 10:09:51 · 590 阅读 · 0 评论 -
机器学习算法学习笔记
深度学习学习笔记:http://blog.csdn.net/zouxy09/article/details/8775360遗传算法入门:http://blog.csdn.net/zzwu/article/details/561577原创 2015-09-14 16:29:08 · 554 阅读 · 0 评论 -
为什么不读顶级会议论文?
看了版上很多贴子,发现很多版友都在问“热门研究方向”、“最新方法”等。有同学建议国内某教授的教材、或者CNKI、或者某些SCI期刊。每当看到这种问题,我都有点纳闷,为什么不去读顶级会议上的论文?我无意否认以上文献的价值,但是在机器学习、计算机视觉和人工智能领域,顶级会议才是王道。国内教材和CNKI上的基本是N年前老掉牙的东西。有人会质疑这些会议都只是EI。是的,这的确非常特殊:在许多其它领转载 2014-11-18 09:02:07 · 687 阅读 · 0 评论