机器学习
文章平均质量分 62
jiangzhenkang
这个作者很懒,什么都没留下…
展开
-
机器学习-集成学习
集成学习简介 集成学习是一种将许多弱分类器集合起来变成强分类器的一种方法,弱分类器可能分类效果很差,但是许多弱分类器集合起来后就会有很好的学习效果。 对弱学习器来说要做到“好而不同”也就是说有一定的分类能力,并且分类器之间也要有差异(多样性)原创 2017-04-23 21:47:46 · 171 阅读 · 0 评论 -
HMM的维特比算法的一个实际例子
HMM的维特比算法的一个实际例子标签(空格分隔): 自然语言处理用一个分词的HMM的例子做个解释任务:将“我来到苏州”分词理想结果【“我”,“来到”,“苏州”】定义参数要定义的参数主要有:状态参数、结果参数、初始化参数、转移概率、发射概率状态参数:这里就是每个字符的状态,我们采用简单的“BES“标记,如果一个字符作为一个词的开头则为B,如例子中的”来“,”苏“;如果一个字符...原创 2018-11-26 20:32:16 · 2805 阅读 · 1 评论 -
FastText
FastText标签(空格分隔): 自然语言处理FastTextFastText 论文链接https://pan.baidu.com/s/1032UerrzaZbJGjb3-PavoA综述FastText不是一种特殊的机构,而是一种思想,就是为了更快的求得结果。用于文本分类的FastText(pytorch)class FastText(BasicModule): ...原创 2018-11-22 16:37:54 · 464 阅读 · 0 评论 -
LSTM
LSTM标签(空格分隔): 自然语言处理说说lstm(转https://www.cnblogs.com/wangduo/p/6773601.html?utm_source=itdadao&utm_medium=referral)该文作者信息作者:wangduo出处:http://www.cnblogs.com/wangduo/本博客中未标明转载的文章归作者wangduo和博客...转载 2018-11-22 16:16:13 · 8540 阅读 · 0 评论 -
为什么文本顺序打乱HashingTF不会改变
为什么文本顺序打乱HashingTF不会改变本质上HashingTF也是先统计出每个词的词频,然后进行Hash,所以不会改变 https://my.oschina.net/xiaoluobutou/blog/670367原创 2018-03-06 16:32:34 · 1074 阅读 · 0 评论 -
L1,L2正则化
https://www.jianshu.com/p/a47c46153326转载 2018-03-08 14:04:14 · 136 阅读 · 0 评论 -
集成学习
集成学习总结 2017-06-03 写在前面看了不少集成学习的资料,很多算法都有相似之处,看了之后没有进行比较和整理,太容易忘记了,所以这篇来做个笔记。集成学习,(就我目前所学习到的)主要可以分为三大类,Boosting, Bagg...转载 2018-03-08 11:47:04 · 1041 阅读 · 1 评论 -
从K近邻算法、距离度量谈到KD树、SIFT+BBF算法
从K近邻算法、距离度量谈到KD树、SIFT+BBF算法前言 前两日,在微博上说:“到今天为止,我至少亏欠了3篇文章待写:1、KD树;2、神经网络;3、编程艺术第28章。你看到,blog内的文章...转载 2018-03-08 10:18:26 · 567 阅读 · 0 评论 -
# Strong Baselines for Simple Question Answering over Knowledge Graphs with and without Neural Netwo
# Strong Baselines for Simple Question Answering over Knowledge Graphs with and without Neural Networks标签(空格分隔): 自然语言处理简介在简单的神经网络上就能达到较好的效果即使不用神经网络,也能达到较好的效果相关工作一开始的时候人们会把简单问句简化成一个结构化的问句最近的...原创 2018-12-18 14:02:07 · 675 阅读 · 0 评论