机器学习
文章平均质量分 93
xyj77
这个作者很懒,什么都没留下…
展开
-
MIT DeepLearning学习总结
Deep Learning是一本MIT由Ian Goodfellow,Yoshua Bengio and Aaron Courville编写的深度学习教程(附下载链接),这本书被组织为三个部分,第一部分介绍基本的数学工具和机器学习的概念。第二部分介绍本质上已解决的技术、最成熟的深度学习算法。第三部分介绍被广泛认为是深度学习未来研究重点的的但更具猜测性的想法。原创 2017-02-13 13:53:52 · 2072 阅读 · 0 评论 -
梯度提升树(Gradient Boosting Decison Tree, GBDT)
转自:https://www.cnblogs.com/pinard/p/6140514.htmlGBDT基本思路 GBDT也是集成学习Boosting家族的成员。回顾下Adaboost,是利用前一轮迭代弱学习器的误差率来更新训练集的权重。GBDT也是迭代,但是弱学习器限定了只能使用CART回归树模型,同时迭代思路和Adaboost也有所不同。 在GBDT的迭代中,假设我们前一轮迭代...转载 2018-08-07 14:35:24 · 1232 阅读 · 0 评论 -
局部敏感哈希Locality Sensitive Hashing, LSH()
LSH最根本的目的是能高效处理海量高维数据的最近邻问题。在信息检索,数据挖掘以及推荐系统等应用中,我们经常会遇到的一个问题就是海量的高维数据查找最近邻。不同于我们在数据结构教材中对哈希算法的认识,哈希最开始是为了减少冲突方便快速增删改查,在这里LSH恰恰相反,它利用的正是哈希冲突加速检索,并且效果极其明显。 LSH(局部敏感哈希)函数使得2个相似度很高的数据以较高的概率映射成同一个hash值,而...原创 2018-07-29 21:57:40 · 747 阅读 · 0 评论 -
Bagging和Boosting的区别
集成学习目前接触较多的集成学习主要有2种:基于Bagging和基于Boosting,前者的代表算法主要是随机森林,后者的代表算法有Adaboost、GBDT、xgboost。集成学习的主要思想是将多个分类器进行组合,得到一个强分类器。弱分类器需要满足的条件是误差率小于0.5即稍好于猜。常用的有逻辑回归、SVM、神经网络。BaggingBagging直译为“增强聚合”。它的方式是训练...原创 2018-07-28 18:21:38 · 2824 阅读 · 0 评论 -
学习笔记——支持向量机(SVM)
支持向量机笔记: 2017.1.6原创 2018-07-23 21:26:48 · 199 阅读 · 0 评论 -
PyTorch使用中的常见问题
安装[Linux][1] [Windows][2]Pytorch 0.4.1的重大改变[PyTorch 0.40 迁移指南][3]常见错误[1] https://blog.csdn.net/yucicheung/article/details/79094657 [2] https://blog.csdn.net/Zhangwellyear/article/detai...原创 2018-09-18 21:52:31 · 1117 阅读 · 0 评论 -
Dynamic Routing Between Capsules学习资料总结
Dynamic Routing Between Capsules(NIPS2017)Dynamic Routing Between Capsules这篇文章已被NIPS 2017接收。2017年10月28日被提交到了预印版论文平台上。Abstract:A capsule is a group of neurons whose activity vector represents thein原创 2017-12-02 21:42:17 · 12216 阅读 · 2 评论