- 博客(9)
- 资源 (6)
- 收藏
- 关注
原创 个人理解的在线推荐
个人理解的:为什么要做 因为离线的数据太大了,比如user_id * item_id 的量级太大,不可能都离线算好,等到某个 user 来的,直接查表,得到item_id的排序因为需要根据一些在线的特征来计算(当然也会有离线的特征),比如当前浏览的类目、当前时间段、等等之类的因为需要实时反映一些新的模式。以前的模型,可能是事先算好的,一周更新一次(在线用的,也是这个事先算好的模型,只是会有部
2016-07-26 11:11:02 458
转载 机器学习算法中如何选取超参数:学习速率、正则项系数、minibatch size
原文:http://blog.csdn.net/u012162613/article/details/44265967本文是《Neural networks and deep learning》概览 中第三章的一部分,讲机器学习算法中,如何选取初始的超参数的值。(本文会不断补充)学习速率(learning rate,η)运用梯度下降算法进行优化时,权重的
2016-07-26 10:58:09 1066
原创 Batch Normalization & Layer Normalization
Batch Normalization: 原文:Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift 详细说明:http://blog.csdn.net/hjimce/article/details/50866313 理解:http://blog.csdn.ne
2016-07-26 10:50:26 7742 2
转载 机器学习中的范数规则化之(一)L0、L1与L2范数
原文:http://blog.csdn.net/zouxy09/article/details/24971995主要思想:1. L0,是非0的个数,但是NP,所以一般选择L12. L1,稀疏,特征选择3. L2,防止过拟合====== 原文 ===========机器学习中的范数规则化之(一)L0、L1与L2范数zouxy09
2016-07-26 10:01:58 552
转载 batch-GD, SGD, Mini-batch-GD, Stochastic GD, Online-GD -- 大数据背景下的梯度训练算法
原文地址:http://www.cnblogs.com/richqian/p/4549590.html另外有一篇讲batch size的:https://www.zhihu.com/question/32673260主要思想:1. batch,全部样本的梯度都算了,累加一起,做变化。2. mini-batch,一部分一部分的样本,做变化。
2016-07-26 09:58:45 515
转载 bootstrap, boosting, bagging 几种方法的联系
转:http://blog.csdn.net/jlei_apple/article/details/8168856这两天在看关于boosting算法时,看到一篇不错的文章讲bootstrap, jackknife, bagging, boosting, random forest 都有介绍,以下是搜索得到的原文,没找到博客作者的地址,在这里致谢作者的研究。一并列出一些找到的介绍boosting算法的
2016-07-25 14:15:52 379
原创 知识图谱
周末讲座的内容,很泛的了解。 另外,transE 优化目标,头实体+关系=尾实体,低维语义表示,这想法赞。建模!或者参考这篇:http://www.tuicool.com/articles/jEzmUv一开始的是one hot,cout base distribute representation,再到后面的同一语义空间第一方面,三元组的形式 transE 优化目标,头实体+关系=尾
2016-07-11 00:35:31 2599
原创 CNN for NLP
强烈推荐:http://www.wildml.com/2015/11/understanding-convolutional-neural-networks-for-nlp论文:《Convolutional Neural Networks for Sentence Classification》Tensorflow 实现blog:http://www.wildml.com/2015/12/imple
2016-07-04 01:04:01 928
原创 Word2Vec Sent2Vec
好好研究了下Word2Vec和Sent2Vec的代码,推导了下公式,花费了不少的时间,不过清晰了很多。源代码参考:https://github.com/klb3713/sentence2vec理论上是分两部分,首先是进行Word2Vec的,获得词向量,以及权重等。然后再进行Sent2Vec的处理,基于已有的Word Vector以及网络权重。Word2Vec预测目标总体的目标是,词向量作为输入(
2016-07-04 00:03:29 7711 1
C++实现遗传算法GA(包含多种选择算子变异算子实现)
2011-11-10
基于JAVA、数据库架设旅游信息网站
2011-05-24
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人