- 博客(7)
- 资源 (6)
- 收藏
- 关注
转载 IR的评价指标-MAP,NDCG和MRR
Map:相关性,1 or 0,计算排序后rank值 NDCG: 设定相关性等级(2^5-1, 2^4-1…) 计算累计增益值(嗯,就累加起来) 计算折算因子log(2)/log(1+rank) (越靠前的,越容易被点击) 归一化到NDCG,为了不同等级上的搜索结果的得分值容易比较 4.1. 首先计算理想list的MaxDCG 4.2 相除即可 MRR:”把标准答案在被评价系统给出结果中的排
2015-07-27 06:35:11 13941
原创 item-based algorithm
6.2 章节 http://openresearch.baidu.com/u/cms/www/201210/30144944cqmu.pdf;jsessionid=27FE07729A54FE415012B97849E2D1C1其实,最主要的只是这样一张图: 101,102是每个item的id 最左边的大矩阵(记为A),用户的共现矩阵(co-occurrence matrix)。以购买为例子,购买
2015-07-27 06:12:39 642
转载 Model ensembling
说明: http://mlwave.com/kaggle-ensembling-guide/ 代码: https://github.com/emanuele/kaggle_pbr/blob/master/blend.pyVoting ensembles 采用投票的方式,听大多数人的意见 各个模型的相关性不要太大,尽可能多样性。比如一个组合的accuracy是 80% 80% 70%,另一个的为
2015-07-27 06:01:08 1334
转载 Word2Vec
背景首先,了解下大体的词处理方法: http://blog.csdn.net/mytestmy/article/details/26961315 词向量 最原始的,One-Hot Representation,用一个很长的向量来代表一个词,有就是1,没有就是0。 “话筒”表示为 [0 0 0 1 00 0 0 0 0 0 0 0 0 0 0 …] “麦克”表示为 [0 0 0 0 00 0 0
2015-07-26 22:48:51 711
转载 SVD
看到有两种做法。第一种,矩阵分解,预测缺失值这篇文章讲得比较全面: http://blog.csdn.net/zhongkejingwang/article/details/43083603 这篇也还好: http://www.cnblogs.com/FengYan/archive/2012/05/06/2480664.html 基础版本的SVD 就是有一个User-item的评分矩阵R(每
2015-07-26 21:13:28 1011
原创 <顾客为什么买>感触
行行出状元,很多小的地方没有考虑过,原来这也有学问! 细心,从顾客的角度出发。比如购物篮,因为用户没那么多手。比如购物篮放哪里。比如药店里阿司匹林的怎么放。还有相互的影响关系。 上面这点是缺乏的,没有顾客的敏感,多去想想用户的动机。比如现在的工作中就缺乏这样的想法 老人的市场。嗯,现在我们逐渐变老了,老人是一个主力军。小孩的市场。嗯,要吸引住小孩,但是要注意量(太吸引小孩,大人下次不敢来了,不然每次
2015-07-05 19:22:30 686
C++实现遗传算法GA(包含多种选择算子变异算子实现)
2011-11-10
基于JAVA、数据库架设旅游信息网站
2011-05-24
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人