- 博客(11)
- 资源 (6)
- 收藏
- 关注
转载 什么是无偏估计?
作者:Calvin Zhang链接:https://www.zhihu.com/question/22983179/answer/67748062来源:知乎著作权归作者所有,转载请联系作者获得授权。在我们讲无偏估计(unbiased estimator)之前我想先说一个概念,那就是样本统计(Sample Statistics)。生活中我们需要知道一些数据的时候,常常要统
2016-10-25 10:33:52 11592
转载 【精彩】为什么在实际的 kaggle 比赛中 gbdt 和 random forest 效果非常好?
作者:马超链接:https://www.zhihu.com/question/51818176/answer/127637712来源:知乎著作权归作者所有,转载请联系作者获得授权。这是一个非常好,也非常值得思考的问题。换一个方式来问这个问题:为什么基于 tree-ensemble 的机器学习方法,在实际的 kaggle 比赛中效果非常好?通常,解释一个机器学习模型的
2016-10-21 11:48:58 8846
转载 What is the difference between SVD and matrix factorization in context of recommendation engine?
I have seen two broad uses of matrix factorization in recommenders. Both involve low-rank approximate factorizations. The first is really a generic approach which can be combined with many factoriza
2016-10-21 10:44:35 455
转载 Deep Learning Papers Reading Roadmap
The roadmap is constructed in accordance with the following four guidelines:From outline to detailFrom old to state-of-the-artfrom generic to specific areasfocus on state-of-the-artYou will fi
2016-10-20 20:24:34 1715
转载 Scala教程:简单构建工具SBT
本文由 ImportNew - 朱伟杰 翻译自 Scala School。欢迎加入翻译小组。转载请见文末要求。这个章节会讲解SBT(Simple Build Tool)!包含的主题有:创建一个sbt工程基本命令sbt控制台连续执行命令自定义工程自定义命令sbt代码简介(如果时间允许的话)关于SBTSBT是一个现代构建工具。它是用Scala编写的,并且针对
2016-10-19 13:25:24 1304
转载 用一个大家都懂的方式来聊聊 YouTube 基于深度神经网络的推荐系统
用一个大家都懂的方式来聊聊YouTube基于深度神经网络的推荐系统1前言YouTube的推荐系统是是世界上规模最大、最复杂的推荐系统之一。最近Google的研究人员公布了他们投到今年ACM会议的一篇文章,详细介绍了他们最近利用深度神经网络实现YouTube推荐系统的技术细节。相关会议也会将于本月15号至19号在美国波士顿召开。2应用背
2016-10-18 20:30:02 3210
转载 美团推荐算法实践
http://tech.meituan.com/mt-recommend-practice.html前言推荐系统并不是新鲜的事物,在很久之前就存在,但是推荐系统真正进入人们的视野,并且作为一个重要的模块存在于各个互联网公司,还是近几年的事情。随着互联网的深入发展,越来越多的信息在互联网上传播,产生了严重的信息过载。如果不采用一定的手段,用户很难从如此多的信息流中找到对自
2016-10-18 20:27:55 831
转载 CTR预估中GBDT与LR融合方案
1、背景CTR预估,广告点击率(Click-Through Rate Prediction)是互联网计算广告中的关键环节,预估准确性直接影响公司广告收入。CTR预估中用的最多的模型是LR(Logistic Regression)[1],LR是广义线性模型,与传统线性模型相比,LR使用了Logit变换将函数值映射到0~1区间 [2],映射后的函数值就是CTR的预估值。LR,逻辑回归模型,这种
2016-10-17 20:22:11 769
转载 优化算法——截断梯度法(TG)
目录(?)[-]一L1正则的表达形式convex-constraint formulationsoft-regularization二处理大数据的方法流式在线学习的流程随机梯度下降法三截断梯度法Truncated Gradient简单截断Simple coefficient RoundingL1-Regularized Subgradient次梯度截断梯度法
2016-10-12 20:27:59 1817
转载 交叉熵损失函数
香农熵 1948 年,香农提出了“信息熵”(shāng) 的概念,才解决了对信息的量化度量问题。一条信息的信息量大小和它的不确定性有直接的关系。比如说,我们要搞清楚一件非常非常不确定的事,或是我们一无所知的事情,就需要了解大量的信息。相反,如果我们对某件事已经有了较多的了解,我们不需要太多的信息就能把它搞清楚。所以,从这个角度,我们可以认为,信息量的度量就等于不确定性的多
2016-10-12 20:26:32 10744
转载 交叉熵代价函数
目录(?)[-]从方差代价函数说起交叉熵代价函数cross-entropy cost function总结还要说说log-likelihood cost本文是《Neural networks and deep learning》概览 中第三章的一部分,讲machine learning算法中用得很多的交叉熵代价函数。1.从方差代价函数说起代价函数经常用方
2016-10-11 15:35:58 395
httpclient tutorial httpclient 指南
2018-03-08
mask rcnn paper
2018-03-07
Applying Deep Learning To Answer Selection
2018-03-07
Learning Phrase Representations using RNN Encoder–Decoder
2018-03-07
BPTT BackPropagation Through Time.pdf
2018-03-07
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人