自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(7)
  • 收藏
  • 关注

原创 《AutoRec: Autoencoders Meet Collaborative Filtering》WWW2015 阅读笔记

前一阵子阅读了部分deep learning结合Collaborative filtering的工作,准备写一系列的阅读笔记,这是作为预热的第一篇,也是最easy的一篇,WWW 2015的poster,看起来很快。在传统的CF里,所用的信息即为所有用户历史的评分数据,按用户做行,item做列,可以得到一个rating matrix RR,其中Rij指useriuser_i对itemjitem_j的打

2017-04-27 23:28:02 7176 5

原创 theano学习入门和进阶系列2: MLP示例

上一篇以实现logistic regression为例讲解了theano的基础用法。本篇以MLP的示例进一步讲解theano里更高级的用法,以及一般的模型写法。详情见代码中的示例。

2017-04-18 22:29:05 468 1

原创 常见面试算法题:给定数组中寻找加和为特定数的两个数

问题描述:Given an array of integers, return indices of the two numbers such that they add up to a specific target.You may assume that each input would have exactly one solution, and you may not use the sam

2017-04-11 13:39:51 1414 2

原创 theano学习入门和进阶系列1: 基础数据结构和语法

theano是一个经典的深度学习工具包,尽管是当前众多深度学习框架中唯一不支持分布式的,但其入门快、使用简单、对自定义修改的支持佳等都让它目前还是非常流行。本文结合基于theano实现的logistic regression的过程来讲解theano入门的基础知识点,主要知识点详见code中的注释。############################ # # logistic regression

2017-04-09 18:04:35 430 1

原创 常见面试算法题:N个数中寻找仅出现过1次的数

最近有面试他人,感觉温习温习这些算法题还蛮有意思,因此单开一个系列进行回顾和探讨。第一个算法题最原始的问题版本是:现有N个数,其中有1个数只出现了一次,其它数均出现了2次,要求找到这个仅出现过1次的数。要求空间复杂度为O(1)。 求解思路:异或法 根据异或的计算规则,两个相同的数做异或操作后结果为0,两个不同的数做异或操作结果绝对不为0,而任何数与0异或结果仍为自身。因此将给定的N个数从前至后依次

2017-04-02 22:19:30 1166

原创 《Improved Recurrent Neural Networks for Session-based Recommendations》 DLRS 2016 阅读笔记

简介:和上一篇介绍的ICLR 2016文章所要解决的问题一致,即利用session内用户的点击序列去预测用户下一次点击的item。方法也运用的RNN,但是更多在于引入了一些优化方法,如data augmentation, model pretrain, generalized distillation ( use of privileged information) 等。

2017-03-06 17:38:20 2571 4

原创 《session-based recommendations with recurrent neural networks》ICLR 2016 阅读笔记

文章简介: 该文提出了利用RNN建模一个session间用户的点击序列。该方法完全利用用户在当前session里的反馈去做推荐,相比原依赖用户历史记录的推荐能在解决冷启动问题上更为简洁有效。 模型 文中提出的模型如下图所示: Input层是对所有item做的one-hot encoding, 接下来是一层embedding层,再往下是一层或多层RNN模型,再往下是一个feedforward层,然

2017-03-03 22:42:59 2868

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除