自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

loserChen的博客

https://github.com/loserChen

  • 博客(14)
  • 资源 (1)
  • 收藏
  • 关注

原创 Feature Re-Learning with Data Augmentation for Content-based Video Recommendation简介

Feature Re-Learning with Data Augmentation for Content-based Video RecommendationIntroduction作者主要将特征再学习,使得在对应的特征空间相关性强的点能够靠的比较接近比原始的特征空间。Proposed solutionAugmentation for frame-level features采用sk...

2019-03-30 21:16:29 253

原创 为什么说bagging是减少variance,而boosting是减少bias?

Bagging中有两个操作都可以达到降低variance的效果,首先每一轮生成树的时候都是用bootstrap的方式在采样,即保证了数据集的相对多样性;此外bagging还随机选择k个特征,这可以进一步保证每个树之间的差异性,因此对于单独的一棵树来说它的偏差是非常高的,但是由于bagging生成的树可以是多种多样的,达到了防止过拟合的作用,即降低了方差。而对于bias来说的话,由于基分类器优化的目...

2019-03-26 14:47:35 874

转载 从贝叶斯的角度看正则化

一、正则化一般来说,监督学习可以看做最小化下面的目标函数:其中,第一项L(yi,f(xi;w)) 衡量我们的模型(分类或者回归)对第i个样本的预测值f(xi;w)和真实的标签yi之前的误差。因为我们的模型是要拟合我们的训练样本的嘛,所以我们要求这一项最小,也就是要求我们的模型尽量的拟合我们的训练数据。但正如上面说言,我们不仅要保证训练误差最小,我们更希望我们的模型测试误差小,所以我们需要加...

2019-03-26 14:27:19 1791

原创 GNN:Graph Neural Networks for Social Recommendation简介

Graph Neural Networks for Social RecommendationAbstract基于GNN建立社交推荐系统有很多的挑战,因此作者提出了GraphRec框架。作者提供了一种有原则的方法来联合捕获用户-项目图中的交互和意见,并提出了框架GraphRec,该框架连贯地对两个图和异构优势进行建模。Introduction作者提出三个问题:如何整合user-user...

2019-03-25 10:47:26 6277 13

原创 Mac下homebrew+lightgbm心酸安装历程

homebrew+lightgbm心酸安装历程homebrew的安装我们知道使用以下命令来进行安装/usr/bin/ruby -e "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/master/install)"但是安装的速度不仅非常慢,而且安装中途经常报错:在命令行输入:git config --glo...

2019-03-24 10:20:20 1115

原创 如何解决mac上下载homebrew速度慢的问题

只需要连接手机热点!没有开玩笑!真的!

2019-03-23 15:18:10 8338 8

原创 GNN:Session-based Recommendation with Graph Neural Networks简介

Session-based Recommendation with Graph Neural Networks摘要作者提出SR-GNN,将session序列建模为图结构数据。在session图的基础上,GNN可以捕捉到items的复杂转换。每一个session利用注意力机制将整体偏好与当前偏好结合进行表示。介绍作者diss了基于马尔可夫链的工作非常依赖数据独立性的假设的。利用RNN的...

2019-03-17 11:26:35 5290 5

原创 浙大数据结构mooc知识点总结

数据结构线性结构线性表堆栈队列树树的定义二叉树及存储结构n0+n1+n2=0*n0+1*n1+2*n2+1化简得n0=n2+1二叉树的遍历后序遍历:对于任一结点P,将其入栈,然后沿其左子树一直往下搜索,直到搜索到没有左孩子的结点,此时该结点出现在栈顶,但是此时不能将其出栈并访问, 因此其右孩子还为被访问。所以接下来按照相同的规则对其右子树进行相同...

2019-03-16 19:05:59 2455

原创 DCN:Deep & Cross Network for Ad Click Predictions简介

Deep & Cross Network for Ad Click Predictions摘要作者起草了DCN,该网络可以保持DNN的优点(隐式地生成特征之间的交互),同时又利用交叉网络来对特征进行显式的交叉计算。这也不要求手工的特征工程,同时只是在DNN的基础上加了一些可容忍的复杂度。实验证明DCN已经在CTR预估与分类问题上超过了sota。介绍对于web伸缩型的推荐系统,因为其...

2019-03-16 16:16:39 1930

原创 GCN:Graph Convolutional Neural Networks for Web-Scale Recommender Systems简介

Graph Convolutional Neural Networks for Web-Scale Recommender Systems摘要作者们开发了一个数据高效的GCN算法PinSage,该算法联合有效的random walk以及图卷积来生成涵盖图结构和结点特征的嵌入结点。相对于之前的GCN方法,作者提出了高效的random walk方法同时设计了一个新颖的训练策略以提高模型的收敛性和鲁...

2019-03-10 21:38:44 2832 1

原创 Semi-Supervised Classification with Graph Convolutional Networks简介

SEMI-SUPERVISED CLASSIFICATION WITH GRAPH CONVOLUTIONAL NETWORKS摘要文章呈现了一种可缩放的半监督学习方法,利用卷积神经网络变种来进行图结构数据的学习。通过spectral graph convolution(谱图卷积)的局部一阶近似来确定卷积网络结构。隐藏层的表示是通过编码局部图结构以及结点特征来进行。介绍作者主要贡献:介...

2019-03-10 13:25:38 5673 1

原创 降维:LDA与PCA的简析理解

LDALDA(二分类情况)LDA是一种监督学习的降维技术,也就是说LDA依赖于样本的类别输出。LDA的基本思路就是将样本投影到一条直线上,使类间距离尽可能变大,类内距离尽可能变小。如下图所示:那么我们可以通过y=wTxy=w^Txy=wTx来计算投影,当x是二维的时候,我们就需要找到一个w来做投影,然后寻找最能使样本点分离的直线。那么我们应该如何来找到最佳的w呢?我们分别选择两个类别的...

2019-03-07 10:38:20 700

原创 拉格朗日乘子法和KKT条件简要分析与理解

拉格朗日乘子法与KKT条件最近看LDA的时候,推导有用到拉格朗日乘子法,趁这个机会稍微学习一下。什么是拉格朗日乘子法按照维基百科的定义,拉格朗日乘数法是一种寻找多元函数在其变量受到一个或多个条件的约束时的极值的方法。换句话说,该方法并不能保证找到的一定是最低点或者最高点。事实上,它只是一种寻找极值点的过程,而且,拉格朗日乘子法找到的切点可能不只一个(也就是上面的方程组可能找到多个解),例如下...

2019-03-06 15:01:25 508

原创 Pixie: A System for Recommending 3+ Billion Items to 200+ Million Users in Real-Time简介

Pixie: A System for Recommending 3+ Billion Items to 200+ Million Users in Real-Time摘要作者呈现了Pixie——一个基于图的实时推荐系统,输入一系列用户相关的pins作为查询,然后Pixie会实时地从上亿的可能pins中找到与查询最相关的结果。介绍Pinterest具有主要两个挑战:数据量与实时性。实时性...

2019-03-02 19:02:05 1042

李宏毅一天读懂深度学习

这是李宏毅老师的关于深度学习快速入门的文档,方便初学者快速入门深度学习

2019-03-10

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除