算法
文章平均质量分 97
AI_盲
努力爬。。。
展开
-
推荐系统冷启动技术-研究进展
最近调研了一些冷启动方案,现汇总如下商品冷启动商品冷启动一般在item的embedding上优化Graph Embedding在Graph Embedding I2I的基础上,加入商品的Side Information,进一步提升Embedding的泛化学习能力,更好地解决长尾以及商品冷启动问题《Hybrid Item-Item Recommendation via Semi-...原创 2019-09-26 01:10:04 · 4761 阅读 · 3 评论 -
推荐系统技术
目录推荐系统技术整体流程用户画像match部分CF(协同过滤)SwingContent I2ISession-based I2I向量召回RankI2IRank部分LRLR+GBDTFM/FFMMLRFNNAFMNFMPNNWide&DeepDeepFMDeepFFMDCNxDeepFMFAT...原创 2019-05-18 17:43:00 · 11359 阅读 · 14 评论 -
Keras实现CNN、RNN(基于attention 的双向RNN)及两者的融合
本文主要采用CNN,RNN对时序数据进行二分类CNN处理时序数据的二分类model = Sequential()model.add(Conv1D(128, 3, padding='same', input_shape=(max_lenth, max_features)))model.add(BatchNormalization())model.add(Activation('relu'))...原创 2018-04-24 10:50:34 · 19974 阅读 · 3 评论 -
必会算法:冒泡排序、快排、归并排序、折半查找、大根堆(Java版)
//二分查找 static int binaryFind(int[] n, int key, int left, int right) { if (left > right) { return -1; } int low = left; int high = right; int mid = 0; while (low <= high) { mid = (lo原创 2017-03-03 21:17:45 · 697 阅读 · 0 评论 -
关于树的几个ensemble模型的比较(GBDT、xgBoost、lightGBM、RF)
决策树的Boosting方法比较原始的Boost算法是在算法开始的时候,为每一个样本赋上一个权重值,初始的时候,大家都是一样重要的。在每一步训练中得到的模型,会使得数据点的估计有对有错,我们就在每一步结束后,增加分错的点的权重,减少分对的点的权重,这样使得某些点如果老是被分错,那么就会被“严重关注”,也就被赋上一个很高的权重。然后等进行了N次迭代(由用户指定),将会得到N个简单的分类器(bas原创 2017-03-31 17:22:23 · 25024 阅读 · 3 评论 -
Batch Normalization & Layer Normalization整理(代码实现下载)
以下为layer normalisation文章解析:摘要训练目前性能最好的深度神经网络计算代价高昂. 一种减少训练时间的方法是规范化神经元的激活值. 近期引入的批规范化(batch normalisation)技术对一个训练样本批量集使用了求和的输入分布来计算均值和方差,然后用这两个来规范化那个神经元在每个训练样本的求和输入. 这个方法显著减少了前驱神经网络的训练时间.原创 2017-04-19 10:32:59 · 10207 阅读 · 0 评论