自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

[email protected]

数据挖掘、推荐系统、python、人工智能

  • 博客(159)
  • 资源 (1)
  • 收藏
  • 关注

原创 Attention中的Q、K、V

attention 中的 q k v

2022-10-25 18:11:57 1430 2

原创 二次型和矩阵正定的意义

1、矩阵正定的意义通过矩阵来研究二次函数(方程),这就是线性代数中二次型的重点。

2022-10-11 16:52:03 2748

原创 矩阵特征值的意义

矩阵特征值在很多场景都会遇到,考研数学都是必考、很多理工类专业课,以及机器学习中应用十分广泛,究其意义究竟如何,这里给出了几个角度。

2022-10-11 15:22:23 5095

原创 声源级、接收电压灵敏度(接收带内响应)

1、 声源级(发射)定义:声轴上距声源1米处产生的声强相对于参考声强的分贝数。是声纳方程中定量描述声源辐列表内容射能力的项,用SL表示。计算公式:列表内容SL=Sv+20lgVSL=Sv+20lg⁡V SL = Sv + 20\lg V 参数解释: Sv发送电压响应,通过查找换能器发射曲线得到,是基础。 V为发送电压,20lgV是增量。2、接收电压灵敏度( 接收灵敏...

2018-09-02 22:25:13 18660 2

原创 记sparse_encoding_size引发的一次惨痛教训

sparse_encoding_size为类别变量分桶数量,emb size 数量要==+1==

2024-01-20 17:12:39 334

原创 推荐召回-Swing

swing召回算法:如果同时喜欢两个物品的用户越多,且这些用户之间的重合度越低,那么这两个物品间的相似度越高。

2023-06-20 09:49:01 1505

原创 高频题目总结

面试常见题目汇总

2023-06-15 17:30:20 727

原创 大话 triplet loss 损失函数

本文对triplet进行总结,hinge loss, triplet loss是一个东西,是不同领域的不同叫法

2023-06-14 15:20:46 174

原创 BPR损失函数

BPR(Bayesian Personalized Ranking)损失函数是一种用于学习推荐系统中用户个性化偏好的损失函数

2023-06-14 13:19:19 426

原创 一文搞懂 AB Testing 的分层分流

AB Testing 的分层分流机制

2023-06-14 12:01:08 1247 1

原创 CEM搜参策略简述

通过对w参数的搜索,可以得到每次w参数下mean_auc的表现,从而搜索出n个task对应score的最优权重。

2023-06-14 11:23:13 593

原创 softmax之温度系数

相对于 argmax 这种直接取最大的「hardmax」,softmax 采用更温和的方式,将正确类别的概率一定程度地突显出来。而引入温度系数的本质目的,就是让 softmax 的 soft 程度变成可以调节的超参。

2023-06-09 15:48:20 2023 2

原创 向量相似搜索绕不开的局部敏感哈希

局部敏感哈希基本原理是低维空间保留高维空间相近距离关系的性质,将相邻的点落入同一个“桶”,这样在进行最邻近搜索时,仅需要在一个桶内或邻近几个桶内进行搜索,只需要保证每个桶内的元素个数保持在一个较小的范围内。

2023-06-09 15:10:22 616

原创 SIM:基于搜索的用户终身行为序列建模

有没有一种方案是直接列用用户原始的行为,而且能够解决上万长度的用户序列的耗时问题呢?一种解决方案便是本文将要介绍的Search-based User Interest Model

2023-06-09 11:56:25 980

原创 多目标建模loss为什么最好同时收敛?

多目标的多个task如果收敛速度不一样,收敛慢的task会对收敛快的task产生一个梯度的拉扯,导致已经收敛的task被迫再次回到为收敛的状态,本文给出了原因和解决办法。

2023-06-08 18:15:31 659

原创 为什么神经网络参数不能全部初始化为全0?

w初始化全为0,会导致每一隐藏层的隐藏神经元权重都是一致,很可能直接导致模型失效,无法收敛。

2023-06-08 17:33:09 265

原创 从贝叶斯派的角度去看L1和L2

从贝叶斯学派角度理解L1正则先验分布是Laplace分布,L2正则先验分布是Gaussian分布。

2023-06-08 17:09:20 895

原创 最大似然估计(MLE)VS 最大后验概率估计(MAP)

对MLE和MAP进行阐述,了解贝叶斯派和频率派的思想

2023-06-08 16:46:32 897

原创 Faiss PQ 乘积量化

在ANN近似最近邻搜索中,向量量化方法又以乘积量化(PQ, Product Quantization)最为典型。结合例子对PQ乘积量化、倒排乘积量化(IVFPQ)做一种更加直观的解释。

2023-06-08 10:08:00 1047

原创 bert预训练梳理

bert预训练梳理

2023-06-07 22:53:22 1540

原创 python堆排序之heapq

python 的 heapq 模块及python实现大顶堆

2023-06-05 16:29:59 1117

原创 召回评价指标NDCG、MAP

召回评价指标NDCG、MAP

2023-06-02 16:16:09 807

原创 样本不平衡的解决办法

本文试图从交叉熵损失函数出发,分析数据不平衡问题,focal loss与交叉熵损失函数的对比,给出focal loss有效性的解释。

2023-05-31 11:58:00 468

原创 排序代码模板

【代码】排序代码模板。

2023-04-21 01:24:31 57

原创 Tensorflow常见API用法

tensorflow常用api

2022-11-02 16:40:03 137

原创 深度学习中的Graph Embedding方法

深度学习中的Graph Embedding方法

2022-10-26 15:40:45 133

原创 深度强化学习DQN

Deep Q Network(DQN)算法损失函数详解

2022-10-25 17:27:51 2191

原创 强化学习 Q-learning 算法举例

用简单例子讲解 Q - learning 的具体过程

2022-10-25 16:18:20 203 1

原创 GNN图神经网络算法入门(二)

本文主要介绍了GCN,及其衍生出来GraphSAGE,GAT

2022-10-25 11:41:28 162

原创 GNN图神经网络算法入门(一)

本文主要涉及到图神经网络背景介绍,任务类型、应用场景以及常规的图表示方法,比如邻接矩阵等。

2022-10-25 10:51:56 107

原创 梯度下降对比理解

梯度下降的几个对比理解视角

2022-10-12 20:43:03 394 1

原创 推荐系统FM模型要点总结

推荐系统FM模型要点总结1、公式推导细节复盘、包原理+求导2、为何强调矩阵正定3、embedding总结

2022-10-12 15:11:30 217

原创 矩阵的物理、几何意义

矩阵乘法的意义

2022-10-11 10:57:03 869

原创 序列网络详解

序列网络结构梳理,含RNN/LSTM/GRU/EncoderDecoder

2022-10-09 16:05:36 289

原创 Tensorflow Estimator使用总结(一图胜千言)

Tensorflow Estimator使用总结(一图胜千言)

2022-09-20 19:21:05 100

原创 机器学习、深度学习关于熵你所需要知道的一切

关于熵你所需要知道的一切

2022-06-14 16:22:13 513 5

原创 重读西瓜书

工作两年后,重读机器学习西瓜书。

2022-06-10 19:25:23 80

原创 hive常见demo

1、插入demo数据table_name="table_name_xxx"dt='20220101'sql="insert overwrite table ${table_name} partition(dt=${dt})select *from ( select 1 as uv, 1 as expo, 1 as ia_num, 1 as click_num, 1 as read_duration, 1 as qianbao_ia, 1 as qianboa_

2022-05-20 15:24:55 312

原创 Maven梳理

Maven梳理

2022-02-12 10:26:17 178

原创 从word2vec到YouTube DNN

本文对word2vec数学推导部分进行讲解,以skip-gram为例;大家推导的时候把握输入矩阵,输出矩阵;向量内积的意义;矩阵变换的意义;多元函数求偏导。最后给出了word2vec和经典youtube dnn的联系~

2022-01-14 20:57:55 426

树模型论文汇总.zip

xgboost、lightgbm、catboost论文汇总。 XGBoost[1]是2014年2月诞生的专注于梯度提升算法的机器学习函数库,此函数库因其优良的学习效果以及高效的训练速度而获得广泛的关注。仅在2015年,在Kaggle[2]竞赛中获胜的29个算法中,有17个使用了XGBoost库,而作为对比,近年大热的深度神经网络方法,这一数据则是11个。在KDDCup 2015 [3]竞赛中,排名前十的队伍全部使用了XGBoost库。XGBoost不仅学习效果很好,而且速度也很快,相比梯度提升算法在另一个常用机器学习库scikit-learn中的实现,XGBoost的性能经常有十倍以上的提升。在KDD会议上,XGBoost的作者陈天奇将这一库函数所涉及到的理论推导和加速方法整理为论文发表出来[4],本文据此对其原理做简单的介绍。尽管这是一个机器学习方面的函数库,但其中有大量通用的加速方法,也值得我们学习。

2019-08-13

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除