![](https://img-blog.csdnimg.cn/20201014180756738.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
机器学习
文章平均质量分 65
winner8881
这个作者很懒,什么都没留下…
展开
-
梯度下降对比理解
梯度下降的几个对比理解视角原创 2022-10-12 20:43:03 · 417 阅读 · 1 评论 -
推荐系统FM模型要点总结
推荐系统FM模型要点总结1、公式推导细节复盘、包原理+求导2、为何强调矩阵正定3、embedding总结原创 2022-10-12 15:11:30 · 228 阅读 · 0 评论 -
二次型和矩阵正定的意义
1、矩阵正定的意义通过矩阵来研究二次函数(方程),这就是线性代数中二次型的重点。原创 2022-10-11 16:52:03 · 2878 阅读 · 0 评论 -
矩阵特征值的意义
矩阵特征值在很多场景都会遇到,考研数学都是必考、很多理工类专业课,以及机器学习中应用十分广泛,究其意义究竟如何,这里给出了几个角度。原创 2022-10-11 15:22:23 · 5301 阅读 · 0 评论 -
矩阵的物理、几何意义
矩阵乘法的意义原创 2022-10-11 10:57:03 · 926 阅读 · 0 评论 -
序列网络详解
序列网络结构梳理,含RNN/LSTM/GRU/EncoderDecoder原创 2022-10-09 16:05:36 · 343 阅读 · 0 评论 -
Tensorflow Estimator使用总结(一图胜千言)
Tensorflow Estimator使用总结(一图胜千言)原创 2022-09-20 19:21:05 · 108 阅读 · 0 评论 -
重读西瓜书
工作两年后,重读机器学习西瓜书。原创 2022-06-10 19:25:23 · 85 阅读 · 0 评论 -
从word2vec到YouTube DNN
本文对word2vec数学推导部分进行讲解,以skip-gram为例;大家推导的时候把握输入矩阵,输出矩阵;向量内积的意义;矩阵变换的意义;多元函数求偏导。最后给出了word2vec和经典youtube dnn的联系~原创 2022-01-14 20:57:55 · 428 阅读 · 0 评论 -
如何理解先验概率与后验概率
1、先验概率基于客观事实 或者 统计频率 得到的,或者你自身依据经验给出的一个概率值,我们称其为先验概率(prior probability),更加形象的例子,P(X=掷硬币为正面)=0.5。2、来个栗子????玩LOL占总人口60%,不玩LOL人数占40%,为便于叙述,用变量X来表示取值情况(X为全事件),有 :P(X=玩lol)=0.6P(X=玩lol)=0.6P(X=玩lol)=0.6,P(X=不玩lol)=0.4P(X=不玩lol)=0.4P(X=不玩lol)=0.4。另外玩lol中80原创 2022-01-14 20:24:48 · 1703 阅读 · 0 评论 -
深度学习推荐技术发展周期小结之精排模型
精排技术原创 2022-01-11 16:47:19 · 296 阅读 · 0 评论 -
词向量与Embedding究竟是怎么回事?
词向量,英文名叫Word Embedding,按照字面意思,应该是词嵌入。说到词向量,不少读者应该会立马想到Google出品的Word2Vec,大牌效应就是不一样。另外,用Keras之类的框架还有一个Embedding层,也说是将词ID映射为向量。由于先入为主的意识,大家可能就会将词向量跟Word2Vec等同起来,而反过来问“Embedding是哪种词向量?”这类问题,尤其是对于初学者来说,应该是很混淆的。事实上,哪怕对于老手,也不一定能够很好地说清楚。这一切,还得从one hot说起...原创 2022-01-11 15:58:25 · 279 阅读 · 0 评论 -
阿里巴巴CAN:Embedding前置的特征交互新思路
本篇文章介绍了阿里妈妈定向广告团队的最新作品:Co-Action Net(以下简称CAN)。CAN提出了一种全新的特征交互思路,将待交互的特征(用户侧和商品侧特征)分别作为DNN的输入和权重,用DNN的输出作为特征交互的结果。CAN在提升了特征交互的表达能力同时,降低了传统的笛卡尔积交叉所需要的计算复杂度。原创 2022-01-11 15:34:38 · 833 阅读 · 8 评论 -
向量外积为什么可以用于特征交叉?
1、向量外积有几种?2、向量外积在机器学习中的应用有哪些?3、向量外积本质是什么?4、向量外积番外篇原创 2022-01-11 12:21:30 · 897 阅读 · 6 评论 -
牛顿法、拟牛顿法、梯度下降法通俗理解
泰勒?你真的了解了吗?如果是,恭喜你,下面的部分你都可以看懂牛顿法通俗理解1.推导过程2.几个注意点 拟牛顿法通俗理解梯度下降通俗理解原创 2021-03-08 23:19:24 · 180 阅读 · 0 评论 -
CNN总结
GoogleNet:增加感受野GoogleNet提出了一种Inception结构,如上右图,从上一层到下一层的时候,分出四块,每块具有不同的卷积核,然后汇合在下面,使用了一个concrete层。好处在于,采用不同大小的卷积核意味着不同大小的感受野,最后拼接意味着不同尺度特征的融合。之所以卷积核大小采用1、3、5,主要是为了方便对齐。设定卷积步长stride=1之后,只要分别设定pad=0、1、2...原创 2019-11-23 14:01:36 · 633 阅读 · 0 评论 -
kaggle命令行提交
举个栗子kaggle competitions submit -c ieee-fraud-detection -f C:/Users/ZhihuaHe/Desktop/stack.csv -m "Message"原创 2019-11-04 11:17:24 · 1115 阅读 · 0 评论 -
算法-从入门到入坑
一、理论理论主要是机器学习和深度学习的知识储备1、机器学习(1)指标:①回归:MAE(绝对值)、MSE(均方)、RMSE(均方根)、R2②分类:准确率、精确率、召回率、F1-score、ROC、AUC(2)线性回归(3)LR(4)SVM(5)决策树:ID3、C4.5、CART(6)集成算法:①Bagging:RF②Boosting:Adaboost、GBDT、Xgboost...原创 2019-10-26 22:34:00 · 353 阅读 · 0 评论 -
ip处理
import numpy as npa=np.load('ip_explain_by_geoip2_china.npy',allow_pickle=True)ip_exp=a.item() temp = pd.DataFrame(list(ip_exp.items()), columns=['ip', 'ip_exp'])temp[['country','province_exp','c...原创 2019-08-13 12:26:43 · 155 阅读 · 0 评论 -
数据挖掘-ctr特征
def ctr_fea(train,test,feature): for fea in feature: print(fea) temp = train[['label',fea]].groupby(fea)['label'].agg({fea+'_sum':sum, ...原创 2019-08-22 13:19:46 · 771 阅读 · 0 评论 -
数据挖掘-统计特征
在def cnt_fea(data,feature,train_num): data['flag'] = '-' for fea in feature: print(fea) data[fea] = data[fea].map(data[fea].value_counts()) for i in range(len(feature)-1):...原创 2019-08-22 13:19:32 · 526 阅读 · 0 评论 -
leetcode-手动labelEncoder
for col in obj_cols: data[col].fillna('-1', inplace = True) data[col] = data[col].map(dict(zip(data[col].unique(),list(range(data[col].nunique()))))) print(col+' over...')原创 2019-08-17 17:22:38 · 218 阅读 · 0 评论 -
华为精英算法大赛决赛总结
1、华为比赛总结1、top2选手:EDA探索比赛第一步,先做EDA,发现强特具体来说,如观察某个变量对于label的分布2、top1选手:比赛理论3、自我总结理论深挖一下,如lgb模型原理,nn原理,避免侥幸。比赛不能犯懒,理论补充不能犯懒不能有依赖心理,不能仅靠依赖队友做技术需要静下心来不能有畏难心理2、Ctr总结1、EDA观察特征,比如观察uid_value_cou...原创 2019-08-26 23:06:43 · 523 阅读 · 0 评论 -
机器学习-GBDT
GBDT概述 在GBDT的迭代中,假设前一轮迭代得到的强学习器:ft−1(x)f_{t-1}(x)ft−1(x), 损失函数:L(y,ft−1(x))L(y,f_{t−1}(x))L(y,ft−1(x)), 本轮迭代的目标是找到一个CART回归树模型的弱学习器ht(x)h_t(x)ht(x),让本轮的损失函数L(y,ft(x)=L(y,ft−1(x)+ht(x))L(y,f_t(x)=L...原创 2019-08-27 17:49:56 · 158 阅读 · 0 评论 -
机器学习-风控模型
1、用户画像为什么要开发用户画像?1、客户在哪里?精准定位客户,洞察客户需求2、客户长什么样?立体刻画用户特征,深度挖掘用户行为3、客户如何运营?客群分层,千人千面用户画像?围绕业务目标,利用数据技术挖掘的一系列表征用户基本属性、行为特点、观点倾向的标签。不同的业务用户画像的关注点不同,主要由业务目标和数据的实际情况决定。电商场景:消费水平、购买偏好餐饮场景:口...原创 2019-08-28 16:30:15 · 3272 阅读 · 0 评论 -
机器学习-cart树
1、cart回归树评价指标:mse描述:依次遍历所有特征,依次遍历每个特征的所有取值,算出当前每一个可能的切分点的误差,最后选择切分误差最小的点将输入空间切分为两个部分,然后递归上述步骤,直到切分结束。...原创 2019-08-28 23:00:48 · 95 阅读 · 0 评论 -
机器学习损失函数的理解
机器学习、深度学习关于loss你所需要知道的一切定义:对数损失,即对数似然损失(Log-likelihood Loss),或者交叉熵损失(cross-问题荣便宜Loss)−(ylog(p))+(1−y)log(1−p)-(ylog(p)) + (1-y)log(1-p)−(ylog(p))+(1−y)log(1−p),yyy表示样本的真是标签(1或者0),ppp表示模型预测为正样本的概率。可视化:展示当label为1时候...原创 2019-08-29 00:07:14 · 389 阅读 · 1 评论 -
机器学习算法面试资源汇总
1、各种评价指标分类:auc、logloss、f1回归:mae、mse、rmse、r2多分类2、机器学习算法推导线性回归逻辑回归决策树GBDTxgboostlightgbmcatboost3、竞赛相关xgboost源码 、参数lightgbm源码、参数4、深度学习tensorflow框架、组成单元,常用函数caffe框架cnn过程防止过拟合方法...原创 2019-09-08 23:10:34 · 283 阅读 · 0 评论 -
softmax分类器
原创 2019-09-06 23:40:59 · 726 阅读 · 0 评论 -
矩阵向量求导
1、求导定义2、求导布局原创 2019-09-07 14:18:51 · 100 阅读 · 0 评论 -
GBDT、Xgboost、Lightgbm、Catboost论文
1、GBDT,xgboost对比添加链接描述https://wenku.baidu.com/view/f3da60b4951ea76e58fafab069dc5022aaea463e.html2、xgboost论文https://arxiv.org/pdf/1603.02754.pdf3、lightgbm论文http://papers.nips.cc/paper/6907-lightg...原创 2019-08-13 12:16:30 · 837 阅读 · 0 评论