j
T-RAX
lan
展开
-
代码角度分析DeepFM
代码角度分析DeepFMDeepFM架构程序中的输出FMDEEPself.out数据集XiXvy过程embeddingsy_first_ordery_second_orderDeeploss参考DeepFM架构embedding+Factorization machines(FM)+Deep程序中的输出很明显,又两个部分组成FM+DEEPFM前者由y_first_order与y_second_order组成(对应FM的两个部分)维度分别为特征下标与embedding矩阵的sizeDEE原创 2020-08-18 17:26:41 · 213 阅读 · 0 评论 -
损失函数loss总结
损失函数loss总结1.What2.常见的损失函数回归任务均方误差补充分类任务交叉熵(cross entropy)3.未完待续1.What在机器学习中,损失函数(loss function)是用来估量模型的预测值f(x)与真实值y的不一致程度。2.常见的损失函数回归任务均方误差一般最常用E(f;D)=1m∑i=1m(f(xi)−yi)2E(f;D)= \frac{1}{m} \sum_{i=1}^{m} (f(x_{i})-y_{i})^2E(f;D)=m1i=1∑m(f(xi)−y原创 2020-07-10 16:08:23 · 1247 阅读 · 0 评论 -
线性回归,逻辑回归总结
线性模型总结1.线性回归目标loss多元线性回归3.对数线性回归与广义线性模型对数线性回归广义线性模型对数几率回归对数几率函数表现形式loss补充1.线性回归学得f(xi)=ωTxi+b,使得f(x)≃yif(x_{i})=\omega ^ T x_{i} + b,使得f(x)\simeq y_{i}f(xi)=ωTxi+b,使得f(x)≃yi目标拟合数据loss均方误差----->目标(ω∗,b∗)=arg max(ω,b)∑i=1m(f(xi)−yi)2(\omeg原创 2020-07-09 17:34:33 · 263 阅读 · 0 评论 -
AUC相关问题
AUC相关问题1.What混淆矩阵ROC曲线2.How绘制ROC曲线AUC3.Why为何AUC作为评价指标补充1.What混淆矩阵真实\预测预测正例预测反例正例TP(真正例)FN(假反例)反例FP(假正例)TN(真反例)TPR = TP/(TP+FN) 真正例率FPR = FP/(TN+FP) 假正例率ROC曲线前者为纵轴后者为横轴画一曲线—即ROC曲线ROC曲线所围成的面积即AUC(Area Under ROC Curve)2.How绘原创 2020-07-09 15:32:58 · 357 阅读 · 0 评论