- 博客(6)
- 资源 (4)
- 收藏
- 关注
原创 Wide and Deep 理解
wide&deep 模型的核心思想是结合线性模型的记忆能力(memorization)和DNN 模型的泛化能力(generalization),在训练过程中同时优化两个模型的参数,从而达到整体模型的预测能力最优。 联合训练是指同时训练Wide模型和Deep模型,并将两个模型的结果的加权和作为最终的预测结果。对于类别特征,通过词典(Vocabularies)将其映射成向量;...
2020-03-30 16:57:12 1636
原创 用DBSCAN聚类经纬度坐标
用基于密度的聚类算法,计算坐标点聚集地,很好用。import pandas as pdimport numpy as npfrom sklearn.cluster import DBSCANfrom sklearn import metricsimport osdef dbscan(input_file): columns=['lon','lat'] in_df ...
2020-03-26 15:57:53 9020 9
原创 偏差和方差的简单理解
偏差度量了学习算法的期望预测与真实结果的偏离程度,即刻画了学习算法本身的拟合能力;方差度量了同样大小的训练集的变动所导致的学习性能的变化,即刻画了数据扰动所造成的影响;噪声则表达了在当前任务上任何学习算法所能达到的期望泛化误差的下界,即刻画了学习问题本身的难度。给定学习任务,假定我们能够控制学习算法的训练程度,则在训练不足时,学习器的拟合能力不够强,训练数据的扰动不足以使学习器产生显著...
2020-03-21 23:47:44 235
转载 模型融合的blending方法
模型融合有bagging, stacking, boosting,居然还有个blending!初学,初学^_^。https://www.cnblogs.com/makefile/p/stacking.html这篇文章写的很清楚,以下是部分原文。------------------------------------BaggingBagging的代表算法是随机森林,简单说下随机森林...
2020-03-06 14:08:41 6360
转载 LR与Linear SVM的区别与联系
LR和Linear SVM的相同点都是监督的分类算法都是线性分类算法另外这里需要说的就是LR也是可以加核函数的至于为什么不用,是原因的,后面再说。都是判别模型判别模型和生成模型是两个相对应的模型。判别模型是直接生成一个表示P(Y|X)P(Y|X)或者Y=f(X)Y=f(X)的判别函数(或预测模型)生成模型是先计算联合概率分布P(Y,X)P(Y,X)然后通过贝叶斯公式转化为条件概率...
2020-03-03 17:06:03 178
原创 计算条件熵的小例子
一个二进制源X发出符号集为{-1,1},经过离散无记忆信道传输,由于信道中噪音的存在,接收端Y收到符号集为{-1,1,0}。已知:P(x=-1)=1/4,P(x=1)=3/4,P(y=-1|x=-1)=4/5,P(y=0|x=-1)=1/5,P(y=1|x=1)=3/4,P(y=0|x=1)=1/4求:H(Y|X)。H(Y|X)=p(x=-1)*H(y|x=-1) + p(x=1)*H(y...
2020-03-02 18:15:39 4254
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人