机器学习/深度学习
机器学习算法/深度学习算法
爱学习的小杠精
谦虚学习
展开
-
Python pip 国内镜像源
@PYTHON 国内pip install源很多时候python安装一些库、依赖包、打包镜像时,都会比较慢,此时可以借助国内的很多镜像源,加快库的安装速度。具体方式:pip install -i 国内镜像地址 包名==x.x.x(版本号)国内常用的镜像源地址:清华:https://pypi.tuna.tsinghua.edu.cn/simple阿里云:https://mirrors.aliyun.com/pypi/simple/中国科技大学 https://pypi.mirrors.ustc原创 2021-06-04 10:07:30 · 414 阅读 · 0 评论 -
机器学习中的一些小定理(原则)
机器学习中的一些小定理(原则)总结奥卡姆剃刀原则(OR)没有免费的午餐(NFL)奥卡姆剃刀原则(OR)若有多个假设和观察一致,则选择最简单的那个。没有免费的午餐(NFL)对于样本空间和假设空间,所有的学习算法,它们总误差的期望值相等(即所有算法的学习性能与随机胡猜差不多)。重要前提:所有“问题”出现的机会相同或者所有问题同等重要。...原创 2020-04-28 10:31:05 · 313 阅读 · 0 评论 -
CatBoost之解决prediction shift详细介绍----原理+技巧
CatBoost之解决预测偏移预测偏移Categorical features预测偏移 预测偏移,简而言之是训练样本XkX_kXk的分布F(Xk)∣XkF(X_k)|X_kF(Xk)∣Xk与测试样本XXX的分布F(X)∣XF(X)|XF(X)∣X之间产生的偏移。这种预测偏移存在于目前所有的梯度提升算法中,由目标泄露(target leakage)引起。CatBoost可以解决这一问题。...原创 2020-03-01 23:26:41 · 1763 阅读 · 0 评论 -
CatBoost详解--原理+类别特征处理的技巧+加速
CatBoost详解原创 2020-02-19 16:58:13 · 12284 阅读 · 1 评论 -
LightGBM详解--原理+技巧+参数
LightGBM详解原创 2020-02-12 15:36:04 · 3440 阅读 · 0 评论 -
XGBoost详解--原理+模型技巧
XGBoost详解原创 2020-01-20 17:26:07 · 2575 阅读 · 0 评论 -
EM算法----就在身边
EM算法---身边的算法贝叶斯网络原创 2020-01-17 17:44:14 · 628 阅读 · 0 评论 -
特征选择之过滤式、包裹式、嵌入式
常见的特征选择方法特征选择过滤式选择特征选择从原始特征集合中选出对当前学习任务有用的最重要的一些特征。特征选择的原因:(1)维度灾难:由于属性过多,导致维数灾难,若通过特征选择,则能大大减轻这一问题;(2)降低学习任务的难度:去除不相关的特征,将复杂的特征只留下关键特征,降低学习任务的难度。特征选择的步骤:第一步:先产生一个“候选子集”,并评价其好坏;第二步:基于以上评价结果...原创 2020-01-16 23:13:36 · 2865 阅读 · 0 评论 -
机器学习中类别不平衡问题
机器学习中类别不平衡的解决方法欠采样过采样再缩放--阈值移动类别不平衡是指分类任务中不同类别的训练样本数目差别很大的情况。一般而言,分类学习算法有一个共同的基本假设,即不同类别的训练样本比例相当,如果不同类别比例样本数量相差较大,则会对学习器造成干扰,故有必要对不平衡样本做处理。假定正类样本比较少,反类样本比较多。欠采样欠采样又称下采样,去除一些反类样本,使得正、反类样本数量相当,然后再进...原创 2020-01-14 17:29:06 · 836 阅读 · 0 评论 -
梯度提升与梯度下降
梯度提升与梯度下降梯度提升梯度提升原创 2020-01-14 15:21:55 · 2656 阅读 · 0 评论 -
聚类算法的两个基本问题----性能度量+距离计算
聚类算法的性能度量和距离计算性能度量距离计算性能度量1、性能度量的用处通过某种性能度量来评估聚类结果的好坏;可作为聚类过程的优化目标,从而找到更符合要求的聚类结果。2、性能度量的种类外部指标:将聚类结果与某个“参考模型”进行比较;内部指标:直接考察聚类结果而不利用任何模型作参考3、性能度量的计算外部指标:假设聚类给出的结果为λ\lambdaλ,参考模型给出的结果是λ...原创 2020-01-08 11:28:27 · 630 阅读 · 0 评论 -
集成学习之个体学习器的多样性
集成模型中个体学习器的多样性误差与分歧多样性度量多样性增强误差与分歧对所有样本x,令p(x)表示样本的概率密度,则在全样本上:∑i=1Twi∫A(hi∣x)p(x)dx=∑i=1Twi∫E(hi∣x)p(x)dx−∫E(H∣x)p(x)dx\sum_{i=1}^{T} w_{i} \int A\left(h_{i} | \boldsymbol{x}\right) p(\boldsymbol...原创 2020-01-08 09:51:36 · 1419 阅读 · 2 评论 -
最通俗易懂---多分类学习之OvO、OvR、MvM
多分类学习之OvO、OvR、MvM原创 2020-01-06 14:14:09 · 7838 阅读 · 5 评论 -
决策树详解--最通俗易懂的解释
决策树详解原创 2019-12-24 23:02:23 · 3418 阅读 · 0 评论