机器学习
文章平均质量分 50
冥更
٩(๑•̀ω•́๑)۶
展开
-
用Python实现SVD推荐算法
将预测评分矩阵分解为用户特征矩阵和项目特征矩阵,预测评分计算式为:目标函数为:根据梯度下降计算,参数更新式为:该算法的Python代码为:import mathimport randomimport matplotlib.pyplot as plt# 求平均值def Average(fileName): fi = open(fileName, 'r') r...原创 2018-11-24 19:40:04 · 4563 阅读 · 12 评论 -
朴素贝叶斯分类器原理介绍及python代码实现
频率学派和贝叶斯学派说起概率统计,不得不提到频率学派和贝叶斯学派,通过对概率的不同理解而演变的两个不同的概率学派。频率学派 核心思想:需要得到的参数是一个确定的值,虽然未知,但是不会因为样本的变化而变化,样本数据随机产生的,因此在数据样本无限大时,其计算出来的频率即为概率。其重点主要在于研究样本空间,分析样本的分布 延展应用:最大似然估计(MLE) 贝叶斯学派 核心思想:需要得到的参数是随机变量,而样本则是固定的,其重点主要在于研究参数的分布。 由于在贝叶斯原创 2021-12-16 22:39:39 · 16008 阅读 · 10 评论 -
偏序集和格
原博地址:https://www.cnblogs.com/sean10/p/5003777.html重新看一下关于格的知识具有极值性质的偏序集元素有许多重要应用。其中偏序集的一个元素叫做极大的,当它不小于这个偏序集的任何其他元素,即在偏序集中是极大的。这里有个问题,什么叫做极大的?偏序集难道只有大小关系吗,不是说关系是任意的吗。难道说这个偏序集的大小关系其实就是是否满足这个偏序集所...转载 2019-07-11 10:08:20 · 5563 阅读 · 0 评论 -
机器学习之特征工程
原博地址:https://www.cnblogs.com/wxquare/p/5484636.html一、特征工程概述 “数据决定了机器学习的上限,而算法只是尽可能逼近这个上限”,这里的数据指的就是经过特征工程得到的数据。特征工程指的是把原始数据转变为模型的训练数据的过程,它的目的就是获取更好的训练数据特征,使得机器学习模型逼近这个上限。特征工程能使得模型的性能得到提升,有时...转载 2019-04-29 09:05:27 · 263 阅读 · 0 评论 -
算法刷题的网站
leetcodehttp://leetcode.com/careeruphttp://www.careercup.com/http://hawstein.com/posts/ctci-solutions-contents.htmlglassdoorhttp://www.glassdoor.com/index.htmtopcoderhttp://www.topcode...原创 2019-04-23 09:52:36 · 7737 阅读 · 0 评论 -
lightGBM参数介绍
parameters 含义 用法 max_depth 树的最大深度 当模型过拟合时,可以考虑降低 min_data_in_leaf 叶子可能具有的最小记录树 默认20,过拟合时用 feature_fraction 例如为0.8时,表示每次迭代中随机选择80%的参数来建树 boosting为random forest时使用...原创 2019-03-13 08:25:49 · 3606 阅读 · 0 评论 -
light GBM的使用
目录载入数据参数设置训练模型交叉验证Early Stop预测GOSSEFBlight GBM是微软开源的一种使用基于树的学习算法的梯度提升框架。文档地址:官方文档源码地址:github中文文档地址:中文文档论文地址:lightgbm-a-highly-efficient-gradient-boosting-decision-tree参考博客...原创 2019-03-20 17:54:11 · 10572 阅读 · 1 评论 -
xgboost的理解
参考July的博客对xgboost有了一些理解1.回归树和分类树xgboost是由多个CART(分类回归树,Classification And Regression Tree)集成,首先需要理解分类树和回归树的概念分类树和回归树的概念较为相似,不同的是分类分析是预测结果所属的类别,例如预测房价是涨还是跌;回归分析则是预测结果的确切值,例如预测房价的具体值。在解决分类树问题时一般使用信息增...原创 2019-03-11 19:51:44 · 4065 阅读 · 0 评论 -
sklearn.svm.SVR的参数介绍
sklearn.svm.SVR(kernel ='rbf',degree = 3,gamma ='auto_deprecated',coef0 = 0.0,tol = 0.001,C = 1.0,epsilon = 0.1,shrinking = True,cache_size = 200,verbose = False,max_iter = -1 )参数: kernel : ...原创 2018-12-27 20:41:39 · 56838 阅读 · 2 评论 -
深入理解拉格朗日乘子法(Lagrange Multiplier) 和KKT条件
在求解最优化问题中,拉格朗日乘子法(Lagrange Multiplier)和KKT(Karush Kuhn Tucker)条件是两种最常用的方法。在有等式约束时使用拉格朗日乘子法,在有不等约束时使用KKT条件。 我们这里提到的最优化问题通常是指对于给定的某一函数,求其在指定作用域上的全局最小值(因为最小值与最大值可以很容易转化,即最大值问题可以转化成最小值问题)。提到KKT条件一般会附带的提一...转载 2018-03-27 11:09:18 · 395 阅读 · 0 评论 -
从1,2,3,…..98,99,2015这100个数中任意选择若干个数(可能为0个数)求异或,异或结果每位数为0和1概率相同的理解。
在1,2,3,...,98,99这99个数中任意选择若干个数的选法一共有种,而在1,2,3,...,98,99,2015这100个数中任意选择若干个数的选法一共有种,因此在全部的选法中,出现2015的概率为(2^100-2^99)/2^100=0.5。由此可以推出每个数被选中的可能都为0.5。99的二进制数为 000 0110 0011;2015的二进制数为111 1101 1111,所以原创 2018-01-15 10:51:17 · 1601 阅读 · 0 评论