机器学习
a19910112
这个作者很懒,什么都没留下…
展开
-
【机器学习】逻辑回归和sklearn运用实战(Logistic Regression)
逻辑回归(Logistic Regression)逻辑斯底回归是用于解决分类问题的一种方法,可以用于二分类,也可以用于多分类。二分类:P(Y=1∣x)=exp(w⋅x+b)1+exp(w⋅x+b)P(Y=1|x)=\frac{exp(w\cdot{x}+b)}{1+exp(w\cdot{x}+b)}P(Y=1∣x)=1+exp(w⋅x+b)exp(w⋅x+b)\qquad\quadP(Y=...原创 2019-05-02 04:42:05 · 3918 阅读 · 0 评论 -
【机器学习】决策树和sklearn运用实战
决策树决策树既可以用于分类问题,也可以用于回归问题。熵是表示随机变量不确定性的度量,熵越大,随机变量的不确定性就越大。熵的计算如下:H(X)=−∑i=1npilogpiH(X)=-\sum\limits_{i=1}^np_ilogp_iH(X)=−i=1∑npilogpi决策树有三种选择特征的方式:信息增益:g(D,A)=H(D)−H(D∣A)g(D,A)=H(D)-H(D|A)g(...原创 2019-05-02 12:11:50 · 439 阅读 · 0 评论 -
【模型评估】k折交叉验证和sklearn运用实战(cross validation)
k折交叉验证(cross validation)留一法是特殊的k折交叉验证。k折交叉验证主要用于判断是否过拟合。k折交叉验证一般采用分层采样法取得训练集和验证集。分层采样是指,每个类按照比例在总体中随机取数据。k折交叉验证(cross validation)实例这是之前用过的逻辑回归的例子,重点放在后面的交叉验证上。用sklearn中的数据集iris导入需要的包from sklearn...原创 2019-05-02 12:07:31 · 7531 阅读 · 0 评论 -
【数据处理】numpy、pandas、matplolib之scatter可视化
numpy and pandasnumpy和pandas是python中做数据处理必不可少的工具numpy and pandas实例原创 2019-05-02 15:58:24 · 735 阅读 · 0 评论 -
【机器学习】pca和sklearn运用实战
pcapca可用于数据降维,也可以用于特征选择。pca通过将数据集映射到方差最大的方向上,保留影响分类最大的因素,减少数据维数。pca求解方法pca如何将数据集映射到方差最大的方向上呢?对于方阵而言通过特征值λ\lambdaλ和特征向量xxx,即Ax=λxAx=\lambda xAx=λx,将特征值从大到小排序,选择特征值较大的特征向量就是方差较大的方向。对于不是方阵的矩阵通过SVD...原创 2019-05-03 16:22:09 · 771 阅读 · 0 评论 -
【机器学习】SVM和sklearn运用实战
SVM给定训练数据集T={(x1,y1),(x2,y2),...(xN,yN)}T=\{(x_1, y_1),(x_2,y_2),...(x_N,y_N)\}T={(x1,y1),(x2,y2),...(xN,yN)}和超平面(w,b)(w,b)(w,b),若用SVM求解需要首先确定TTT可由超平面(w,b)(w,b)(w,b)线性可分,如果非线性可分,需要先选择核函数做变换,使得变...原创 2019-05-03 23:12:34 · 984 阅读 · 0 评论 -
【模型评估】ROC曲线和sklearn实战
ROC曲线同一个问题可以有多种解决方法,如何选择最优的解决方法呢?这里介绍模型评价标准之ROC曲线。ROC 曲线的纵轴是"真正例率" (True Positive Rate,简称TPR) ,横轴是"假正例率" (False PositiveRate,简称FPR)两者分别定义为,TPR=TP/(TP+FN)FPT=FP/(TP+FP)AUC (Area Under ROC Curve) ...原创 2019-05-04 12:17:10 · 1393 阅读 · 0 评论 -
【数据处理】numpy、pandas、matplotlib之bar可视化
barbar实例原创 2019-05-06 16:38:29 · 982 阅读 · 0 评论