机器学习
学习一些机器学习的模型
棉马咪
这个作者很懒,什么都没留下…
展开
-
集成学习
Bagging通过少量的数据集,得到了多组分布不同的数据集。然后每一个数据集对可以采用不同的算法进行预测。在“组合投票”里,有k个不同的模型,当有新的数据输入进来时,则可以产生k个不同的预测结果,再进行“以少数服从多数”来进行投票判断。鸢尾花数据集分类from sklearn.datasets import load_irisimport matplotlib.pyplot as pltfrom sklearn.linear_model import LogisticRegression原创 2021-04-02 14:06:01 · 70 阅读 · 0 评论 -
KNN算法
算法主要思想已知多个样本的分类情况(假设如下图所示)。其中有两个分类,可以简记为红类/蓝类。而黑点则是带判断的目标点。K代表与目标点(黑点)距离最近的K个点。计算黑点与K个点之间的距离(这里可以采用欧式距离)按照少数服从多数的规则,确定目标点的类别。例如,距离黑点最近的5个点当中,红点占3个,蓝点占2个,则该黑点属于红类。该算法的思路较为简单粗暴。缺点如下所示:python实现···SKlearn对鸢尾花数据集进行分类...原创 2021-03-30 21:52:23 · 95 阅读 · 0 评论 -
单层感知机
注意:上面的损失函数用的是平方差损失函数。以下是代码实现部分:import numpy as npimport matplotlib.pyplot as pltx = np.array([[1, 3, 3], [1, 4, 3], [1, 1, 1], [1, 0, 2]])y = np.array([[1],[1], [-1], [-1]])w = (np.random.random((3,1))-0...原创 2021-03-27 13:38:19 · 117 阅读 · 0 评论 -
正确率/召回率/F1指标
举例:原创 2021-03-25 20:02:10 · 249 阅读 · 0 评论 -
逻辑回归(主用于分类)
逻辑回归对于线性回归问题来讲:损失函数不一定是凸函数,因此可能找不到极小值点。那么在逻辑回归里,需要定义一种能反映真实值和预测值之间关系,同时又是凸函数的代价函数。线性回归的代价函数逻辑回归的代价函数:综合起来可以写如下的函数:注:这个公式也就是交叉熵公式...原创 2021-03-25 19:51:41 · 221 阅读 · 0 评论 -
数据归一化/均值标准化/交叉验证/过拟合
数据归一化:将数据的取值范围取到0~1之间,或者-1 ~ 1之间。0-1之间:(x−xmin)/(xmax−xmin)(x - x_{min})/(x_{max}-x_{min})(x−xmin)/(xmax−xmin)-1 - 1之间: ((x−xmin)/(xmax−xmin)−0.5)∗2((x - x_{min})/(x_{max}-x_{min})-0.5)*2((x−xmin)/(xmax−xmin)−0.5)∗2均值标准化:x为特征数据, u为数据的平均值, s为数据的方差,原创 2021-03-24 12:11:05 · 2022 阅读 · 0 评论 -
回归
回归分析用来建立方程模拟自变量和应变量之间的关系。一元线性回归包含一个自变量和一个应变量如果包含两个以上的自变量,则称为多元回归分析。原创 2021-03-22 17:00:04 · 233 阅读 · 2 评论