机器学习
机器学习知识点总结
铁血阿张
这个作者很懒,什么都没留下…
展开
-
第七周:逻辑回归(Logistic Regression)
逻辑回归(Logistic Regression)1 概述2 损失函数3 梯度下降4 决策边界和多项式5 正则化1 概述逻辑回归,是一种名为“回归”的线性分类器,其本质是由线性回归变化而来的,一种广泛使用于分类问题中的广义回归算法,叫着“回归”的名背地里却做着“分类”的事,完美诠释“曲线救国”。线性回归的任务,就是构造一个预测函数来映射输入的特征矩阵x和标签值y的线性关系,而构造预测函数的核...原创 2020-04-11 16:16:51 · 510 阅读 · 0 评论 -
第六周:概念补充
概念补充1 偏差和方差1.1 偏差和方差的定义1.2 模型泛化误差1.3 偏差与方差的权衡2 模型正则化2.1 L1正则化2.2 L2正则化1 偏差和方差1.1 偏差和方差的定义一个集成模型(f)在未知数据集(D)上的泛化误差E(f;D),由方差(var),偏差(bais)和噪声(ε)共同决定。下面的图像,每个点就是集成算法中的一个基评估器产生的预测值。红色虚线代表着这些预测值的均值,...原创 2020-04-05 20:36:20 · 161 阅读 · 0 评论 -
第五周:梯度下降法
1 梯度下降法1.1 场景假设一个人被困在山上,需要从山顶到山谷。但此时雾很大,看不清下山的路径。他必须利用自己周围的信息去找到下山的路径。这个时候,他就可以利用梯度下降算法来帮助自己下山。具体来说就是,以他当前的所处的位置为基准,随机选择一个方向,然后每次迈步都选择最陡的方向。然后每走一段距离,都反复采用同一个方法:如果发现脚下的路是下坡,就顺着最陡的方向走一步,如果发现脚下的路是上坡,就...原创 2020-03-29 16:33:22 · 226 阅读 · 0 评论 -
第四周:线性回归
线性回归1 多元线性回归1.1 基本原理1.2 linear_model.LinearRegression2 多重共线性:岭回归与Lasso2.1 岭回归2.2 linear_model.Ridge2.3 Lasso2.4 linear_model.Lasso3 非线性问题:多项式回归1 多元线性回归1.1 基本原理多元线性回归指的就是一个样本有多个特征的线性回归问题。对于一个有个特征的样本...原创 2020-03-22 21:34:31 · 298 阅读 · 0 评论 -
第三周:数据预处理
数据预处理1.无量纲化1.1 最值归一化(MinMaxScaler)1.2 均值方差归一化(StandardScaler)2.缺失值处理2.1 impute.SimpleImputer3.处理分类型特征3.1 标签编码(preprocessing.LabelEncoder)3.2 特征编(preprocessing.OrdinalEncoder)3.3 哑变量(preprocessing.OneH...原创 2020-03-12 12:13:49 · 452 阅读 · 0 评论 -
第二周:如何评价模型好坏
1. 数据拆分数据拆分,即划分训练数据集&测试数据集现在也多直接调用sklearn中的库from sklearn.model_selection import train_test_splitX_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.3, random_state=10)"注意X_...原创 2020-03-05 13:15:24 · 738 阅读 · 0 评论 -
第一周:KNN算法求解约会网站问题
1.KNN算法简介K近邻法(k-nearest neighbors, KNN)是一种很基本的机器学习方法了,在我们平常的生活中也会不自主的应用。比如,我们判断一个人的人品,只需要观察他来往最密切的几个人的人品好坏就可以得出了,这里就运用了KNN的思想。KNN方法既可以做分类,也可以做回归。2.KNN流程框图在建立训练集时,就要确定训练数据及其对应的类别标签;然后把待分类的测试数据与训练集数据...原创 2020-03-01 18:04:53 · 298 阅读 · 0 评论