机器学习
sabcasjkd
是只小猴子
展开
-
[机器学习-笔记07] 支持向量机
1. 原理 直觉解释:SVM需要尝试找到满足红点和绿点分别到边界线的最小距离的最大值的那条边界。 2. Python案例实现 2.1 数据 案例中使用的数据结构如下(只展示了部分样本): 2.2 实现 代码部分与[机器学习-笔记06]逻辑回归的案例代码部分类似,主要在模型拟合那部分有所改动,因此相似的代码就省略了。 from sklearn.svm import SVC # 拟合模型 classifier = SVC(kernel = 'linear', random_state = 0) class原创 2021-04-19 15:22:27 · 145 阅读 · 0 评论 -
[机器学习-笔记06]逻辑回归
1.原理 假设函数 Sigmoid函数图像: 决策界限 代价函数 整合后的代价函数: 2. Python案例实现 2.1 数据 数据格式如下(只展示了部分样本): 2.2 实现原创 2021-04-19 14:41:56 · 250 阅读 · 0 评论 -
[机器学习-笔记05] 回归模型表现评估
1. R2 剩余平方和 共平方和 R2 2. 广义R2 随着新自变量的加入R2不会下降 [注1] 特征过多会造成模型过拟合。 广义R2 随着自变量个数的升高,Adj R^2会受到惩罚。原创 2021-04-18 20:44:43 · 164 阅读 · 0 评论 -
[机器学习-笔记04] 多项式回归
1. 原理 多项式回归方程: 应用情境: 2. Python案例实现 2.1 数据 共10条数据,如下: 2.2 实现 import numpy as np import pandas as pd from sklearn.model_selection import train_test_split from sklearn.linear_model import LinearRegression from sklearn.preprocessing import PolynomialFeatu原创 2021-04-18 18:36:35 · 115 阅读 · 0 评论 -
[机器学习-笔记03] 多元线性回归
1. 多元线性回归原理 多元线性回归的方程如下: 使用多元线性回归时需满足的假设: 线性、同方差性、多元正态分布、误差独立、无多重共线性 虚拟变量: 可以看下这篇对虚拟变量的直观介绍:什么是虚拟变量?怎么设置才正确? 虚拟变量陷阱: 所谓的“虚拟变量陷阱”就是当一个定性变量含有m个类别时,模型引入m个虚拟变量,造成了虚拟变量之间产生完全多重共线性,无法估计回归参数。 下图例子中若同时加入New York和California的虚拟变量则会使得D2=1-D1成立,从而造成多重共线性,掉入虚拟变量陷进。 因原创 2021-04-18 17:54:31 · 414 阅读 · 0 评论 -
[机器学习-笔记02] 简单线性回归
1. 简单线性回归原理 简单(一元)线性回归的方程如下: 二维平面表示: b0和b1的含义: 模型拟合: 2. Python案例实现 2.1 数据 我们用到的数据如下: 2.2 实现 # Simple Linear Regression # Importing the libraries import numpy as np import matplotlib.pyplot as plt import pandas as pd # Importing the dataset dataset原创 2021-04-17 11:37:54 · 220 阅读 · 1 评论