![](https://img-blog.csdnimg.cn/20201014180756918.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
机器学习
给时光以生命_
这个作者很懒,什么都没留下…
展开
-
特征工程
特征工程 常用方法: 标准化:xi−uσ\frac{x_i -u}{\sigma}σxi−u 归一化:xi−min(x)max(x)−min(x)\frac{x_i - min(x)}{max(x) - min(x)}max(x)−min(x)xi−min(x) 多项式: Label Encodel: One-hot Encoder: 为什么要进行feature scaling? 1.特征...原创 2020-03-25 09:58:29 · 85 阅读 · 0 评论 -
sklearn中SVM算法的使用
import numpy as np import matplotlib.pyplot as plt from sklearn import svm,datasets def make_meshgrid(x,y,h=0.02): """ x:data to base x-axis meshgrid on y:data to base y-axis meshgrid ...翻译 2019-11-24 16:21:05 · 576 阅读 · 0 评论 -
机器学习实战第五章 Logistic回归
Logistic回归主要思想:根据现有数据对分类边界线建立回归公式,以此进行分类。 5.1 基于Logistic回归和Sigmoid函数的分类 我们想要的函数是,能接受所有输入然后预测出类别。例如,在两类的情况下,上述函数输出0或1。单位阶跃函数具有这种性质,但是该函数在跳跃点上从0瞬间跳跃到1,这个瞬间跳跃过程有时很难处理。幸好,另一个函数Sigmoid也有类似性质。 $$ ...原创 2019-11-13 20:46:31 · 181 阅读 · 0 评论 -
机器学习实战第四章 朴素贝叶斯
4.1 基于贝叶斯决策理论的分类方法 贝叶斯决策理论的核心思想:选择高概率对应的类别 假设用p1(x,y)代表数据点(x,y)属于类别1的概率,p2(x,y)代表数据点(x,y)属于类别2的概率,如果p1(x,y)>p2(x,y),那么类别为1,反之为2. 4.2 条件概率 方法一: 条件概率公式:P(A|B)=P(AB)/P(B) 方法二: 贝叶斯准则: ...原创 2019-11-10 22:02:01 · 248 阅读 · 0 评论 -
机器学习实战第三章 决策树
内容简介: 决策树的构造 在Python中使用Matplotlib注解绘制树形图 测试和存储分类器 示例:使用决策树判断隐形眼镜类型 Part 1 决策树的构造 决策树优缺点: 优点:计算复杂度不高,输出结果易于理解,对中间值的缺失不敏感,可以处理不相关特征数据 缺点:可能会产生过度匹配问题 算法流程: 在构造决策树时,我们首先要解决的问题是,当前数据集上哪个特征在划分数据分类时起决定性作用...原创 2019-10-20 12:02:48 · 323 阅读 · 0 评论 -
机器学习实战第二章K-近邻算法
概述 k近邻算法: 采用测量不同特征值之间距离的方法进行分类 优缺点: 优点:精度高,对异常值不敏感,无数据输入假定 缺点:计算复杂度高,空间复杂度高 适用数据范围:数值型和标称型 工作原理: 存在一个样本数据集合,也称作训练样本集,并且样本集中每个数据都存在标签,即我们知道样本集中每一数据与所属分类的对应关系。输入没有标签的新数据后,将新数据的每个特征与样本集中数据对应的特征比较,然后算法提取...原创 2019-10-14 12:55:36 · 155 阅读 · 0 评论 -
西瓜书学习笔记 第3章 线性模型
原创 2019-09-09 15:01:28 · 111 阅读 · 0 评论