笔记
小小小小U
这个作者很懒,什么都没留下…
展开
-
集成模型思想篇:从bagging到RF,从boosting到AdaBoost、BDT→GBDT→XGBOOST→LGBM,一步步理解并记忆
本文主要记录和分享个人对集成学习模型学习后的一些总结,略去严格的数学推导过程,重点在于阐述各个不同模型的思想、关系和异同,方便理解和记忆------ 集成模型就是认为一个机器学习器的学习能力(包括学习方向、学习范围)都是单一有限的,为了加强学习能力,可以把很多个同样的学习器对同一数据集进行学习后的结果进行加权,得到的一个平均结果作为最终结果。这个最终结果综合了各个学习器的学习能力,优劣互补、互相牵制,再提升学习能力的同时避免了单个学习器可能产生较大偏差而带来的影响。------这种思想就和找有很多个评原创 2020-07-19 22:33:57 · 3225 阅读 · 0 评论 -
核函数------直观理解
带你深透地理解核函数一、核函数的作用二、核函数运用和解释三、核函数使用过程一、核函数的作用1、要搞懂核函数,第一步就是要明白为什么要用核函数机器学习的分类方法,就是找到一个标准,能把当前要做分类的数据集正确的分类好;这个标准的探索过程就是利用已有数据集(训练集)去不断学习、调优,最终得到一个满足条件的标准就是结果。SVM支持向量机(二分类)就是找到一个超平面作为分类标准,在这个超平面的同一侧所有数据点是第一类,另一侧所有数据点是第二类。超平面可以简单理解为线性表达,在二维中超平面是一根直线,三维原创 2020-06-14 17:27:35 · 1643 阅读 · 1 评论 -
逻辑回归(Logistic Regression)最形象简单、通俗易懂的理解方式
最形象直观的方式理解逻辑回归一、思想由来(买衣服例子)二、结合例子简单推导过程三、与线性回归关系四、实际例子逻辑回归(Logistic Regression)的目的是分类,最开始是从逻辑分类(即二分类)展开并进一步扩充的,思想来源于线性回归,故名逻辑回归。本文从简单形象的例子出发,解释逻辑回归的思想和推导过程,通俗易懂,只要接触过概率论就能看得明白。一、思想由来(买衣服例子)——比如来到商场,看见一件衣服你比较喜欢,你会更仔细打量它,并决定是否购买,你的内心经过 博弈后做出最终方案:买与不买,逻辑原创 2020-06-09 23:02:42 · 3724 阅读 · 1 评论 -
TSP问题解决:模拟退火、贪心法、爬山法,Python实现
一、TSP问题1、TSP问题描述简单来说,就是给定一些点,找出一条通过所有点的回路,使得回路最短旅行商问题,即TSP问题(Traveling Salesman Problem)又译为旅行推销员问题、货郎担问题,是数学领域中著名问题之一。假设有一个旅行商人要拜访n个城市,他必须选择所要走的路径,路径的限制是每个城市只能拜访一次,而且最后要回到原来出发的城市。路径的选择目标是要求得的路径路程为...原创 2020-04-30 00:26:19 · 6856 阅读 · 0 评论 -
基于朴素贝叶斯网络的iris鸢尾花数据集分类到新闻分类
本篇文章是对最简单的朴素贝叶斯网络的运用进行python实践,先对iris鸢尾花数据集做一个分类预实验,再对实际新闻进行分类预测有关贝叶斯网络原理可以查看这篇文章 :贝叶斯网络基础一、iris鸢尾花数据集分类1、开头先导入相关模块:import matplotlib.pyplot as plt # 绘图from sklearn.datasets import load_iris #导...原创 2020-04-26 01:41:22 · 6566 阅读 · 1 评论 -
基于支持向量机的数据分类以及绘制决策边界(超平面)
基于支持向量机的数据分类以及绘制决策边界(超平面)为了方便结果可视化,本文主要利用二维数据点进行讨论目录:1、导入数据并观察数据:2、对训练函数3、绘制决策边界(超平面)观察分类效果4、利用这四组参数对测试集进行测试并绘制图像首先开始就列出利用的库# coding:utf-8import numpy as npimport matplotlib.pyplot as pltfr...原创 2020-04-14 14:30:52 · 6281 阅读 · 1 评论 -
基于支持向量机的新闻分类
利用支持向量机模型对2万条新闻进行分类一、文本预处理1、新闻用txt文件装,每一行一个新闻,为了减轻矩阵维数,只选择包括标题在内的与新闻内容最相关的前100个字。2、对新闻进行jieba分词,分词后每一行是一条新闻的词语,格式是一个List二、求文本的TF-IDF矩阵直接上代码和注释,关于矩阵原理以及应用可翻看:点这里# coding:utf-8from sklearn.feat...原创 2020-04-07 21:16:34 · 2936 阅读 · 5 评论