机器学习
文章平均质量分 92
Tc.小浩
这个作者很懒,什么都没留下…
展开
-
机器学习-线性回归(从零实现以及简化实现)
如果有数据集,则跳过生成一个包含1000个样本的数据集, 每个样本包含从标准正态分布中采样的2个特征 torch.normal(mean, std, size)定义一个生成数据样本的函数2、保存到excel文件中数据生成的为tensor数据类型,保存到excel文件中,要转换格式为numpy类型。打开文件如下所示:读取文件的numpy数据格式4、初始化模型参数初始化模型参数,通过从均值为0、标准差为0.01的正态分布中采样随机数来初始化权重, 并将偏置初始化为0。5、定义模型y=WTX+原创 2022-10-26 22:52:43 · 1854 阅读 · 0 评论 -
几个聚类算法
文章目录一、什么是聚类二、聚类算法2.1聚类数据集2.2亲和力传播2.3聚合聚类2.4K均值2.5Mini-Batch K均值2.6光谱聚类为大家提供免费的GPU,比谷歌calob平台使用更简单,注册就送100个小时。如果想领取的小伙伴点击下面链接。https://jtedu.cmri.cn/web#/register?token=OGIzYzEwNjgtMzU2MS00NzZiLWEzN2QtMDI5MTAxMTM0MGQw一、什么是聚类聚类分析,即聚类,是一项无监督的机器学习任务。它包括自动发现原创 2022-05-14 09:55:03 · 2193 阅读 · 1 评论 -
自动编码器
文章目录自动编码器(AE)堆栈自动编码器SAE(深度自动编码器)自动编码器(AE)自动编码器是一种无监督的神经网络模型,可以学习到输入数据的隐含特征,称为编码(coding),同时用学习到的新特征可以重构出原始输入数据,称为解码(decoding)。从直观上来看,自动编码器可以用于特征降维,类似成分分析PCA,但是其相比PCA其性能更强,这是由于神经网络模型可以提取更有效的新特征。除了进行特征降维,自动编码器学习到的新特征可以送入有监督学习模型中,所以自动编码器可以起到特征提取器的作用。作为无监督学习模原创 2022-04-02 21:01:03 · 4267 阅读 · 0 评论 -
RBF神经网络-高斯核函数
文章目录一、RBF神经网络介绍1.1高斯函数代码实例高斯核函数中的Gamma一、RBF神经网络介绍从对函数的逼近功能而言,神经网络可分为全局逼近和局部逼近。局部逼近网络具有学习速度快的优点。径向基函数(Radial Basis Function,BRF)就属于局部逼近神经网络。是一种性能良好的前向网络,具有最佳逼近及克服局部极小值问题的性能。网络结构:首先是多个输入,中间的是径向基函数,常用的就是高斯核函数,最后是输出。1.1高斯函数高斯核函数的名称比较多,一下名称指的都是高斯核函数高斯核原创 2022-03-24 22:53:26 · 8960 阅读 · 0 评论 -
机器学习-支持向量机SVM
文章目录一支持向量1.0简介1.1算法思想软间隔实验部分SVM 是一个非常优雅的算法,具有完善的数学理论,虽然如今工业界用到的不多,但还是决定花点时间去写篇文章整理一下。一支持向量1.0简介支持向量机(support vector machines, SVM)是一种二分类模型,它的基本模型是定义在特征空间上的间隔最大的线性分类器,间隔最大使它有别于感知机;SVM还包括核技巧,这使它成为实质上的非线性分类器。SVM的的学习策略就是间隔最大化,可形式化为一个求解凸二次规划的问题,也等价于正则化的合页损失原创 2022-02-14 22:05:26 · 402 阅读 · 0 评论 -
线性神经网络-线性回归
文章目录1.1. 线性回归1.1.1. 线性回归的基本元素1.1.1.1. 线性模型1.1.1.2. 损失函数1.1. 线性回归回归(regression)是指一类为一个或多个自变量与因变量之间关系建模的方法。在自然科学和社会科学领域,回归经常用来表示输入和输出之间的关系。在机器学习领域中的大多数任务通常都与预测(prediction)有关。 当我们想预测一个数值时,就会涉及到回归问题。常见的例子包括:预测价格(房屋、股票等)、预测住院时间(针对住院病人)、预测需求(零售销量)等。但不是所有的预测都是原创 2021-11-27 20:46:09 · 6379 阅读 · 0 评论 -
机器学习-随机森林算法
文章目录前言集成学习的核心一、随机森林算法原理二、随机森林的优势与特征重要性指标2.1随机森林的优势2.2特征重要性指标三、提升算法概述四、Stacking堆叠模型五、硬投票和软投票1.1概念介绍1.2硬投票展示1.3硬投票和软投票效果对比硬投票:软投票六、Bagging策略决策边界展示八、OOB袋外数据的作用九、特征重要性可视化展示十、AdaBoost算法决策边界展示十一、Gradient Boosting梯度提升算法前言在机器学习中,随机森林是一个包含多个决策树的分类器, 并且其输出的类别是由个别树原创 2022-02-14 16:36:19 · 9176 阅读 · 2 评论 -
机器学习-决策树
文章目录一、决策树二、熵的作用三、决策树构造实例四、信息增益率和gini系数五、决策树剪枝策略六、分类、回归任务一、决策树决策树是一种树形结构,其中每个内部节点表示一个属性上的测试,每个分支代表一个测试输出,每个叶子节点代表一种类别。从根节点开始一步步走到叶子节点。所有的数据最终都会落到叶子节点,既可以做分类也可以做回归将一家人看做为是一份数据,输入到决策树中,首先会进行年龄的判断是否大于15岁(人为主观认定的数值),如果大于15,就判断为有较小可能性玩游戏,小于或等于15岁则认为有较大的可原创 2022-02-12 17:37:44 · 1506 阅读 · 0 评论 -
机器学习 K-Means(++)算法
文章目录聚类概念聚类与KmeansK-Means算法步骤:优缺点K-Means++算法K-Means++算法的基本思路二分K-Means算法Mini Batch K-Means算法KMeans小结聚类概念无监督问题:没有标签聚类:相似的东西分到一组难点:如果评估,如何调参聚类算法KMeans是无监督学习的杰出代表之一。本文是记录自己过去学习KMeans算法的系统小结,将从“KMeans简介,优缺点与优化策略,结合EM算法解释KMeans以及手推KMeans”几个方面来尽可能彻底、清晰地搞明白这原创 2022-02-09 20:52:03 · 28393 阅读 · 4 评论 -
机器学习-DBSCAN聚类算法
文章目录DBSCAN算法原理DBSCAN算法流程DBSCAN的参数选择Scikit-learn中的DBSCAN的使用DBSCAN优缺点总结K-Means算法和Mean Shift算法都是基于距离的聚类算法,基于距离的聚类算法的聚类结果是球状的簇,当数据集中的聚类结果是非球状结构时,基于距离的聚类算法的聚类效果并不好。与基于距离的聚类算法不同的是,基于密度的聚类算法可以发现任意形状的聚类。在基于密度的聚类算法中,通过在数据集中寻找被低密度区域分离的高密度区域,将分离出的高密度区域作为一个独立的类别。DB原创 2022-02-05 21:23:47 · 5435 阅读 · 0 评论 -
机器学习-模型评估方法sklearn对MINST数据集实现
文章目录1.MINST数据集下载2.训练一个二元分类器2.1随机梯度下降 (SGD)分类器1.MINST数据集下载数据共有7万张图片,每张图片有784个特征。因为图片是28×28像素,每个特征代表了一个像素点的强度,从0(白色)到255(黑色),X[36000]的数字如下,通过“y[36000]”查看其标签为“5”。import osimport os.pathimport urllibimport gzipimport shutilimport numpy as npimport ma原创 2022-01-16 21:59:05 · 1177 阅读 · 0 评论 -
机器学习-回归算法
文章目录一、线性回归概念二、梯度下降三、逻辑回归一、线性回归概念线性回归是利用数理统计中回归分析,来确定两种或两种以上变量间相互依赖的定量关系的一种统计分析方法,运用十分广泛。其表达形式为y = w’x+e,e为误差服从均值为0的正态分布。回归分析中,只包括一个自变量和一个因变量,且二者的关系可用一条直线近似表示,这种回归分析称为一元线性回归分析。如果回归分析中包括两个或两个以上的自变量,且因变量和自变量之间是线性关系,则称为多元线性回归分析。列子:根据“工资”和“年龄”来预测“额度”的大小。其原创 2022-01-14 19:44:44 · 565 阅读 · 0 评论