机器学习
文章平均质量分 85
机器学习流程、算法
dalangtaosha999
这个作者很懒,什么都没留下…
展开
-
机器学习-04概念-08 归一化
话不多说,先上一段代码,自己体会:from sklearn.preprocessing import MinMaxScaler #导入库data = np.random.randint(0,5,size=5) #随机生成长度为5的数据print('原始数据:', data, sep='\n')m = MinMaxScaler() #建立一个归一化器data_1 = m.fit_transform(data) #利用m对data进行归一化,并储存data的归一化参数。原创 2024-01-04 17:18:39 · 804 阅读 · 1 评论 -
机器学习--02算法--08支持向量机SVM
支持向量机(Support Vector Machine,SVM)是一个经典的二分类算法,它的目的是寻找一个超平面来对样本进行分割,分割的原则是间隔最大化,最终转化为一个凸二次规划问题来求解。它具体包括三种类型,由简至繁的模型包括:(1) 当训练样本线性可分时,通过硬间隔最大化,学习一个线性可分支持向量机;(2) 当训练样本近似线性可分时,通过软间隔最大化,学习一个线性支持向量机;(3) 当训练样本线性不可分时,通过核技巧和软间隔最大化,学习一个非线性支持向量机;原创 2023-05-03 19:31:46 · 65 阅读 · 0 评论 -
机器学习--02算法--06分类器的性能评估
本文介绍分类器的性能评估,不同于回归器的性能评估方式–准确率,分类器有自己的评估方式。原创 2023-04-28 20:08:04 · 86 阅读 · 0 评论 -
机器学习--02算法--07决策树
熵的概念最早起源于,热力学中表征物质状态的参量之一,其物理意义是体系混乱程度的度量,即用于度量一个热力学系统的无序程度。在信息论里面,熵是对信息不确定性的测量。熵越高,信息的不确定性越大,预测的难度越大,则能传输越多的信息;熵越低,信息的不确定性越小,即信息很容易预测到,则意味着传输的信息越少。原创 2023-04-28 16:47:31 · 81 阅读 · 0 评论 -
机器学习--02算法--05逻辑回归和Softmax回归
本文介绍两种基本的分类方法,逻辑回归和softmax回归。原创 2023-04-21 14:10:40 · 167 阅读 · 0 评论 -
机器学习--02算法--04感知机
感知机概述原创 2023-03-25 22:51:27 · 65 阅读 · 0 评论 -
机器学习--02算法--00前馈神经网络矩阵结构
神经网络矩阵结构原创 2023-03-24 11:21:33 · 86 阅读 · 0 评论 -
机器学习--02算法--03Lasso回归算法(Lasso Regression Algorithm)
Lasso回归原创 2023-03-22 16:04:55 · 310 阅读 · 0 评论 -
机器学习--02算法--02岭回归(Ridge Regression Algorithm)
岭回归,是在线性回归的代价函数上增加L2范数原创 2023-03-22 14:37:38 · 201 阅读 · 0 评论 -
机器学习--02算法--01线性回归(5)
从似然函数角度推出线性回归系数原创 2023-03-21 20:15:07 · 21 阅读 · 0 评论 -
机器学习--02算法--01线性回归(4)
线性回归第4篇---多元线性回归解析解原创 2023-03-21 17:57:44 · 22 阅读 · 0 评论 -
机器学习--02算法--01线性回归(3)
一元线性回归第3篇原创 2023-03-21 14:56:10 · 21 阅读 · 0 评论 -
机器学习--02算法--01线性回归(2)
此文为一元线性回归第2个。原创 2023-03-21 14:24:59 · 33 阅读 · 0 评论 -
机器学习--02算法--01线性回归(1)
本文是线性回归第1篇,最简单的推导方式,求得是一元线性的解析解原创 2023-03-21 10:51:37 · 31 阅读 · 0 评论