自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(13)
  • 收藏
  • 关注

原创 机器学习-PCA(主成分分析)

主要了解PCA其中一个计算方法的具体流程。其原理也只是稍稍带过。

2024-01-01 21:50:29 896

原创 支持向量机

表示超平面上任意的点,b表示一个位移项。1可以为任何值(可以为0、-1等等)。这只是简单的介绍,在其他博客中有很多具体的,可以更好的助于理解svm。怎么求解最大间隔,就是对该超平面进行平移,直到碰到训练点,然后计算离两条平面最大距离。其实就是找到一个最近的决策边界,去求解一个超平面。那我们要最大化该间隔width,就要最小化法向量模。那假设有上述样本,可以有很多超平面将它们分开,我们怎么抉择呢?利用拉格朗日优化方法可以把最大间隔问题转换为比较简单的对偶问题。那主要就是设计一个函数,这个函数就叫核函数。

2023-12-18 20:04:22 48

原创 机器学习-逻辑斯蒂回归

逻辑斯蒂回归还是很常用到的,不论是在深度学习还是在机器学习。其主要思想还是添加一个值永远在0-1之间的函数来进行一个类似于归一化的操作。当然这种函数很多,sigmoid是一个很经典的函数。

2023-12-04 10:10:05 56

原创 机器学习-朴素贝叶斯算法

回到其是否是好瓜坏瓜的问题,由于其分母是P(X)不论求好瓜还是坏瓜的概率都是不变的,那么我们只需要求分子即可。首先我们需要一些样本,其中P(c)是可以得到的,即是好瓜或坏瓜的概率,P(x|c)同样,在样本是好瓜或坏瓜的情况下某属性值的概率,将这些概率相乘即可。对于c=好瓜和c=坏瓜的最终值比较大小即可得到该属性(测试的瓜)是好瓜还是坏瓜了。这就导致了一个问题,即使其他属性的取值明显指向某一类别,由于某一属性取值的概率为零,最终的乘积也会为零,这显然是不合理的。先验就是根据历史的数据来推测现有数据的概率。

2023-11-20 16:38:28 72

原创 机器学习-决策树简单理解

分类问题中,假设D有K个类,样本点属于第k类的概率为𝑝𝑘则p_k,则概率分布的基尼值定义为:Gini(D越小,数据集D的纯度越高。给定数据集D,属性a的基尼指数定义为:那么做这些的目的是为了选择一个最优属性作为根节点,其他属性依次作为分支节点。在最开始我们可以认为的去选择最优。那么机器它对于一个给定的数据集合需要去学习一个最优解。通过这些标准去评判最终构造一个决策树。

2023-11-06 20:55:02 51

原创 机器学习-ROC和PR曲线的简单理解和python代码绘制

这只是ROC和PR曲线的简单理解和实现,并没有太多的深入。像置信度等等内容没有去说明,以及各个曲线的意义。主要理解其用法和绘制。

2023-10-23 19:27:16 483

原创 机器学习算法-KNN

从最终的测试数据来看,k并没有太大影响预测结果.我认为其可能的原因是数据集太小,测试数据太少导致.如果加大测试集的量或许会有更明显的结果.

2023-10-09 19:54:09 35

原创 机器学习环境搭建(vscode+anaconda安装+conda环境激活)

机器学习环境下载安装激活

2023-09-25 20:23:51 101

原创 学习记录 pytorch 线性回归

线性回归

2022-07-09 13:15:42 196 1

原创 学习记录 pytorch 反向传播

反向传播学习记录

2022-07-08 16:22:32 335

原创 学习记录 pytorch 梯度下降

梯度下降学习记录

2022-07-08 10:31:36 80

原创 学习记录 pytorch 线性模型

pytorch学习

2022-07-07 17:08:06 326

原创 学习记录 计算机视觉 Bag Of Features

计算机视觉学习记录

2022-07-06 20:08:12 524

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除