自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(5)
  • 收藏
  • 关注

原创 MNIST数据集:利用numpy编写第一个训练代码——SVM分类器

SVM的基本原理是找到一个超平面,将数据集中的不同类别尽可能地分开,同时保持超平面与最近的数据点(即支持向量)之间的间隔最大化。但缺点是对于大规模数据集的训练可能比较慢,对核函数和参数的选择敏感,且在某些噪声较大的数据集上可能表现不佳。:为了处理非线性问题,SVM引入了核函数,它可以将原始数据映射到更高维的空间中,在这个新的空间中寻找线性可分的超平面。:在现实世界的数据中,数据往往是非线性可分的。在SVM中,我们希望找到这样一个超平面,使得不同类别的数据点到这个超平面的距离(即间隔)最大化。

2024-07-23 09:12:08 720

原创 利用numpy编写的一个分类代码——KNN

KNN是一种基本的分类算法,其思想是:通过测量不同特征值之间的距离来进行分类。它的工作原理是:通过计算待分类样本与已知分类样本之间的距离,取距离最小的K个样本,看这K个样本中哪个类别最多,就把待分类样本分为这个类别。距离最近的3个样本,统计这3个样本中每个类别的出现次数,然后返回出现次数最多的类别作为分类结果。进行排序,得到按出现次数降序排列的列表,并返回出现次数最多的类别及其计数。在函数内部,首先计算了测试样本与所有输入数据之间的欧氏距离,并存储在。,用于统计每个类别在最近K个邻居中的出现次数。

2024-07-23 09:05:33 136

原创 MNIST数据集下的数字识别——利用torch包快速搭建两层神经网络

这个函数用于加载图像文件夹中的所有图像,将它们转换为灰度,并调整大小为28x28像素。: 这是主函数,它设置了设备(GPU或CPU),加载和处理训练数据,初始化模型和优化器,执行训练过程,并在训练结束后评估模型在测试集上的准确率。本文在这里是使用了小批量数据集,训练图片20张,如果需要增大训练数据,只要再图片处理函数和标签处理函数进行数字修改就可以了。类似,但是它读取的标签数量是固定的20个,这可能不适用于整个MNIST数据集。的类,定义了一个简单的前馈神经网络,包含两个全连接层。

2024-07-22 15:13:32 335

原创 MNIST数据集下的数字识别——批量归一化的应用

1. 数据加载与预处理imagedata函数功能:加载图像数据。 输入:图像文件夹路径。 过程: 读取文件夹中的所有图像文件。 逐个打开图像文件,转换为灰度图,并调整大小到 28x28。 将图像转换为浮点数数组,并进行归一化处理(除以 255)。 将所有图像堆叠成一个数组,并重新塑形为[图像数量, 784]的形状。 labeldata函数功能:加载标签数据。 输入:标签文件路径。 过程: 读取标签文件。 从文件中提取标签数据,每读取 8 个字节,转换为整数

2024-07-21 15:03:27 740

原创 【人工智能】利用numpy手动实现MNIST数据集下的数字识别

本文采用了最基本的神经网络技术,搭建了一个两层的神经网络,采用L2正则化。

2024-07-19 15:46:11 137

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除