自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(21)
  • 收藏
  • 关注

原创 torch.nn.CrossEntropyLoss()的一些小细节(原理和数学,softmax与dim,ignore_index,报错:0D or 1D target tensor expecte)

我们常见的分类问题都可以使用交叉熵损失函数,在实际使用中,二分类或者多分类都可以使用该交叉熵损失函数,不过有一些小小的区别。下文会详细说明,他们都是上面公式的灵活应用。

2024-07-21 07:13:20 640

原创 Pytorch量处理中的一些小细节(reshape和view,cat和Unet中心剪裁以及警告:UserWarning: non-inplace resize is deprecated warn)

注意:上述话的的意思其实就是,reshape方法会创建一个新张量,而view方法不会,他们两个返回的数据都是和原始张量在同一片空间,这一点我们可以使用resize_()方法进行验证,然后reshape会依据原始张量是否连续来进行相应的操作,但是view不行,如果原始数据不连续的话他就没办法操作里,(就会报错)。这里面很关键的一点就是copy_crop操作,该操作是先把对应步骤的张量复制,然后在某一步骤开始前进行中心裁剪和另一张量进行cat拼接,从而得到一个新的张量,用以后续步骤的进行。

2024-07-17 21:39:36 1050 1

原创 深度学习之DCGAN

DCGAN,全称是 Deep Convolution Generative Adversarial Networks(深度卷积生成对抗网络),是 Alec Radfor 等人于2015年提出的一种模型。该模型在 Original GAN 的理论基础上,开创性地 将 CNN 和 GAN 相结合 以 实现对图像的处理,并提出了一系列对网络结构的限制以提高网络的稳定性。DCGAN和GAN明显的区别就是,他的生成器使用的是转置卷积层,判别器使用的是卷积层。

2024-05-06 20:45:15 1009 1

原创 深度学习之GAN网络

模型经过交替优化训练,两种模型都能得到提升,但最终我们要得到的是效果提升到很高很好的生成模型(造假币的机器),这个生成模型(造假币的机器)所生成的产品能达到真假难分的地步。可以看出来在计算我们生成模型的损失值得时候,我们对我们伪造的图片进行判0得时候,这一块得损失值应当是增大的,因为实际上预测他的概率或者说最后输出层那一个神经元里面的数是应该不断接近一的。这个是判别器的目标函数,D(x)表示生成器判1的概率,D(G(x))表示生成器判0的概率,光从这里看这个应当是愈来愈大的。

2024-05-06 02:13:38 981

原创 深度学习之CNN

本次示例并没有进行优化,优化方式可以从以下几种方面考虑。1.卷积层的深度,一般而言,卷积模型的准确度会随着深度的增加而增加,但是会出现“退化现象”。2.卷积层相关参数的设置。3.池化方式4.全连接层的层数。

2024-04-18 14:07:33 1164 1

原创 BP实战之猫狗分类数据集

1.学习率是一个很关键的超参数不能太大也不能太小,经过多次调试,我选择了0.0012.我们的matplotlib画图,接受的numpy数组是H、W、C,分别对应numpy数组的三个维度和图片的高、宽、通道数。如果不是这样的形式还需要把形状给转一下,本次使用的是permute()函数。3.因为我们使用的是BP神经网络实现的,所以隐藏层使用多少层也是个值得思考的问题,层数多了参数开销会比较大,训练时间也会比较长一些,我这次使用的是四个隐藏层。

2024-04-10 20:08:18 1416 1

原创 深度学习之使用BP神经网络识别MNIST数据集

熵是用来描述一个系统的混乱程度,通过交叉熵我们就能够确定预测数据与真是数据之间的相近程度。交叉熵越小,表示数据越接近真实样本。(预测的概率就是我们的预测值的准确值)

2024-04-08 02:33:12 1260

原创 机器学习优化算法(深度学习)

关于梯度,可以看我的这篇博客,这里就不多加阐述了,我们先看一下百科的定义:很抽象对吧,别着急,慢慢来,我们要先了解一下泰勒展开式:什么是泰勒展开式呢?

2024-03-28 03:44:09 1484

原创 机器学习之决策树现成的模型使用

在代码实现之前,我们先要知道,sklearn里面的tree库中的一些关键模块。

2024-03-26 21:40:28 1099

原创 深度学习之感知机,激活函数,梯度消失,BP神经网络

我们先看一下百科给的解释感知器是生物神经细胞的简单抽象,神经细胞结构大致可分为:树突、突触、细胞体及轴突。单个神经细胞可被视为一种只有两种状态的机器——激动时为‘是’,而未激动时为‘否’。神经细胞的状态取决于从其它的神经细胞收到的输入信号量,及突触的强度(抑制或加强)。当信号量总和超过了某个阈值时,细胞体就会激动,产生电脉冲。电脉冲沿着轴突并通过突触传递到其它神经元。为了模拟神经细胞行为,与之对应的感知机基础概念被提出,如权量(突触)、偏置(阈值)及激活函数(细胞体)。以上就是百科给的解释。

2024-03-21 02:11:41 1342 1

原创 利用梯度下降法进行多变量进行二分类

sample, w_fea = x.shape#循环得时候用# 参数# 偏置bias = 0# 学习率:# 循环次数a = 0# 预测值:pre_y = 0。

2024-03-20 22:11:41 388 1

原创 利用梯度下降法进行多变量线性回归

(这里我们也可以初始化其他值)Ir=0.01#学习率bath=101#训练批次epoches=101#每批次的训练次数a=0#训练的次数记录。

2024-03-20 21:04:59 743 1

原创 深度学习之线性回归的实现(代码)

这里我们需要提一下前向传播,反向传播,我们在这个类里面定义的forward就是前向传播,backward就是反向传播,前向传播就是求误差为反向传播准备数据 ,反向传播就是进行操作后误差回传(本质上就是求梯度,然后梯度下降)然后不断地重复。由于只是作为一个基础,所以我们的数据集其实比较简单,然后主要是体现一个代码思路,方便理解,第一种方法和第二种方法只是实现了基本创建和训练过程,并没有进行预测,大家可以自行跑代码预测。先算得到预测值,然后计算损失函数,然后计算梯度,然后梯度下降,然后梯度清零,不断循环。

2024-03-14 00:25:36 941 1

原创 深度学习之梯度,梯度下降法以及使用梯度下降法实现线性回归代码实例(完整代码)

我们看百科给的解释:很抽象,这也是数学的东西。百科这里,如果你对梯度理解了的话,这里就不抽象了。梯度下降法计算过程就是:沿着梯度下降的方向求解极小值,我们知道梯度是有方向的(对于多元函数来说),它是一个由偏导数组成的向量,这就相当于我们沿着该方向的逆方向移动。(常用于损失函数上)举个例子,倘若一个多元函数,有个参数x,其在该位置的梯度也就是偏导数为grad_X,我们设置的步长为Ir=0.01,那么这个过程就是。

2024-03-13 20:58:58 1210

原创 深度学习之张量的处理(代码笔记)

以上就是tensor相关的所有运算了,大家可以和我一样,当笔记来看。

2024-03-13 10:32:52 647 1

原创 决策树原理底层代码实现(手搓,但失败了)

决策树原理在上一篇博客中。

2024-03-08 12:16:34 330 1

原创 决策树算法原理以及ID3、C4.5、CART算法

可根据式E(Si)计算出 Si的信息熵,再考虑到不同分支结点所包含的样本数不同,给分支结点赋予权重| Si|/|S|,即样本数越多的分支 结点的影响越大,从而可得用属性A对样本集S进行划分后的信息熵。也就是我们所说的样本点的类别。3.然后对各个子样本进行相同的处理,就是也是筛选出子样本里面的各个特征,被处理后的值,与子样本被该技术处理后的值相差最大的,所对应的特征,这样得到子节点。(根节点是树的顶端,子节点就是树内部的节点,叶节点就是一个树的叶子,在这里表示为,最后得到的对某样本点的特征判断后,得到类别。

2024-03-07 01:57:02 1163

原创 KNN算法解决二分类问题(威斯康辛州乳腺癌数据集)

本次只是直接使用knn解决二分类问题,只给代码其余不多加赘述,若想了解具体如何使用,可点击。

2024-03-05 15:35:53 577

原创 kNN算法的快速使用及其代码实现(sklearn鸢尾花数据集实战)

我们在之前的博客中已经将KNN的底层代码完成,详情请点击接下来我们要做的是利用已经写好的模型,来实现鸢尾花数据集的实战。

2024-03-05 01:06:18 2170

原创 KNN算法进阶思路之KD树划分

下面是百科给的解释:很抽象,下面是我的理解:KD树用于多维空间关键数据的搜索,这多维空间是什么意思呢?跟我们学的有什么联系呢?上一篇博客中我已经说过,我们在分类问题中,是要对样本进行特征提取的,我们最终会提取成特征向量的形式,例如:某电影(戏剧内容,格斗内容,爱情内容......)在代码中就是(X1,X2,X3......)这就是一个特征向量。

2024-03-04 02:11:11 980

原创 关于KNN算法的基础及其底层代码实现

算法核心。

2024-03-02 16:26:48 496

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除