自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(10)
  • 收藏
  • 关注

原创 9.paddlepaddle中squeeze的用法,裁剪到想要维度

在深度学习中,我们经常需要对模型的中间输出或者最终输出进行相应的裁剪。以达到我们想要的维度,让模型层之间计算顺畅,这时候squeeze函数就相当的有用。squeeze主要裁剪的是尺寸为1,现在有一个bert,大家都知道一个(1,10)长度的文本经过bert标准模型会变为(1,10,768)的向量。其中768代表的每个字的向量信息,在文本分类中我们惯用第一个token即first-token的向量作为文本分类模型的输入。但是我们也能使用整体句向量(1,10,768)作为输入,这时就需要squeeze。...

2022-08-07 10:13:18 998 4

原创 8.paddlepaddle之loss损失函数自定义

损失函数是是用来估量你模型的预测值f(x)与真实值Y的不一致程度。不同的损失函数对模型拟合会有不同的效果,损失函数越小,一般模型的鲁棒性就越好。在深度学习中,我们经常需要调整损失函数来达到一些效果倾斜的目的。使用paddle内置的cross_entropy算子实现算法如上,一个二分类问题,我们即使用了交叉熵损失,又使用了均方损失,并赋予两个损失不同的权重。使用自定义损失函数训练也是相当简单的。在这里我们使用MNIST作为我们的数据集,并使用paddle内置的lenet进行训练,验证自定义损失函数。...

2022-08-06 08:21:17 1548

原创 paddlepaddle论文系列之Alexnet详解(附源码)

从零开始深度学习论文系列是本人精选从Alexnet开始到现在数十篇深度学习论文,讲解,并加以自己理解,并附上paddlepaddle工具编写的源码,希望大家喜欢。Alexnet是深度学习的开始,虽然从现在看来,整个模型结构还有不成熟的地方,但是其上的很多使用的方法和思想如dropout,relu也仍然沿用至今,在Alexnet里也提到了数据增强的方法,虽然在本文并未体现,但也是模型效果成功的关键。httpshttpshttps。...

2022-07-24 15:44:33 718

原创 7.paddlepaddle之图像数据处理

数据处理是ai算法工程师的基本功,一般数据可以分图片,语音,文本,以及结构化数据等等,数据的修改,清洗、增强以及不同采样都能直接影响模型的最终结果。本章主要讲解paddlepaddle在图像数据处理方面的知识。​在paddle中有很好的图像处理,虽然其底层封装基本也是PIL库或者opencv。其主要函数为paddle.vision.transforms,具体的处理方法如下:可以看到paddle里支持的图像数据处理方法相当的多,下面介绍几个经常使用的。​...

2022-07-22 20:31:50 1882

原创 6.paddlepaddle之自定义模型构建使用

cifar数据集可以看到这就是一个fc全连接层+一个softmax的结果。全连接层的in配置的3072是因为cifar的图片大小是32*32*3,这里我们单个图片对其reshape到一维就是3072的长度。如上只需要标准化整体数据集即可,在这里我们统一采用127.5。接下来配置训练,配置好交叉熵损失,准确率指标等等,由于3072只是一份数据的长度,所以batch_size也配置为1,否则会报错。然后,执行训练,可以看到随着step的增多,auc也在不断地增长。httpshttps。...

2022-07-21 20:57:53 1811 3

原创 5.paddlepaddle之10行代码深度学习图片分类(cifar)

cifar的数据集有10分类和100分类图片,图片大小为(32,32,3),其中cifar10数据集有6万张图片10分类,5万训练集和10万训练集。​第一步,python引入所需的paddle依赖。第二步,获取cifar数据集,这里paddlepaddle支持直接获取cifar数据集,但是其数据格式是HWC,channel在后,由于paddlepaddle的模型和pytorch都默认的是CHW数据格式,所以我们加上转置函数Transpose,由于cifar图片过小,扩大size到(227,227.

2022-07-20 21:26:34 765

原创 4.paddlepaddle之10行代码mnist手写数字识别

如上图,可以看到准确率随着epoch和step的增多在增加,loss逐渐减小,模型收敛,并在最终的评测集达到了98.55%的准确率。对于该数据集标签为数字所代表的值,如上图片为5,其对应的数字也是5,所以这是一个十分类的任务。整个mnist有60000张训练集,10000张测试集,相较于类别数来说样本量相当充足。第三步,生成需要的网络,在这里我们使用paddle自带的lenet。整体来说,paddle可以用很小的成本训练模型任务,做到简单可依赖。第五步,配置模型训练的epoch,batch_size等等。.

2022-07-19 21:13:16 649

原创 3.从零开始paddlepaddle之基本模型构建(与keras和pytorch比对)

本章主要讲述paddlepaddle中的几种组建网络的方法,分别为序列生成神经网络,自定义神经网络,以及内置模型,并与keras和pytorch比对,整体来看paddlepaddle在组建神经网络上非常方便,并且取众家所长,可以快速组建自己想要的神经网络。......

2022-07-18 21:57:05 949

原创 2.从零开始学习paddlepaddle之向量计算

通过paddle的to_tensor,我们可以很简单的进行paddlepaddle的向量创建,并可以与python的基础列表,或者numpy进行相互转换。可以看到tensor和tensor1在值上是一致的,并且在==下打印了多个True,这和numpy的相等方式是一致的,但是在is下是false,这说明两次赋值即使值相同,但是也分配了两次空间。通过paddle的to_tensor,我们可以很简单的进行paddlepaddle的向量创建,并可以与python的基础列表,或者numpy进行相互转换。......

2022-07-17 22:22:23 1060

原创 1.从零开始学习paddlepaddle之环境安装与基础计算

主要为paddle的安装与基础计算。第一步,安装anaconda,在这里我们选择清华源的conda。可以看到paddlepaddle自动安装到了2.3.1版本。第二步,安装paddlepaddle的环境。第四步,开启paddle一个小demo测试。第三步,查看paddle的version。如上,paddle简单的计算测试成功。......

2022-07-17 21:35:04 981

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除