![](https://img-blog.csdnimg.cn/20201014180756925.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
paddle
文章平均质量分 59
MC.zeeyoung
这个作者很懒,什么都没留下…
展开
-
带自己学paddle(五)
项目一 手写数字识别上文回顾,目前已经揭晓了l2正则化以及如何画图,这一章主要是为了重构代码,代码断点重续、增加动态图转静态图的操作,这两块将合并起来一起写,不多说,先上代码network.pyfrom paddle.nn.layer import Conv2D,MaxPool2D,Linearimport paddle.nn.functional as Fclass MNIST(paddle.nn.Layer): def __init__(self): super(MNIST,self).原创 2022-04-19 13:48:59 · 1696 阅读 · 0 评论 -
带自己学paddle(四)
项目一 手写数字识别上文回顾,目前已经揭晓了SGD以及GPU的配置方式,现在将介绍如何把画图函数以及正则化整进去l2 norm#各种优化算法均可以加入正则化项,避免过拟合,参数regularization_coeff调节正则化项的权重opt_norm=paddle.optimizer.Adam(learning_rate=1e-3,weight_decay=paddle.regularizer.L2Decay(coeff=1e-5),parameters=model.parameters())画原创 2022-04-17 23:26:41 · 553 阅读 · 0 评论 -
带自己学paddle (三)
项目一 手写数字识别上文回顾,目前已经揭晓了CNN、DataLoader、Dataset、SGD、CrossEntropy、Square_error_cost的使用方式,最后还有一点点首尾工作就完成了第一阶段初识框架1、优化器SGD随机梯度下降算法,每次训练少量数据,抽样偏差导致的参数收敛过程中震荡。opt=paddle.optimizer.SGD(learning_rate=0.01,parameters=model.parameters())Momentum给梯度下降的过程加入一定的“惯原创 2022-04-05 12:35:01 · 3963 阅读 · 0 评论 -
带自己学paddle(二)
项目一 手写数字识别上文回顾,利用单层神经网络回归数字,那必然是不行的,因此这一章节是提高模型的结构复杂度,来尝试提高准确率1、模型架构CNN网络架构登场,其实之前我一直都用pytorch,但是总想尝试新玩意,所以就玩玩paddle,看看他有什么区别import paddlefrom paddle.nn import Conv2D,MaxPool2D,Linearimport paddle.nn.functional as F class MNIST(paddle.nn.Layer): d原创 2022-04-04 08:56:25 · 615 阅读 · 1 评论 -
带自己学paddle系列(一)
项目一 手写数字识别做个小项目的目的是熟悉paddle基本框架以及如何导入数据所涉及到的paddle api1、模型架构Linear层的导入from paddle.nn import Linearclass Regressor(paddle.nn.Layer): def __init__(self): super(Regressor,self).__init__() self.fc=Linear(in_features=13,out_features=1) def forward(原创 2022-04-02 00:54:19 · 1278 阅读 · 0 评论