![](https://img-blog.csdnimg.cn/20201014180756930.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
AI框架
文章平均质量分 59
东东就是我
这个作者很懒,什么都没留下…
展开
-
paddlets 时序数据预测学习
3.kaggle的案例转为paddlets。4.paddlets库的介绍 ppt和教程。1.paddlets的官方文档。2.paddlets的官方案例。原创 2023-01-04 17:05:42 · 466 阅读 · 0 评论 -
paddledet 训练旋转目标检测 ppyoloe-r 训练自己的数据集
paddle det框架下 使用 pp yoloer 训练自己的数据集 训练旋转目标检测原创 2022-11-30 11:46:59 · 1631 阅读 · 4 评论 -
TypeError: startswith first arg must be str or a tuple of str, n
pyinstaller 5.6版本bug 安装4.5.1版本,解决问题。原创 2022-11-07 14:39:14 · 1036 阅读 · 2 评论 -
pytorch提供的maskrcnn训练自己的数据
https://blog.csdn.net/u013685264/article/details/100564660教我们怎么用PennFudan数据训练,其中查看mask 的时候报错,解决方法如下:https://blog.csdn.net/weixin_42245375/article/details/119950143https://blog.csdn.net/qq_40195360/article/details/106101756这里的数据集是用labelme标注的,但是训练的时候我发现他的原创 2022-10-10 16:55:08 · 662 阅读 · 0 评论 -
paddle detection 配置文件怎么实例化的 代码梳理 -----(regiester)
继续上一篇我们讲了通过yaml配置文件实例化类,其中配置文件要加上“!”这个符号,如果没有这个符号的其他类是怎么注册实例化的呢?我们看到代码workspace.py中这个函数就是每个类的装饰器,他干啥了呢,一句话就是他把类名和类的地址放在全局变量的字典里了下面具体分析我们发现每个类上都有这个装饰器register,装饰器获取cls名, cls.name 那么extract_schema是干嘛这段代码就是获取cls的参数和地址,也就是cls.model 保存在schema 这个类中这个类的定义在下面原创 2022-07-14 18:11:05 · 366 阅读 · 0 评论 -
pytorch internals 翻译
tensor 是pytorch基本的数据格式。你或许已经知道tensor是什么:n维数据结构,包含一些标量的数据类型,比如floats,ints,其他。我们知道tensor是一些数据的组成,还有一写元数据用来表示tensor的大小,tensor中数据的类型,tensor存储位置(cpu还是gpu)这里有一些元数据你可能不太熟悉,stride。stride是pytorch的特色tensor是数学概念,但是怎么保存到计算机中,我们应该定义一些物理的表示规则。最常见的把tensor中每个元素连续的保存原创 2022-07-08 17:08:46 · 558 阅读 · 0 评论 -
在pyqt中使用yaml 实例化类
上篇文章写了paddledetection中yaml实例化的例子,现在我们把这个技术用在自己的项目中2.在pqyt的类上添加装饰器3 注意在测试的时候,发现单独的执行,会报错。yaml.constructor.ConstructorError: could not determine a constructor for the tag ‘!NewDeploy’in “”, line 1, column 1:!NewDeploy {}开始我以为是类没有加载到yaml的构造器里,所以我import原创 2022-07-05 17:06:23 · 530 阅读 · 0 评论 -
paddle detection 配置文件怎么实例化的 代码梳理 -----(yaml)
我们发现paddledetection只是修改配置文件就可以训练,在代码是怎么实现的,yaml为什么可以自动实例train.py 132行 开始加载配置文件paddet/core/workpace.py这段代码很简单,就是检测配置文件的扩展名,然后加载,加载是写在下面的函数的这段代码也很简单,就是循环加载配置文件,因为paddle的配置文件之中是包含多个配置文件的。最主要的是这句然后把加载的配置文件,其实就是生成的实例放在全局的字典里这个函数很简单就是放在全局字典首先要知道yaml是可以通过实例生原创 2022-07-03 16:01:08 · 1126 阅读 · 2 评论 -
《机器学习系统:设计和实现》以MindSpore为例的学习(4)
9.模型部署1.模型压缩通过量化、剪枝等手段减小模型体积以及计算复杂度的技术,可以分为需要重训的压缩技术和不需要重训的压缩技术两类。2.算子融合通过表达式简化、属性融合等方式将多个算子合并为一个算子的技术,融合可以降低模型的计算复杂度及模型的体积。3.常量折叠将符合条件的算子在离线阶段提前完成前向计算,从而降低模型的计算复杂度和模型的体积。常量折叠的条件是算子的所有输入在离线阶段均为常量。4.数据排布根据后端算子库支持程度和硬件限制,搜索网络中每层的最优数据排布格式,并进行数据重排或者插入数原创 2022-04-06 17:18:58 · 866 阅读 · 0 评论 -
《机器学习系统:设计和实现》以MindSpore为例的学习(3)
4.编译器 既要对上承接模型算法的变化,满足算法开发者研究不断探索的诉求, 又要在最终的二进制输出上满足多样性硬件的诉求,满足不同部署环境的资源要求。既要满足系统的通用,也要满足易用性的灵活性要求,还要满足性能的不断优化诉求,这里引入编译器的概念再合适不过了。 编译器概念可以很好抽象上面提到的挑战和问题,编译器输入的是用户编程代码,输出的是机器执行的高效代码,编译器的作用主要是转换和优化,这和机器学习系统的输入输出,机器学习系统的目标是完全一致的。所以在进阶篇我们将用两个章节详细介绍AI编译器,里面的原创 2022-04-06 17:00:03 · 1610 阅读 · 0 评论 -
《机器学习系统:设计和实现》以MindSpore为例的学习(2)
机器学习系统:设计和实现原创 2022-04-01 15:31:46 · 1107 阅读 · 0 评论 -
《机器学习系统:设计和实现》以MindSpore为例的学习(1)
机器学习系统:设计和实现1.导论1.1 机器学习系统的需求:1.支持多种神经网络2.支持自动微分3.支持数据管理和处理4.支持模型的训练和部署5.高效使用计算加速器6.分布式计算1.2机器学习系统基本组成1.编程接口:提供python,调用c或c++2.计算图:定义机器学习程序表达成一个计算图3.计算加速器:4.编译器前端:计算图发送到计算器之前,框架会对计算图做一些优化5.编译器后端:编译器会根据硬件对计算图做优化...原创 2022-03-28 14:56:29 · 2731 阅读 · 0 评论 -
mmdet配置文件到执行的过程
1.读取配置文件,根据配置文件创建模型实例1.1读取配置文件model = build_detector( cfg.model, train_cfg=cfg.get('train_cfg'), test_cfg=cfg.get('test_cfg'))1.2根据配置文件的type去寻找注册好的模型def build_detector(cfg, train_cfg=None, test_cfg=None): """Build detector.原创 2022-01-11 15:39:01 · 2213 阅读 · 0 评论 -
dropout
https://blog.csdn.net/weixin_43896398/article/details/847629431.dropout2.SpatialDropout3.DropPathhttps://blog.csdn.net/qq_38253797/article/details/116714118原创 2022-01-05 17:30:12 · 124 阅读 · 0 评论 -
mvcc attention
https://mp.weixin.qq.com/s/MwgRF1toP3P-gBPhX3A-eA1.SENet (只是对通道提出注意力)class SELayer(nn.Module): def __init__(self, channel, reduction=16): super(SELayer, self).__init__() self.avg_pool = nn.AdaptiveAvgPool2d(1) self.fc = nn.S原创 2022-01-05 11:18:42 · 123 阅读 · 0 评论 -
pytorch loss
1.损失函数简介损失函数,又叫目标函数,用于计算真实值和预测值之间差异的函数。pytorch loss基类是_Loss ,其中_Loss又继承Module类其中每个loss,只需要实现forward就好其中每次训练的时候都要loss.backward()但是我在loss函数里没找到backward()这个函数,就有点奇怪。后来发现原来loss是一个tensor,而tensor中是有backward的,而且是调用的autograd里面的backward1.1 L1Lossℓ(x,y原创 2021-12-27 15:23:05 · 1065 阅读 · 0 评论 -
pytorch.optimizer 优化算法
https://zhuanlan.zhihu.com/p/346205754https://blog.csdn.net/google19890102/article/details/69942970https://zhuanlan.zhihu.com/p/32626442https://zhuanlan.zhihu.com/p/322306231.优化器optimizerimport torchimport numpy as npimport warningswarnings.filter原创 2021-12-23 11:42:35 · 984 阅读 · 0 评论 -
pytorch bn
https://zhuanlan.zhihu.com/p/120265831https://zhuanlan.zhihu.com/p/3377325171.bn好处防止过拟合:单个样本的输出依赖于整个 mini-batch,防止对某个样本过拟合;加快收敛:梯度下降过程中,每一层的 [公式] 和 [公式] 都会不断变化,导致输出结果的分布在不断变化,后层网络就要不停地去适应这种分布变化。用 BN 后,可以使每一层输入的分布近似不变。防止梯度弥散:forward 过程中,逐渐往非线性函数的取值区间的原创 2021-12-20 18:26:13 · 221 阅读 · 0 评论 -
pytorh 自动求梯度
1. 雅可比https://blog.csdn.net/u011984148/article/details/99670194为什么使用雅可比求出每个y=f(x) 的偏导数 ,乘以损失函数对y的偏导数,就是损失函数对每个x的偏导数。自动求梯度的原理就是链式求导在pytorch中怎么链式求导呢,下面都是我的假设,根据图中设置参数import torchinput=torch.tensor(10,)x1=torch.tensor(10.,requires_grad=True)x2=torch原创 2021-12-20 17:08:35 · 189 阅读 · 0 评论 -
MMCV解析
MMCV解析0.MMCV源码结构1.cnn1.1bricks1.1.1activation 激活函数1.1.2 context_block1.2 utils1.2.1 flops_counter1.2.2 fuse_conv_bn2.fileio2.1handlers (读写文件)2.2fileclient()3.image3.1hooks3.2 base_runner ()4.utils4.1 config4.2 registry3.runner0.MMCV源码结构1.cnn看名字可以猜到原创 2021-12-17 16:13:37 · 2675 阅读 · 0 评论