深度学习
文章平均质量分 91
海清河宴
没有解决不了的问题,没有调不出来的程序
展开
-
OCR开源代码库介绍
OCR开源代码库介绍简介tesseract-ocrchineseocr_liteEasyOCRPaddleOCRMMOCRSTR简介文字的发明是人类文明史上的重要进步,它改变了人类知识的存储方式和传播方式。文字于日常生活中无处不在,比如马路上的标志牌,商店的招聘,商品的包装盒等。办公自动化、工业自动化等应用场景迫切需要一套直接从图像中检测,识别并理解文字的工具。典型的OCR系统,按照流程分为两大支:先检测后识别(detection then recognition);端到端识别(end to e原创 2021-05-18 13:43:05 · 4910 阅读 · 1 评论 -
cuda10.0安装Apex
cuda10.0安装Apex安装apex使用安装合精度训练加速神器–Apex从https://download.pytorch.org/whl/cu100/torch_stable.html下载cuda10.0的pytorch安装pytorch,然后进入python3命令行输入:import torchtorch.version.cuda查看pytorch中cuda版本与机器本身安装的cuda版本,使得版本一致https://github.com/NVIDIA/apex,克隆apex代码,原创 2020-11-18 15:27:49 · 1441 阅读 · 1 评论 -
pytorch中的BN层简介
pytorch中的BN层简介简介pytorch里BN层的具体实现过程momentum的定义冻结BN及其统计数据简介BN层在训练过程中,会将一个Batch的中的数据转变成正太分布,在推理过程中使用训练过程中的参数对数据进行处理,然而网络并不知道你是在训练还是测试阶段,因此,需要手动的加上,需要在测试和训练阶段使用如下函数。model.train() or model.eval()在Pytorch中,BN层的类的参数有:torch.nn.BatchNorm2d(num_features, eps=1原创 2020-11-18 14:03:17 · 6868 阅读 · 0 评论 -
神经网络运算量的计算
神经网络运算量的计算简介普通卷积普通反卷积分组卷积分组反卷积简介那么对于给定一个卷积神经网络的模型定义,该如何估算其浮点数运算量。对卷积神经网络来说,卷积层的运算量是占网络总运算量的大头,而对于一些像素级别任务,反卷积层也要算上。普通卷积卷积的运算一般的实现就是转化为矩阵乘法运算,首先来看一下卷积运算的简单的示意图:首先左上角定义了输入和输出的feature map的形状,假设卷积核大小...原创 2020-04-10 16:17:02 · 2319 阅读 · 0 评论 -
神经网络卷积操作总结
神经网络卷积操作总结简介Convolution1x1/Pointwise ConvolutionsSpatial and Cross-Channel ConvolutionsGrouped ConvolutionsSeparable ConvolutionsSpatially Separable ConvolutionsDepthwise Separable ConvolutionsFlatten...原创 2020-03-28 20:37:03 · 2058 阅读 · 0 评论 -
卷积神经网络中的池化操作
卷积神经网络中的池化操作简介最大/平均池化随机池化中值池化组合池化Spatial Pyramid PoolingGlobal Average/Max PoolingNetVLAD池化Bilinear PoolingUnPooling简介池化操作(Pooling)是CNN中非常常见的一种操作,池化操作通常也叫做子采样(Subsampling)或降采样(Downsampling),在构建卷积神经网...原创 2020-03-18 23:49:37 · 3599 阅读 · 0 评论 -
神经网络参数量的计算
神经网络参数量的计算简介卷积层BN层全连接层简介参数量就是指,模型所有带参数的层的权重参数总量。视觉类网络组件中带参数的层,主要有:卷积层、BN层、全连接层等。(注意:激活函数层(relu等)和Maxpooling层、Upsample层是没有参数的,不需要学习,他们只是提供了一种非线性的变换)卷积层K2×Ci×Co×+CoK^2{\times}C_i{\times}C_o{\times}+...原创 2020-03-18 20:10:58 · 1120 阅读 · 0 评论 -
深度学习中的优化算法总结
深度学习中的优化算法简介基本框架SGDSGD理论批量梯度下降法(Batch Gradient Descent)随机梯度下降法(Stochastic Gradient Descent)小批量梯度下降法(mini-Batch Gradient Descent)SGD缺点MomentumNestrovAdaGradRMSpropAdam简介优化算法是一个超参数,一个优化算法不是适合所有损失函数的,没...原创 2020-03-18 08:49:44 · 566 阅读 · 0 评论 -
keras数据增强方法
keras数据增强方法简介数据增强(Data Augmentation)keras数据增强接口keras接口使用方法简介在深度学习中,为了避免出现过拟合(Overfitting),通常我们需要输入充足的数据量。当数据量不够大时候,常常采用以下几种方法:Data Augmentation:通过平移、 翻转、加噪声等方法从已有数据中创造出一批“新”的数据,人工增加训练集的大小。Regu...原创 2020-03-08 15:14:19 · 1970 阅读 · 0 评论 -
常用 Normalization 方法与PyTorch接口
常用 Normalization 方法与PyTorch接口简介简介常用的Normalization方法主要有:Batch Normalization(BN,2015年)、Layer Normalization(LN,2016年)、Instance Normalization(IN,2017年)、Group Normalization(GN,2018年)。它们都是从激活函数的输入来考虑、做文章的...原创 2020-03-08 11:34:31 · 1462 阅读 · 0 评论 -
YOLO v1整体检测框架
You Only Look Onceyolo的思想yolo整体检测框架yolo模型架构yolo lossConfidence预测Bounding box预测类别预测yolo的思想Yolo算法采用一个单独的CNN模型实现end-to-end的目标检测, 整个系统如图所示: 首先将输入图片resize到448x448, 然后送入CNN网络,最后处理网络预测结果得到检测的目标。 相比R-CNN算法,...原创 2019-10-25 14:06:57 · 391 阅读 · 0 评论 -
分类网络训练技巧
分类网络训练技巧简介优化器的选择学习率以及学习率下降策略的选择学习率的概念:学习率下降策略:warmup策略batch_size的选择weight_decay的选择label_smoothing的选择针对小模型更改图片的crop面积与拉伸变换程度使用数据增广方式提升精度通过train_acc和test_acc确定调优策略通过已有的预训练模型提升自己的数据集的精度简介在神经网络中,分类网络是基础网络,分类网络中的特征提取网络一般会作为其他网络的backbone,所以所以首先需要训练好基础网络。优化器的选原创 2020-06-24 14:26:50 · 1151 阅读 · 0 评论