自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

机器学习与软件工程

计算机视觉,自然语言处理,时空数据挖掘,生成式人工智能

  • 博客(193)
  • 收藏
  • 关注

原创 Transformer实战-系列教程总目录

Transformer实战-系列教程总目录:Transformer、VIT、swintransformer、DETR、DeformableDetr、MedicalTrasnformer、LoFTR、Maskformer、BevFormer、Informer

2024-02-02 03:00:04 733

原创 TensorFlow2实战-系列教程 总目录

TensorFlow2实战-系列教程 总目录

2024-01-26 15:23:24 932

原创 深度学习

深度学习基本理论、深度学习笔记、pytorch深度学习框架笔记

2024-01-06 20:42:21 644

原创 图像分割实战-系列教程 总目录

图像分割实战-系列教程 总目录

2023-12-30 13:11:11 642

原创 计算机视觉

OpenCV、Yolo、图像分割、MMLab、行为识别、3D点云、目标追踪与姿态估计、计算机视觉Transformer、缺陷检测、对抗生成网络、行人重识别

2023-12-30 13:06:32 1020

原创 物体检测-系列教程 总目录

物体检测-系列教程 总目录

2023-09-12 01:37:24 418

原创 机器学习

10大传统机器学习算法,基本原理、数学推导、实战案例、源码解读全教程

2023-09-06 16:29:29 735

原创 Hugging Face 实战系列 总目录

自然语言处理Hugging Face的Transformer、Datasets、Tokenizer等模块的使用、项目实战、语言模型微调系列教程

2023-09-02 17:13:42 1798

原创 PyTorch 深度学习 开发环境搭建 全教程

PyTorch 深度学习 开发环境搭建 全教程

2023-03-30 09:48:18 3425

原创 物体检测-系列教程28:YOLOV5 源码解析18(训练脚本解读:训练函数4)

物体检测-系列教程28:YOLOV5 源码解析18(训练脚本解读:训练函数4)

2024-03-13 18:30:35 934

原创 物体检测-系列教程27:YOLOV5 源码解析17(训练脚本解读:训练函数3)

物体检测-系列教程27:YOLOV5 源码解析17(训练脚本解读:训练函数3)

2024-03-13 03:50:18 900

原创 物体检测-系列教程26:YOLOV5 源码解析16(训练脚本解读:训练函数2)

物体检测-系列教程26:YOLOV5 源码解析16(训练脚本解读:训练函数2)

2024-03-11 02:38:17 1024

原创 物体检测-系列教程25:YOLOV5 源码解析15(训练脚本解读:训练函数1)

物体检测-系列教程25:YOLOV5 源码解析15(训练脚本解读:train函数)

2024-03-10 23:08:42 877

原创 物体检测-系列教程24:YOLOV5 源码解析14 (训练过程解读:训练配置文件、训练脚本train.py)

物体检测-系列教程24:YOLOV5 源码解析14 (训练过程解读:训练配置文件、训练脚本train.py)

2024-03-10 15:27:52 463

原创 物体检测-系列教程23:YOLOV5 源码解析13 (SPP层、Flatten模块、Concat模块、Classify模块)

物体检测-系列教程23:YOLOV5 源码解析13 (SPP层、Flatten模块、Concat模块、Classify模块)

2024-03-07 18:57:53 1150

原创 物体检测-系列教程22:YOLOV5 源码解析12 (BottleneckCSP层、Conv模块、Bottleneck模块)

物体检测-系列教程22:YOLOV5 源码解析12 (BottleneckCSP层、Conv模块、Bottleneck模块)

2024-03-06 20:36:55 1302

原创 物体检测-系列教程21:YOLOV5 源码解析11 (模型创建:parse_model函数)

物体检测-系列教程21:YOLOV5 源码解析11 (模型创建:parse_model函数)

2024-03-02 23:46:02 993

原创 物体检测-系列教程20:YOLOV5 源码解析10 (Model类前向传播、forward_once函数、_initialize_biases函数)

物体检测-系列教程20:YOLOV5 源码解析10 (Model类前向传播、forward_once函数、_initialize_biases函数)

2024-03-02 18:29:44 1080

原创 物体检测-系列教程19:YOLOV5 源码解析9 (Focus模块、Model类构造函数)

物体检测-系列教程19:YOLOV5 源码解析9 (Focus模块、Model类构造函数)

2024-03-01 22:46:09 1037

原创 物体检测-系列教程18:YOLOV5 源码解析8 (配置文件:yolov5s.yaml)

物体检测-系列教程18:YOLOV5 源码解析8 (配置文件:yolov5s.yaml)

2024-02-29 21:06:06 921

原创 物体检测-系列教程17:YOLOV5 源码解析7 (模型可视化/onnx工具使用/export.py/模型格式转换)

物体检测-系列教程17:YOLOV5 源码解析7 (模型可视化/onnx工具使用/export.py)

2024-02-29 15:59:13 1437

原创 物体检测-系列教程16:YOLOV5 源码解析6(马赛克数据增强函数load_mosaic)

物体检测-系列教程16:YOLOV5 源码解析6(马赛克数据增强函数load_mosaic)

2024-02-25 18:14:18 1254

原创 物体检测-系列教程15:YOLOV5 源码解析5(LoadImagesAndLabels类:cache_labels函数、collate_fn函数)

物体检测-系列教程15:YOLOV5 源码解析5(LoadImagesAndLabels类:cache_labels函数、collate_fn函数)

2024-02-25 18:14:02 987

原创 物体检测-系列教程14:YOLOV5 源码解析4 (LoadImagesAndLabels类:数据加载器)

物体检测-系列教程14:YOLOV5 源码解析4 (LoadImagesAndLabels类:数据加载器)

2024-02-23 08:25:21 1078

原创 物体检测-系列教程13:YOLOV5 源码解析3 (LoadImagesAndLabels类:构造函数)

物体检测-系列教程13:YOLOV5 源码解析3 (LoadImagesAndLabels类:构造函数)

2024-02-23 05:54:07 990

原创 物体检测-系列教程12:YOLOV5 源码解析2 (create_dataloader函数)

物体检测-系列教程12:YOLOV5 源码解析2 (create_dataloader函数)

2024-02-22 10:06:08 935

原创 物体检测-系列教程8:YOLOV5 项目配置

物体检测-系列教程8:YOLOV5 项目配置

2024-02-20 23:44:11 1261

原创 Transformer实战-系列教程21:DETR 源码解读8 损失计算:(SetCriterion类)

Transformer实战-系列教程21:DETR 源码解读8 损失计算:(SetCriterion类)

2024-02-15 03:07:41 837

原创 Transformer实战-系列教程20:DETR 源码解读7(解码器:TransformerDecoder类/TransformerDecoderLayer类)

Transformer实战-系列教程20:DETR 源码解读7(解码器:TransformerDecoder类/TransformerDecoderLayer类)

2024-02-15 02:58:36 940

原创 Transformer实战-系列教程19:DETR 源码解读6(编码器:TransformerEncoder类/TransformerEncoderLayer类)

Transformer实战-系列教程19:DETR 源码解读6(编码器:TransformerEncoder类/TransformerEncoderLayer类)

2024-02-14 21:56:08 1026

原创 Transformer实战-系列教程18:DETR 源码解读5(Transformer类)

Transformer实战-系列教程18:DETR 源码解读5(Transformer类)

2024-02-14 17:59:45 991

原创 Transformer实战-系列教程17:DETR 源码解读4(BackboneBase类/Backbone类)

Transformer实战-系列教程17:DETR 源码解读4(BackboneBase类/Backbone类)

2024-02-13 03:11:35 1006

原创 Transformer实战-系列教程16:DETR 源码解读3(位置编码:Joiner类/PositionEmbeddingSine类)

Transformer实战-系列教程16:DETR 源码解读3(位置编码:Joiner类/PositionEmbeddingSine类)

2024-02-12 18:28:14 1105

原创 Transformer实战-系列教程15:DETR 源码解读2(整体架构:DETR类)

Transformer实战-系列教程15:DETR 源码解读2(整体架构:DETR类)

2024-02-12 01:46:54 2191

原创 Transformer实战-系列教程14:DETR 源码解读1(项目配置/CocoDetection类/ConvertCocoPolysToMask类)

Transformer实战-系列教程14:DETR 源码解读1(项目配置/CocoDetection类/ConvertCocoPolysToMask类)

2024-02-08 22:26:25 573

原创 Transformer实战-系列教程13:DETR 算法解读

Transformer实战-系列教程13:DETR 算法解读

2024-02-08 17:27:33 1039

原创 Transformer实战-系列教程12:SwinTransformer 源码解读5(Mlp类/PatchMerging类/SwinTransformer模型参数)

Transformer实战-系列教程12:SwinTransformer 源码解读5(Mlp类/PatchMerging类/SwinTransformer模型参数)

2024-02-07 20:03:11 1041

原创 Transformer实战-系列教程11:SwinTransformer 源码解读4(WindowAttention类)

Transformer实战-系列教程11:SwinTransformer 源码解读4(WindowAttention类)

2024-02-07 18:55:12 2438

原创 Transformer实战-系列教程10:SwinTransformer 源码解读3(SwinTransformerBlock类)

Transformer实战-系列教程10:SwinTransformer 源码解读3(SwinTransformerBlock类)

2024-02-07 14:40:02 1138

原创 Transformer实战-系列教程9:SwinTransformer 源码解读2(PatchEmbed类/BasicLayer类)

Transformer实战-系列教程9:SwinTransformer 源码解读2(PatchEmbed类/BasicLayer类)

2024-02-07 09:55:42 1083

图像分割实战-系列教程1:语义分割与实例分割概述

图像分割实战-系列教程1:语义分割与实例分割概述

2023-12-30

Hugging Face实战-系列教程19:文本摘要建模实战1(中文商城评价数据处理方法)

Hugging Face实战-系列教程19:文本摘要建模实战1(中文商城评价数据处理方法)

2023-12-18

从零构建属于自己的GPT系列

从零构建属于自己的GPT系列 1、 从零构建属于自己的GPT系列1:数据预处理(文本数据预处理、文本数据tokenizer、逐行代码解读) 2、从零构建属于自己的GPT系列2:模型训练1(预训练中文模型加载、中文语言模型训练、逐行代码解读) 3、从零构建属于自己的GPT系列3:模型训练2(训练函数解读、模型训练函数解读、代码逐行解读) 4、从零构建属于自己的GPT系列4:模型训练3(训练过程解读、序列填充函数、损失计算函数、评价函数、代码逐行解读) 5、从零构建属于自己的GPT系列5:模型部署1(文本生成函数解读、模型本地化部署、文本生成文本网页展示、代码逐行解读) 6、从零构建属于自己的GPT系列6:模型本地化部署2(文本生成函数解读、模型本地化部署、文本生成文本网页展示、代码逐行解读)

2023-12-12

PyTorch构建LeNet、AlexNet、VGGNet、GoogLeNet、ResNet训练MNIST数据集

1、MNIST数据集处理、加载、网络初始化、测试函数 2、训练函数、PyTorch构建LeNet网络 3、PyTorch从零构建AlexNet训练MNIST数据集 4、PyTorch从零构建VGGNet训练MNIST数据集 5、PyTorch从零构建GoogLeNet训练MNIST数据集 6、PyTorch从零构建ResNet训练MNIST数据集

2023-09-25

YOLO物体检测系列4:YOLOV3项目实战、源码解读.zip

YOLO物体检测系列4:YOLOV3项目实战、源码解读.zip

2023-09-14

YOLO物体检测系列(预选框/置信度/分类任/回归任务/损失函数/公式解析/置信度/非极大值抑制)

YOLO物体检测系列YOLOV1、YOLOV2、YOLOV3、YOLOV4、YOLOV5(预选框/置信度/分类任/回归任务/损失函数/公式解析/置信度/非极大值抑制)

2023-09-12

支持向量机,实现源码,鸢尾花数据集分类

支持向量机,实现源码,鸢尾花数据集分类

2023-09-10

决策树算法原理解析PPT

决策树算法原理解析PPT

2023-09-07

机器学习实战-系列教程2:线性回归2(项目实战、原理解读、源码解读)

机器学习实战-系列教程2:线性回归2(项目实战、原理解读、源码解读)

2023-09-06

交通数据集PEMS03(包含速度、流量、时间占有率,交通网络的邻接矩阵)/交通网络/时间序列/时空序列/数据挖掘

PEMS 数据集是由美国加利福尼亚州的交通部门联合其他伙伴机构建立的统一公开交通数据库。美国加利福尼亚州的交通部门在交通路网上大约设置了超过39000 个交通监测站,交通管理部门安装在路网上的各类传感器可以实时地收集所在高速公路上的交通状况信息,越是接近市区人口密集的地区,传感器布置的也越密集,从分布上来看,这些传感器大多被安置在靠近市区的路段上。PEMS提供了超过十年的历史交通状况数据,整合了有关加州运输公司以及其他交通机构系统的各类信息。 PemsD3 交通数据集:数据由分布在加利福尼亚州高速公路系统(CalTrans)中选择 228 个站点数据。数据集从30 秒的数据样本聚合到5 分钟的时间间隔内。时间范围在 2012 年5 月和6 月的工作日的228 个站点交通速度信息,数据包括邻接矩阵和特征矩阵。 邻接矩阵是通过分析已有时空交通数据的特性,构建一种新的具有相似交通流量模式的 矩阵,特征矩阵是每个传感器节点的时间序列特征矩阵。

2023-08-31

交通数据集PEMS07(包含速度、流量、时间占有率,交通网络的邻接矩阵)/交通网络/时间序列/时空序列/数据挖掘

PEMS 数据集是由美国加利福尼亚州的交通部门联合其他伙伴机构建立的统一公开交通数据库。美国加利福尼亚州的交通部门在交通路网上大约设置了超过39000 个交通监测站,交通管理部门安装在路网上的各类传感器可以实时地收集所在高速公路上的交通状况信息,越是接近市区人口密集的地区,传感器布置的也越密集,从分布上来看,这些传感器大多被安置在靠近市区的路段上。PEMS提供了超过十年的历史交通状况数据,整合了有关加州运输公司以及其他交通机构系统的各类信息。 PemsD7 交通数据集:数据由分布在加利福尼亚州高速公路系统(CalTrans)中选择 228 个站点数据。数据集从30 秒的数据样本聚合到5 分钟的时间间隔内。时间范围在 2012 年5 月和6 月的工作日的228 个站点交通速度信息,数据包括邻接矩阵和特征矩阵。 邻接矩阵是通过分析已有时空交通数据的特性,构建一种新的具有相似交通流量模式的 矩阵,特征矩阵是每个传感器节点的时间序列特征矩阵。

2023-08-31

openCV实战-系列教程11:文档扫描OCR识别(图像轮廓/模版匹配)项目实战、源码解读

openCV实战-系列教程11:文档扫描OCR识别(图像轮廓/模版匹配)项目实战、源码解读 这个项目的使用教程与解答,看这篇文章https://blog.csdn.net/weixin_50592077/article/details/132530731?spm=1001.2014.3001.5502

2023-08-30

openCV实战-系列教程10:信用卡数字识别(傅里叶概述/频域变换结果/低通与高通滤波)项目实战、源码解读

openCV实战-系列教程10:信用卡数字识别(傅里叶概述/频域变换结果/低通与高通滤波)项目实战、源码解读

2023-08-28

文本预训练模型实战:(1.预训练模型效果分析 2.文本数据截断处理 3.预训练模型自定义训练)

文本预训练模型实战:(1.预训练模型效果分析 2.文本数据截断处理 3.预训练模型自定义训练)

2023-07-17

NER命名体识别:文本标注工具Doccano配置方法/命名实体识别任务标注方法实例/标注导出与BIO处理/标签处理并完成对齐操作

命名实体识别(Named Entity Recognition,NER)是自然语言处理领域的一项关键任务,旨在从文本中识别和分类特定的命名实体,如人名、地名、组织机构名等。NER的目标是标记文本中的实体,并将其归类到预定义的实体类型中。 NER通常使用机器学习和深度学习技术来完成任务。以下是一种常见的NER流程: 数据收集和标注:收集包含命名实体的文本数据,并为每个实体标注相应的标签(实体类型)。 特征提取:从文本数据中提取有用的特征,如词性、词形、上下文等。这些特征将作为输入提供给模型。 模型训练:使用标注好的数据和提取的特征来训练NER模型。常用的模型包括条件随机场(CRF)、循环神经网络(RNN)、注意力机制等。 模型评估和调优:使用评估数据集来评估训练得到的模型性能,并进行调优以提高准确性和召回率。 实体识别:使用训练好的NER模型对新的文本进行实体识别。模型将识别并标记文本中的命名实体,使其易于提取和理解。 NER在许多应用中起着重要作用,例如信息抽取、问答系统、文本摘要、机器翻译等。以帮助自动化处理大量文本数据,并提供有关实体的结构化信息,为后续的分析和应用提供基础。

2023-07-17

交通数据集PEMS08(包含速度、流量、时间占有率,交通网络的邻接矩阵)/交通网络/时间序列/时空序列/数据挖掘

该交通数据集来源于PeMS网站,包含圣贝纳迪诺市(美国加利福尼亚州南部一座城市)8条高速公路1979个探测器,2016年7月1日至2016年8月31日这2个月的数据。这些传感器每5分钟收集一次数据,包含1979个所有的传感器每5分钟经过的车辆数。 数据集 节点 特征数 时长 时间窗口 PeMSD8 107 3 61天 5min 此外本数据集还包含一个3*107的邻接矩阵文件,该数据表示了107个路口之间的相邻情况(即连通性) 以及节点之间的距离。 可用于交通流量预测、交通速度预测、交通拥堵情况预测、交通信号灯绿信比条件、时间序列分析、时空序列分析

2023-07-17

交通数据集PEMS04(包含速度、流量、时间占有率,交通网络的邻接矩阵)/交通网络/时间序列/时空序列/数据挖掘

该交通数据集来源于PeMS网站,包含旧金山湾区(美国加尼福尼亚州旧金山大湾区)29条高速公路3848个探测器,2018年1月1日至2018年2月28日这2个月的数据。这些传感器每5分钟收集一次数据,包含3848个所有的传感器每5分钟经过的车辆数。 数据集 节点 特征数 时长 时间窗口 PeMSD4 307 3 59天 5min 此外本数据集还包含一个307*307的邻接矩阵文件,该数据表示了307个路口之间的相邻情况(即连通性) 以及节点之间的距离。 可用于交通流量预测、交通速度预测、交通拥堵情况预测、交通信号灯绿信比条件、时间序列分析、时空序列分析

2023-07-17

BERT系列算法解读(ALBERT/RoBERTa/DistilBE/Transformer/Hugging Face/NLP)

BERT系列算法解读 1、BERT(句子中有15%的词汇被随机mask掉,预测两个句子是否应该连在一起) 2、ALBERT(A Lite BERT,轻量级的BERT,共享的方法有很多,ALBERT选择了全部共享,FFN和ATTENTION的都共享) 3、RoBERTa(基本就是说训练过程可以再优化优化,最核心的就是如何在语言模型中设计mask) 4、DistilBE(A distilled version of BERT: smaller,faster, cheaper and lighter,差不多减少了40%的参数,主要是预测速度快,蒸馏后效果还能保持97%,但是却被大大瘦身了)

2023-07-13

Hugging Face实战(NLP实战/预训练模型/分词器/模型自动选择/PyTorch版本/代码逐行解析)上篇之模型调用

Hugging Face实战(NLP实战/Transformer实战/预训练模型/分词器/模型微调/模型自动选择/PyTorch版本/代码逐行解析)上篇之模型调用

2023-07-12

Hugging Face实战(NLP实战/Transformer实战/预训练模型/模型微调/PyTorch版本)下篇之模型训练

Hugging Face实战(NLP实战/Transformer实战/预训练模型/分词器/模型微调/模型自动选择/PyTorch版本/代码逐行解析)下篇之模型训练

2023-07-12

yolov1、yolov3、yolov5、yolov6、yolov7、yolov8全系列代码

You Only Look Once,Object Detection,yolo系列物体检测 yolov1项目代码 yolov3项目代码 yolov5项目代码 yolov6项目代码 yolov7项目代码 yolov8项目代码 全部运行测试无bug

2024-02-21

基于Transformer的detr目标检测算法,源码解读

DETR(DEtection TRansformer)是一种基于Transformer架构的端到端目标检测模型,其主要流程包括: 1. 特征提取:通过卷积神经网络提取输入图像的特征。 2. Transformer编码器:将特征图输入Transformer编码器,利用自注意力机制和全连接层获取位置的上下文信息。 3. 对象查询:引入特殊的“对象”查询向量,指导模型在每个位置关注的对象类别。 4. 解码器:将Transformer编码器的输出作为解码器的输入,通过多层自注意力计算和全连接层计算生成每个位置的对象特征。 5. 对象匹配:将对象特征与所有可能的目标类别进行匹配,产生候选框和得分。 6. 位置预测:为每个候选框产生精确的位置预测。 DETR简化了目标检测流程,无需使用锚框或非极大值抑制,直接输出目标检测结果

2024-02-08

基于Transformer的detr目标检测算法.pdf

DETR(DEtection TRansformer)是一种基于Transformer架构的端到端目标检测模型,其主要流程包括: 1. 特征提取:通过卷积神经网络提取输入图像的特征。 2. Transformer编码器:将特征图输入Transformer编码器,利用自注意力机制和全连接层获取位置的上下文信息。 3. 对象查询:引入特殊的“对象”查询向量,指导模型在每个位置关注的对象类别。 4. 解码器:将Transformer编码器的输出作为解码器的输入,通过多层自注意力计算和全连接层计算生成每个位置的对象特征。 5. 对象匹配:将对象特征与所有可能的目标类别进行匹配,产生候选框和得分。 6. 位置预测:为每个候选框产生精确的位置预测。 DETR简化了目标检测流程,无需使用锚框或非极大值抑制,直接输出目标检测结果

2024-02-08

SwinTransformer 算法原理

与传统的Transformer相比,Swin Transformer通过采用分层结构和窗口内注意力机制,实现了更高效的计算和更好的适用性于图像识别、目标检测和语义分割等任务 1. 层次化特征表示 Swin Transformer通过构建层次化的特征表示,使模型能够捕获从细粒度到粗粒度的不同层次的视觉信息,这对于处理图像中的多尺度对象至关重要 2. 移动窗口的注意力机制 不同于传统Transformer中的全局自注意力机制,Swin Transformer采用了局部窗口内的自注意力计算。通过这种方式,它显著降低了计算复杂度,并且通过窗口间的移动操作保持了全局上下文的连续性 3.动态调整的窗口 Swin Transformer设计了一种机制来动态调整注意力窗口的大小,这种灵活性允许模型根据不同层次的特征和任务需求调整其感受野,从而更有效地处理图像信息 4. 跨窗口连接 为了解决局部窗口限制内的信息孤岛问题,Swin Transformer引入了跨窗口的连接方式,通过这种方式可以在不增加计算负担的情况下,有效地整合全局信息

2024-02-05

Transformer实战-系列教程7:SwinTransformer 源码解读

与传统的Transformer相比,Swin Transformer通过采用分层结构和窗口内注意力机制,实现了更高效的计算和更好的适用性于图像识别、目标检测和语义分割等任务 1. 层次化特征表示 Swin Transformer通过构建层次化的特征表示,使模型能够捕获从细粒度到粗粒度的不同层次的视觉信息,这对于处理图像中的多尺度对象至关重要 2. 移动窗口的注意力机制 不同于传统Transformer中的全局自注意力机制,Swin Transformer采用了局部窗口内的自注意力计算。通过这种方式,它显著降低了计算复杂度,并且通过窗口间的移动操作保持了全局上下文的连续性 3.动态调整的窗口 Swin Transformer设计了一种机制来动态调整注意力窗口的大小,这种灵活性允许模型根据不同层次的特征和任务需求调整其感受野,从而更有效地处理图像信息 4. 跨窗口连接 为了解决局部窗口限制内的信息孤岛问题,Swin Transformer引入了跨窗口的连接方式,通过这种方式可以在不增加计算负担的情况下,有效地整合全局信息

2024-02-05

Vision Transformer 源码解读

在文本任务中大量使用了Transformer 架构,因为文本数据是一个序列非常好的契合Transformer 架构。 可是如何将一张图像展开成一个序列呢? 将一个文本数据使用Transformer 进行特征提取需要把文本embbeding成一个向量 对于图像我们一样也可以embbeding成一个向量,所谓向量实际上不就是特征吗?把图像提取成特征,那就可以套上Transformer 架构,我们照样使用ConvNet把图像提取成特征再调整为向量就可以了。 一个词embbeding成向量,最多的是转化为768维的向量,对于图片使用一个卷积核对整体卷积一次就可以得到一个向量,如果我们使用512个卷积核就可以得到512维的向量,这样就可以和NLP任务对上了。 因此使用Transformer架构做CV任务,只需要加上一层embbeding就可以套用Transformer架构了,一次卷积就可以得到图像全局的特征,当然也要加上位置编码得到位置信息。 有了向量序列,就可以进行self-Attention的堆叠了

2024-02-03

TensorFlow2实战-系列教程14:Resnet实战

这个 TensorFlow 项目用于训练和验证多个版本的 ResNet 模型(包括 ResNet50, ResNet101, ResNet152, ResNet34): 1. 模型选择和构建:根据配置文件config.model选择不同的 ResNet 模型 2. GPU 配置:如果检测到 GPU,将自动配置 GPU 设置,包括内存增长以优化性能 3. 数据处理:使用 `generate_datasets()` 函数生成训练、验证和测试数据集 4. 损失函数和优化器:采用 `tf.keras.losses.SparseCategoricalCrossentropy` 作为损失函数,`tf.keras.optimizers.Adam` 作为优化器 5. 度量指标:定义了训练和验证的损失和准确率度量指标 6. 训练和验证步骤:通过 `train_step` 和 `valid_step` 函数实现模型的训练和验证。使用 `tf.GradientTape` 监控训练过程,并应用梯度下降 7. 训练循环:模型在多个epoch内进行训练 8. 模型保存:训练完成后,模型权重被保存到指定路径

2024-01-30

RNN文本分类.zip

数据集构建:影评数据集进行情感分析(分类任务) 词向量模型:加载训练好的词向量或者自己训练都可以 序列网络模型:训练RNN模型进行识别 加载影评数据集,可以手动下载放到对应位置 读进来的数据是已经转换成ID映射的,一般的数据读进来都是词语,都需要手动转换成ID映射的 词和ID的映射表,空出来3个的目的是加上特殊字符 按文本长度大小进行排序 将中间结果保存到本地,万一程序崩了还得重玩,保存的是文本数据,不是ID 构建语料表,基于词频来进行统计

2024-01-29

TensorFlow2实战-系列教程8:TFRecords数据源制作

在训练过程中,基本都是使用GPU来计算,但是取一个一个batch取数据还是必须要用cpu,这个过程耗费时间也会影响训练时间,制作TFRecords可以有效解决这个问题,此外制作TFRecords数据可以更好的管理存储数据 为了高效地读取数据,可以将数据进行序列化存储,这样也便于网络流式读取数据。TFRecord是一种比较常用的存储二进制序列数据的方法,tf.Example类是一种将数据表示为{"string": value}形式的meassage类型,Tensorflow经常使用tf.Example来写入、读取TFRecord数据 通常情况下,tf.Example中可以使用以下几种格式: - tf.train.BytesList: 可以使用的类型包括 string和byte - tf.train.FloatList: 可以使用的类型包括 float和double - tf.train.Int64List: 可以使用的类型包括 enum,bool, int32, uint32, int64 TFRecords是TensorFlow官方推荐的

2024-01-29

TensorFlow.keras数据增强Data Augmentation

对于图像数据,将其进行翻转、放缩、平移、旋转操作就可以得到一组新的数据: 1、展示输入输出 一个专门用来打印3张图像的函数 2、调整图像大小 创建ImageDataGenerator 的实例 指定参数加载图像数据 从数据生成器中获取数据,将图像打印出来 3、旋转图像 4、平移变换 5、缩放 6、channel_shift 7、翻转 8、rescale 9、填充方法

2024-01-28

TensorFlow2实战-系列教程3:猫狗识别1

1. 环境和依赖设置:教程一开始会引导你安装 TensorFlow 2 和其他必要的库(如 NumPy, Matplotlib 等)。 2. 数据集准备:教程将展示如何获取和准备猫狗图像数据集。这包括从公共源下载数据集、加载图像数据、对数据进行预处理(如缩放、标准化)和划分训练集和测试集。 3. 模型构建:介绍如何使用 TensorFlow 2 构建一个适合猫狗识别的神经网络模型。这括如何添加不同的层(例如卷积层、池化层、全连接层),以及如何设置每层的参数。 4. 模型编译:解释如何编译模型,包括选择合适的优化器(如 Adam),损失函数(如交叉熵损失),和评估指标(如准确率)。 5. 模型训练:展示如何使用准备好的数据集训练模型。这涉及设置适当的批次大小和迭代次数(epoch),并可能使用回调函数来监控训练过程。

2024-01-26

TensorFlow2实战-系列教程1、2:搭建神经网络分类、回归、模型测试任务

TensorFlow2实战-系列教程1:搭建神经网络进行分类任务 TensorFlow2实战-系列教程2:搭建神经网络进行回归任务 导包读数据 标签制作与数据预处理 基于Keras构建网络模型 更改初始化方法 加入正则化惩罚项 展示测试结果 - activation:激活函数的选择,一般常用relu - kernel_initializer,bias_initializer:权重与偏置参数的初始化方法 - kernel_regularizer,bias_regularizer:要不要加入正则化 - inputs:输入,可以自己指定,也可以让网络自动选 units:神经元个数

2024-01-26

基于MASK-RCNN框架训练自己的数据与任务.zip

基于MASK-RCNN框架训练自己的数据与任务.zip

2024-01-19

deeplabV3+ VOC分割实战

voc2012中包含,6个文件夹,其中JPEGImages是包含了很多张的图像,一共有17125张图像,这是我们所有的数据。而Annotations文件夹就是包含了这17125张图像对应的标签数据,全部都是xml文件, 每个标注文件中,包含了对应的图像名、图像的(h,w,c)、语义分割的标注信息、物体检测标注信息等,在ImageSets中的main文件夹有识别任务的标注信息、Segmentation文件夹有分割任务的标注信息、Action文件夹有任务动作识别的标注信息 我们的任务主要是图像分割,使用的是VOC2012文件夹中的SegmentationClassAug文件夹的数据

2024-01-19

基于Resnet的医学数据集分类实战.zip

基于Resnet的医学数据集分类实战.zip

2024-01-18

基于deeplab的心脏视频数据诊断分析.zip

基于deeplab的心脏视频数据诊断分析.zip

2024-01-18

图像分割实战-系列教程12:deeplab系列算法概述

图像分割实战-系列教程12:deeplab系列算法概述

2024-01-06

图像分割实战-系列教程10:U2NET显著性检测实战 原理解读

图像分割实战-系列教程10:U2NET显著性检测实战 原理解读: 这里以RSU7举例,U2Net就是每一个backbone都是一个带残差连接的Unet,这些backbone再以Unet的形式进行连接,在连接的过程中有特征凭借和上采样下采样操作 首先这里的RSU7也是一个一个相同的小组件组成,每一个小组件都是一个REBNCONV 一个REBNCONV就是,一个卷积Conv、批归一化BatchNormalization、Relu激活函数的三连 在构造函数中,就是定义了1个REBNCONV+5个(REBNCONV+Maxpooling)+8个REBNCONV 其中第一个REBNCONV是为了进行残差连接,将输入的长、宽、通道数转化为和输出一直的维度,代表原始输入的x 在最后的输出会再加上这个x,表示残差连接操作 编码器就是5个(REBNCONV+Maxpooling)和最后一个没有Maxpooling的REBNCONV,即hx1到hx6 hx7是中间结果 解码器就是5(对应位置进行拼接的REBNCONV+上采样)和最后一个没有上采样的REBNCONV,即hx6d到hx1d hx1d再加上前

2024-01-03

图像分割实战-系列教程9:U2NET显著性检测实战源码

图像分割实战-系列教程9:U2NET显著性检测实战源码: 输入是一张正常的图像: 输出的是一种素描画像的图像 扣掉前景的图像 只有目标前景的图像 可以用来扣绿幕,扣前景等 Unet的U没变,但是为什么叫U2Net呢,这里的2是平方的意思,实际上就是在一些小细节方面又做了一次Unet结构,每一个小模块不在像之前的Unet使用VGG来做backbones,而是每一个backbones都使用了Unet,即U2Net

2024-01-01

图像分割实战-系列教程3:unet医学细胞分割实战

图像分割实战-系列教程3:unet医学细胞分割实战

2023-12-30

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除