自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(11)
  • 收藏
  • 关注

原创 git linux文件推送到远程github库

git 提交仓库的使用

2022-09-01 11:15:50 1069

原创 创建pytorch虚拟环境的版本问题

gvp虚拟环境安装的版本依赖问题

2022-06-10 12:31:21 802

原创 论文笔记(How to Fine-Tune BERT for Text Classification?)

论文笔记(How to Fine-Tune BERT for Text Classification?)

2022-04-02 10:44:23 1555

原创 OCR(光学字符识别)

OCR作用就是提取图片中的文本转化成文本形式。用于后续的NLP任务。不由的思考如何如何实现从图像中提取文本,分为两个步骤,第一个步骤:检测文字所在的位置(CTPN),(2)识别文本区域内容(CRNN )。(1)CTPN(Connectionist Text Proposal Network)文本检测本质上也属于物体检测,但是文本与常规得物体有较大区别。文本不同于物体检测,文本通常都是水平从左往右写得,并且字与字之间的宽度都大致相同。不同文本的宽度不相同,那如何应对变长的序列。使用宽度相同,长度不同的

2022-03-20 15:21:14 2421

原创 MAE(CV领域的Bert)

MAE(CV领域的Bert)Masked Autoencoders Are Scalable Vision Learners这篇文章是在2021年11月11号提交到arxiv上面的,Transformer是一个基于纯注意力机制的编码器与解码器。

2022-03-07 22:10:23 6079

原创 Swin Transformer

Swin Transformer: Hierarchical Vision Transformer using Shifted Windows,绕不开的baseline,多模态用有新意的方法有效的解决一个研究问题(1)Swin Transformer 整体架构(2)代码简介

2022-03-04 10:59:06 4082

原创 Vision Transformer (VIT)

一 VIT原理介绍:AN IMAGE IS WORTH 16X16 WORDS:TRANSFORMERS FOR IMAGE RECOGNITION AT SCALE(论文名称)

2022-03-02 17:02:38 4442

原创 Generative Adversarial Nets(GAN)

主要结合GAN论文介绍一下GAN的原理,如何实现的。并介绍一下CycleGAN的原理以及源码的实现

2022-02-28 16:26:02 1320

原创 Tensorflow2.0基础

主要介绍一下Tensorflow2.0的基础语句

2022-02-23 20:21:05 211

原创 Bert 原理与源码下载

()一 Bert原理介绍:Bert是transformer的一种变体,所以这里先介绍一下transformer。tramsformer是一种基于多头注意力机制的模型,是NLP中非常重要的模型,本质上是一种Encode-Decoder结构。上图就是transformer模型的主要结构,下面分别介绍模型结构的Encoder和Decoder部分。(1)Encoder部分主要包括三个部分组成(a)输入部分;(b)注意力机制部分;(c)前馈神经网络部分。(a)输入部分,对于NLP中存在一个词汇表,词汇

2022-01-26 14:42:31 2191

原创 git的使用

简单的介绍一下自己学习git的心得

2022-01-22 11:16:28 599

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除