- 博客(11)
- 收藏
- 关注
原创 论文笔记(How to Fine-Tune BERT for Text Classification?)
论文笔记(How to Fine-Tune BERT for Text Classification?)
2022-04-02 10:44:23
1555
原创 OCR(光学字符识别)
OCR作用就是提取图片中的文本转化成文本形式。用于后续的NLP任务。不由的思考如何如何实现从图像中提取文本,分为两个步骤,第一个步骤:检测文字所在的位置(CTPN),(2)识别文本区域内容(CRNN )。(1)CTPN(Connectionist Text Proposal Network)文本检测本质上也属于物体检测,但是文本与常规得物体有较大区别。文本不同于物体检测,文本通常都是水平从左往右写得,并且字与字之间的宽度都大致相同。不同文本的宽度不相同,那如何应对变长的序列。使用宽度相同,长度不同的
2022-03-20 15:21:14
2421
原创 MAE(CV领域的Bert)
MAE(CV领域的Bert)Masked Autoencoders Are Scalable Vision Learners这篇文章是在2021年11月11号提交到arxiv上面的,Transformer是一个基于纯注意力机制的编码器与解码器。
2022-03-07 22:10:23
6079
原创 Swin Transformer
Swin Transformer: Hierarchical Vision Transformer using Shifted Windows,绕不开的baseline,多模态用有新意的方法有效的解决一个研究问题(1)Swin Transformer 整体架构(2)代码简介
2022-03-04 10:59:06
4082
原创 Vision Transformer (VIT)
一 VIT原理介绍:AN IMAGE IS WORTH 16X16 WORDS:TRANSFORMERS FOR IMAGE RECOGNITION AT SCALE(论文名称)
2022-03-02 17:02:38
4442
原创 Generative Adversarial Nets(GAN)
主要结合GAN论文介绍一下GAN的原理,如何实现的。并介绍一下CycleGAN的原理以及源码的实现
2022-02-28 16:26:02
1320
原创 Bert 原理与源码下载
()一 Bert原理介绍:Bert是transformer的一种变体,所以这里先介绍一下transformer。tramsformer是一种基于多头注意力机制的模型,是NLP中非常重要的模型,本质上是一种Encode-Decoder结构。上图就是transformer模型的主要结构,下面分别介绍模型结构的Encoder和Decoder部分。(1)Encoder部分主要包括三个部分组成(a)输入部分;(b)注意力机制部分;(c)前馈神经网络部分。(a)输入部分,对于NLP中存在一个词汇表,词汇
2022-01-26 14:42:31
2191
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人