自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(3)
  • 收藏
  • 关注

原创 简述 text-cnn

简述text-cnntext-cnn的基本原理从向量来理解 text-cnn的基本原理 从向量来理解 text-cnn 从原来上来说,属于n-gram模型,比如一句话 我今天开心。我们假设 词向量维度为 20。 所以这句话可以表示为 [1,5,20] batch,seq_len,embedding_dim.我们可以flatten 以下 转换成 [1,100] 然后再通过一个 nn.linear(100,2) 可以转换成 [1,2] 做一个简单的两分类情感分类。那么这么做有什么问题,那可能如果写成 我开

2021-03-31 16:44:31 427

原创 seq-seq编解码网络

简述 seq-seq编解码网络编解码网络从看图说话简述编解码网络框架 编解码网络 从看图说话简述编解码网络 一个苹果放在我们眼前,苹果对于小孩来说就是输入,那么人类如何认知呢,这个苹果的大小,颜色,以及人是怎么理解这个苹果,到目前为止,人类对苹果这个图像进行编码,提取了对苹果的认知。老师问,你对这个苹果怎么看,这个时候,小孩要做的就是针对刚才对苹果的认知,讲一讲自己对苹果的理解,这个过程就是一个解码的过程。编码和解码通常存在的领域是不通的领域。比如翻译模型,中文翻译英文。看到 我开心,这个词 首先进行编码

2021-03-31 16:08:39 474

原创 NLP 中 Bilstm-attentio的使用

NLP 中 Bilstm-attentio的使用bilstm-attention 理解bilstm-attention的作用bilstm-attention 编码实现` bilstm-attention 理解 bilstm-attention的作用 1:输入空间和输出空间的理解 在NLP的任务框架中,最基本的流程是 初步编码(比如one-hot vector,或者预训练词向量)作为输入,比如一句话进来 我开心,如果使用在分类模型中,我们就需要融合 我开心 这三个字,我们将这三个字 映射成向量,比如

2021-03-31 13:24:40 1265

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除