- 博客(5)
- 问答 (1)
- 收藏
- 关注
原创 [词嵌入] Pytorch中Embedding Layer 原理和用法
在处理NLP任务时,第一步就会面临着如何将自然语言转化成数字/向量,常见的有下面几种方式1.利用Pytorch和Tensorflow,自带的编码方式2.使用one-hot编码3.使用预训练模型,使词嵌入之间有更好的语义信息(ELMo,Bert)本篇博客重点介绍第一种方式:Embedding layer,主要的步骤如下:1.准备好所要使用的语料库2.构建字典,使语料库中的每个词都对应一个索引3.利用Embedding Layer对输入的自然语言做embedding,作为网络的第一层4.训练模型
2022-01-09 01:04:16
4217
1
原创 Embedding之word2vec pytorch实现简易的word2vec(w2v)
pytorch实现简易的w2v embeddingWord2vec的原理就不多介绍了,如果需要了解的话推荐下面这篇论文,说的非常详细word2vec Parameter Learning Explained本篇文章主要介绍利用w2v作embedding,利用的是w2v的skip-gram,我们对下面的安徽省主要城市进行embedding:安庆 池州 铜陵 芜湖 马鞍山 南京 滁州 合肥 六安 淮南 蚌埠 阜阳 宿州 淮北 亳州1.skip-gram模型(中心词和背景词)利用skip-gr
2021-09-14 20:11:14
1283
1
原创 Pytorch Softmax用法
Pytorch Softmax用法pytorch中的softmax主要存在于两个包中分别是:torch.nn.Softmax(dim=None)torch.nn.functional.softmax(input, dim=None, _stacklevel=3, dtype=None)下面分别介绍其用法:torch.nn.Softmaxtorch.nn.Softmax中只要一个参数:来制定归一化维度如果是dim=0指代的是行,dim=1指代的是列。import torch import to
2021-09-13 21:27:53
32535
1
原创 python __init__ 与__name__
python用的最多的内置变量_init_和_name_,简单介绍一下,在编什么神经网络,机器学习完全够用:1.__init__在python书写类时,都会带一个_init_(),但是无论你写不写,每当你创建实例时,python都会自动运行_init_().看一个例子:文件Dog.py:class Dog(): def __init__(self,name,age): self.name = name self.age =age def .
2021-07-18 00:26:16
403
空空如也
小白求解为什么我这一段C语言代码**p无法输出???
2017-09-21
TA创建的收藏夹 TA关注的收藏夹
TA关注的人