pytorch
文章平均质量分 62
pospre
这个作者很懒,什么都没留下…
展开
-
torch.nn.Embedding
详见 官方文档class torch.nn.Embedding(num_embeddings, embedding_dim, padding_idx=None, max_norm=None, norm_type=2.0, scale_grad_by_freq=False, sparse=False, _weight=None, device=None, dtype=None)torch.nn.Embedding 作用是一个简单的查找表,用于 存储固定字典 和 大小 的嵌入该模块通常用于存储词.翻译 2021-09-03 16:44:57 · 272 阅读 · 0 评论 -
解决 torchtext 无法下载 glove
最近,在看一个情感分析入门级项目,其中用到了 glove 预训练词嵌入。但是,可能是因为网络原因,直接使用 torchtext 下载 glove 却又没反应。搞得有点头大,辗转好久才解决。采用如下代码构建词典时,本会自动下载 “glove.6B.100d”:TEXT.build_vocab(train_data, max_size = MAX_VOCAB_SIZE, vectors = "glove.6B.100d", .原创 2021-06-17 20:36:13 · 2641 阅读 · 3 评论 -
torch.bmm 函数
torch.bmm 函数这里只是记录一下,为了以后个人方便查找。具体参考:pytorch官方文档torch.bmm(input, mat2, *, deterministic=False, out=None) → Tensor功能:对 input 和 mat2 矩阵执行批处理矩阵积。input 和 mat2 必须是三维张量,每个张量包含相同数量的矩阵。输入:input tensor 维度:(b×n×m) ;mat2 tensor 维度: (b×m×p) ,输出:out te翻译 2021-05-31 16:03:09 · 3456 阅读 · 1 评论 -
torch.unsqueeze(input, dim)函数
函数调用形式:torch.unsqueeze(input, dim) → Tensor功能: 在指定位置 dim 插入一个大小为1的维度input: old tensordim: 插入维度的位置。其中,dim 范围为:[-input.dim() - 1, input.dim() + 1)。当 dim 为负数时,表示从后向前计数(即,dim == -1 和 dim == input.dim() 等效)。return: new tensor详情见pytorch官方文档:unsqueeze()函.原创 2021-05-08 15:35:46 · 2196 阅读 · 0 评论