import torch
import torchtext
import numpy as np
import torch.nn as nn
import torch.nn.functional as F
from torchtext.vocab import GloVe
import time
start=time.time()
#每篇提取200个单词
TEXT = torchtext.data.Field(lower=True, fix_length=200, batch_first=False)
LABEL = torchtext.data.Field(sequential=False)
train, test = torchtext.datasets.IMDB.splits(TEXT, LABEL)
TEXT.build_vocab(train, max_size=10000, min_freq=10, vectors=None)
LABEL.build_vocab(train)
BATCHSIZE = 256
train_iter, test_iter = torchtext.data.BucketIterator.splits((train, test), batch_size=BATCHSIZE)
#device = torch.device("cuda:0" if torch.cuda.is_available() else "cpu")
#将每个单词映射到长100维度的张量上
embeding_dim = 100
#隐藏单元数量 是超参数
hidden_size = 300
#此模型对评论依次读入,并输出最后状态
class RNN_Encoder(nn.Module):
#input_seq_length为输入序列长度
#hidden_size为输出隐藏单元数
def __init__(self, input_dim, hidden_size):
super(RNN_Encoder, self
基于pytorch的RNNCell的简单文本分类(更新GPU使用方法)
最新推荐文章于 2024-03-28 21:43:53 发布
本文探讨了使用PyTorch的RNNCell进行简单文本分类的实践,但发现由于RNNCell仅能记忆最近几次迭代的信息,导致分类效果不理想。同时,文章更新了关于如何在GPU上运行RNNCell以提升计算效率的方法。
摘要由CSDN通过智能技术生成