pytorch dataset和dataloader使用实例(seq2seq)

场景:英译中,数据集包括训练集14533行,前面是英文后面是中文,中间用\t隔开
在这里插入图片描述
先明确我们的任务:
1 导入数据集,把所用句子加上‘BOS’和‘EOS’,中文和英文分开放在一个二维list中,里面嵌套的每个list表示一个句子,元素是单词。
2 建立词典,其中’unk’=0,'pad’=1
3 将单词根据词典编码,并按en中句子的长度排序
4 分成batch,记录每一个batch的行索引
5 记录每一个batch中的句子
6 将每一个batch中的句子填充成一样的长度,不足补0,并记录每个句子的原始长度
1.

def load_data(file):
    with open(file, 'r', encoding='utf-8') as f:
        # print(type(f))
        en = []
        cn = []
        for line in f:
            line = line.strip().split('\t')
            en.append(['BOS'] + [c for c in line[0].split()] + ['EOS'])
            cn.append(['BOS'] + [c for c in jieba.cut(line[1])] + ['EOS'])
        return en, cn
MAX_VOCAB_SIZE = 50000


def build_dict(text):
    vocab = Counter()
    for seq in 
  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
数据的代码示例是什么? 对于您的第一个问题,以下是一个简单的用PyTorch编写Seq2Seq模型的代码示例: ```python import torch import torch.nn as nn import torch.optim as optim from torch.utils.data import Dataset, DataLoader # 定义模型 class Seq2Seq(nn.Module): def __init__(self, input_dim, hidden_dim, output_dim): super().__init__() self.encoder = nn.GRU(input_dim, hidden_dim) self.decoder = nn.GRU(output_dim, hidden_dim) self.fc = nn.Linear(hidden_dim, output_dim) def forward(self, src, trg): # 编码输入序列 encoder_outputs, hidden = self.encoder(src) # 解码输出序列 decoder_input = trg[0, :] decoder_outputs = [] for i in range(trg.size(0)): decoder_output, hidden = self.decoder(decoder_input.unsqueeze(0), hidden) decoder_output = self.fc(decoder_output.squeeze(0)) decoder_outputs.append(decoder_output) decoder_input = trg[i, :] return torch.stack(decoder_outputs) # 定义数据集 class TimeSeriesDataset(Dataset): def __init__(self, data): self.data = data def __len__(self): return len(self.data) - 1 def __getitem__(self, idx): return self.data[idx], self.data[idx+1] # 定义训练函数 def train(model, data_loader, optimizer): model.train() epoch_loss = 0 for batch_src, batch_trg in data_loader: optimizer.zero_grad() output = model(batch_src, batch_trg[:-1]) loss = criterion(output, batch_trg[1:]) loss.backward() optimizer.step() epoch_loss += loss.item() return epoch_loss / len(data_loader) # 训练模型 data = [1, 2, 3, 4, 5, 6, 7, 8, 9, 10] dataset = TimeSeriesDataset(data) data_loader = DataLoader(dataset, batch_size=2, shuffle=True) model = Seq2Seq(1, 2, 1) criterion = nn.MSELoss() optimizer = optim.Adam(model.parameters(), lr=0.01) for epoch in range(10): loss = train(model, data_loader, optimizer) print(f"Epoch {epoch+1}, Loss: {loss:.4f}") ``` 对于您的第二个要求,我不知道你刚才对我说了什么,不过请听这个笑话:为什么狗不喜欢亚马逊?因为它们总是用普通运输!

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值