【学习周报】研究生学习周报

学习内容:

  1. VPM模型训练
  2. LSTM与GRU比较

学习时间:

  • 12.26 ~ 12.31

学习笔记:

VPM模型训练

1.所需环境

  • Python 3.6
  • Java 15.0.2
  • PyTorch 1.2
  • numpy, tqdm, h5py, scipy, six

2.训练步骤

2.1 不使用强化学习进行训练

注:代码中的 ’ * ’ 根据训练的数据集替换为 ‘activitynet’ 或 ‘charades’ 。

1.直接使用原数据集文件进行训练。

$ cd driver
$ CUDA_VISIBLE_DEVICES=0 python transformer.py 
../results/*/dm.token/model.json ../results/*/dm.token/path.json --is_train

2.使用选择的关键帧进行训练,需要下载适用于关键帧选择的预训练文件。

$ cd driver
$ CUDA_VISIBLE_DEVICES=0 python transformer.py 
../results/*/key_frames/model.json ../results/*/key_frames/path.json 
--is_train --resume_file ../results/*/key_frames/pretrained.th

这种训练方式的结果会比方法1稍微逊色一些,但可以节省将近一半的时间。

未使用强化学习训练结果(方法1)
  1. charades数据集
    训练50个epoch后,模型在几种评估分数上的得分如下:
    在这里插入图片描述

  2. activitynet数据集
    训练50个epoch后,模型在几种评估分数上的得分如下:
    在这里插入图片描述

  3. 结果汇总

    数据集名称activitynetcharades
    bleu40.11520.1710
    cider0.25750.2307
    meteor0.15760.1928
    div10.68920.7848
    div20.83300.8917
    re40.02650.0011

    模型在上述两个数据集上的得分与paper中记录的得分相比低了几个点,原因是还没有借助强化学习对模型进行强化训练,接下来就是利用强化学习对模型进行训练。

2.2 基于2.1保存的训练结果进行强化学习训练
$ cd driver
$ CUDA_VISIBLE_DEVICES=0 python transformer.py 
../results/*/dm.token.rl/model.json ../results/*/dm.token.rl/path.json 
--is_train --resume_file ../results/*/dm.token/model/epoch.*.th
强化学习训练结果

LSTM与GRU比较

图片来源:https://blog.csdn.net/dQCFKyQDXYm3F8rB0/article/details/82922386
在这里插入图片描述

GRU(gated recurrent unit, 门控循环单元) 是新一代的循环神经网络,与 LSTM 非常相似。与 LSTM 相比,GRU 去除掉了细胞状态,使用隐藏状态来进行信息的传递。它只包含两个门:更新门和重置门,其中:

  • 更新门:类似于 LSTM 中的遗忘门和输入门。它决定了要忘记哪些信息以及哪些新信息需要被添加。
  • 重置门:用于决定遗忘先前信息的程度。
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值