- 博客(2)
- 资源 (23)
- 收藏
- 关注
原创 一文学会Pytorch版本BERT使用
前言:coder们最常用的Pytorch版本的BERT应该就是这一份了吧https://github.com/huggingface/pytorch-pretrained-BERT这份是刚出BERT的时候出的,暂且叫它旧版我在学习使用旧版的时候粗略的记过一些笔记:https://blog.csdn.net/ccbrid/article/details/88732857随着BER...
2020-02-24 21:31:02 15576 1
原创 open-nmt参数max_generator_batches
本文关于onmt的一个参数:【max_generator_batches】该参数被设置为默认32:(下图为在onmt开源代码的opt.py参数文件中的默认设置)help文档意为:max_generator_batches为一个序列中并行运行生成器的最大的单词数量。越高越快,但占用的内存越大。设置为0禁用。第一次看到的时候有点懵,反复确认代码后,决定将其暂时理解为模型对...
2020-02-12 17:23:50 953 2
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人