“万物皆可Seq2Seq” | 使用 bert4keras 在中文语境下运行Google Multilingual T5(mT5)

本文介绍了如何使用苏总的bert4keras库在中文环境下运行Google的多语言T5(mT5)模型。内容包括T5模型的简介、实验环境配置(Ubuntu、GPU、Anaconda等)、数据集(GLGE的CSL摘要生成子集)处理、预训练权重获取,以及训练过程的详细说明。
摘要由CSDN通过智能技术生成

一、介绍

自去年Google发布了T5之后一直没有中文版本,所以没什么人去用。今年出了中文版我还是不会用,这里用的是苏总的bert4keras去跑mT5,一些对于T5的理解会慢慢加上,前面先以跑通为主。

我翻译了T5这篇论文  《Exploring the Limits of Transfer Learning with a Unified Text-to-Text Transformer》   ,链接在这里: https://blog.csdn.net/Andrwin/article/details/112279590

看完了相信你会对模型有了更深的理解。

二、环境

物理机:

Ubuntu18.04、RTX2080(8G)、NVIDIA-DRIVER=440.95.01、Anaconda3 5.2.1、Python=3.6、CUDA=10.1、CUDNN=7.6.5

先用conda创建一个虚拟环境:

conda create -n t5
source activate t5

然后用TensorFlow去装虚拟版本cudatoolkit

conda install tensorflow-gpu=1.14
pip install keras==2.3.1
pip install bert4keras==0.9.1
pip install numpy==1.19.2
pip install sentencepiece==0.1.94
pip install tqdm

其他东西缺什么装什么就行。

三、数据集与预训练权重

  • 0
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 9
    评论
评论 9
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值