开源预训练框架 MMPRETRAIN官方文档(模型概要)

在此页面中,我们列出了我们支持的所有算法。您可以点击链接跳转到对应的型号页面。

All supported algorithms

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
RoBERTa中文预训练模型 概述 中文预训练RoBERTa模型 RoBERTa是BERT的改进版,通过改进训练任务和数据生成方式、训练更久、使用更大批次、使用更多数据等获得了State of The Art的效果;可以用Bert直接加载。 本项目是用TensorFlow实现了在大规模中文上RoBERTa的预训练,也会提供PyTorch的预训练模型和加载方式。 中文预训练RoBERTa模型-下载 6层RoBERTa体验版 RoBERTa-zh-Layer6: Google Drive 或 百度网盘,TensorFlow版本,Bert 直接加载, 大小为200M 推荐 RoBERTa-zh-Large 通过验证 RoBERTa-zh-Large: Google Drive 或 百度网盘 ,TensorFlow版本,Bert 直接加载 RoBERTa-zh-Large: Google Drive 或 百度网盘 ,PyTorch版本,Bert的PyTorch版直接加载 RoBERTa 24/12层版训练数据:30G原始文本,近3亿个句子,100亿个中文字(token),产生了2.5亿个训练数据(instance);覆盖新闻、社区问答、多个百科数据等; 本项目与中文预训练24层XLNet模型 XLNet_zh项目,使用相同的训练数据。 RoBERTa_zh_L12: Google Drive 或 百度网盘 TensorFlow版本,Bert 直接加载 RoBERTa_zh_L12: Google Drive 或百度网盘 PyTorch版本,Bert的PyTorch版直接加载 Roberta_l24_zh_base TensorFlow版本,Bert 直接加载 24层base版训练数据:10G文本,包含新闻、社区问答、多个百科数据等 什么是RoBERTa: 一种强大的用于预训练自然语言处理(NLP)系统的优化方法,改进了Transformers或BERT的双向编码器表示形式,这是Google在2018年发布的自监督方法。 RoBERTa在广泛使用的NLP基准通用语言理解评估(GLUE)上产生最先进的结果。 该模型在MNLI,QNLI,RTE,STS-B和RACE任务上提供了最先进的性能,并在GLUE基准上提供了可观的性能改进。 RoBERTa得分88.5,在GLUE排行榜上排名第一,与之前的XLNet-Large的表现相当。 效果测试与对比 Performance 互联网新闻情感分析:CCF-Sentiment-Analysis 模型 线上F1 BERT 80.3 Bert-wwm-ext 80.5 XLNet 79.6 Roberta-mid 80.5 Roberta-large (max_seq_length=512, split_num=1) 81.25 注:数据来源于guoday的开源项目;数据集和任务介绍见:CCF互联网新闻情感分析 自然语言推断:XNLI 模型 开发集 测试集 BERT 77.8 (77.4) 77.8 (77.5) ERNIE 79.7 (79.4) 78.6 (78.2) BERT-wwm 79.0 (78.4) 78.2 (78.0) BERT-wwm-ext 79.4 (78.6) 78.7 (78.3) XLNet 79.2 78.7 RoBERTa-zh-base 79.8 78.8 RoBERTa-zh-Large 80.2 (80.0) 79.9 (79.5) 注:RoBERTa_l24_zh,只跑了两次,Performance可能还会提升; BERT-wwm-ext来自于这里;XLNet来自于这里; RoBERTa-zh-base,指12层RoBERTa中文模型 问题匹配语任务:LCQMC(Sentence Pair Matching) 模型 开发集(Dev) 测试集(Test) BERT 89.4(88.4) 86.9(86.4) ERNIE 89.8 (89.6) 87.2 (87.0) BERT-wwm 89.4 (89.2) 87.0 (86.8) BERT-wwm-ext - - RoBERTa-zh-base 88.7 87.0 RoBERTa-zh-Large 89.9(89.6) 87.2(86.7) RoBERTa-zh-Large(20w_steps) 89.7 87.0 注:RoBERTa_l24_zh,只跑了两次,Performance可能还会提升。保持训练轮次和论文一致: 阅读理解测试 目前阅读理解类问题bert和roberta最优参数均为epoch2, batch=32, lr=3e-5, warmup=0.1 cmrc20
### 回答1: 开源代码的预训练模型可能存储在不同的文件夹中,具体取决于该模型的开发者和存储位置。通常,您可以在模型开源存储库或网站上找到有关模型的详细信息和下载链接,该链接可能包含预训练模型文件的位置和名称。您还可以查看模型文档或使用说明,以获取更多关于模型文件位置和使用方法的信息。 ### 回答2: 开源代码的预训练模型一般保存在模型文件夹中。模型文件夹通常位于项目的根目录下或者是代码库的某个特定目录中。该文件夹允许开发者存储和访问模型权重文件、配置文件以及其他与模型相关的文件。 在模型文件夹中,预训练模型通常被保存为特定格式的文件,如TensorFlow中的“.ckpt”文件,PyTorch中的“.pt”文件等。这些文件包含了模型在训练阶段所学到的权重值。 此外,模型文件夹还可能包含其他与模型相关的文件和文件夹,例如超参数配置文件、日志文件、模型评估指标等。这些文件对于开发者来说都是有用的,以便了解模型架构、训练设置和模型性能。 总之,开源代码的预训练模型一般存储在模型文件夹中,通过这个文件夹开发者可以方便地访问和使用预训练模型的权重参数以及其他相关文件。 ### 回答3: 开源代码的预训练模型一般会放置在与该代码项目相关的文件夹中。典型的情况是,这些模型会被放置在项目的"models"或者"pretrained_models"(预训练模型)文件夹下。这个文件夹通常位于代码的根目录中,与其他源代码和资源文件同级。这样的安排可以使项目文件结构更加清晰和有序,方便用户或开发者找到和使用预训练模型。 在这个预训练模型文件夹中,可能会包含多个预训练模型文件或模型文件夹,每个模型用于不同的任务或具有不同的变种。为了更好的组织和管理,这些模型文件通常会被命名为有意义的名称或者加上版本号。 此外,还有一些开源代码库会提供一个额外的下载脚本或命令,用于从指定的源(如云端服务器)下载预训练模型。这样的情况下,预训练模型文件夹可能不会直接存在于代码仓库中,而是在用户运行下载脚本后被动态获取。 总之,预训练模型一般会以适当的方式集中放置在开源代码项目的相关文件夹中,以便用户方便使用和管理。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值