ALBert论文阅读笔记-缩减版的bert,模型参数更少,性能更好

ALBERT是Google在2019年提出的一种轻量级BERT变体,旨在减少模型参数量,提高训练和推断效率。论文通过词向量分解和层间参数共享等方法降低模型复杂度,并引入SOP预训练任务增强句子连贯性学习。实验表明,ALBERT在保持甚至超越BERT性能的同时,参数量显著减少。
摘要由CSDN通过智能技术生成

引言

自从Bert被提出来后,后续的研究者大多基于bert进行改造,提升预训练语言模型性能,从而提高下游任务的性能。比如ERINE、BERT_WWM、MASS、MT-DNN、RoBERT等等。从GLUE榜上我们可以看到,似乎现在的语言模型有越来越大的趋势,虽然我们的训练资源也是从GPU单卡到GPU多卡,到现在TPU,但不是每个公司都这么有钱,特别对个人,有可能就是一块卡,怎么样在资源有限的情况下,玩起来这些高大上的模型了?我们知道bert的base版本12层,参数量接近110M,这样大的模型在线上部署的时候效果是怎么样的?下表是在linux环境下基于GTX 1080运行结果。

</
环境 序列长度 请求次数 总时间(s) 平均耗时(ms)
GPU+checkpoint 128 10000 135.6 13.56
GPU+checkpoint 12 1000 10.3 10.3
CPU+checkpoint 128 1000 212 212
CPU+checkpoint 12 1000 83 83
CPU+tfserving 128 1000 351 351
  • 0
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
为了训练Albert-BiLSTM-CRF模型,可以按照以下步骤进行: 1. 首先,准备训练数据。根据你的任务类型,将数据标注为不同的标签。确保数据格式符合模型的输入要求。 2. 接下来,根据已有的Albert-CRF模型代码为基础,参考网上的Albert-BiLSTM-CRF模型进行修改。主要修改的地方是数据传递类型,比如将Albert模型训练得到的embedding传入BiLSTM。 3. 使用训练好的Bert/Albert模型作为初始权重,加载预训练的模型参数。这可以帮助提高模型性能。 4. 定义模型架构。在Albert-BiLSTM-CRF模型中,先通过Albert模型获取词嵌入(embedding),然后将词嵌入输入到BiLSTM层中进行序列建模,最后使用CRF层进行标签预测。 5. 编译模型并设置损失函数和优化器。对于序列标注任务,常用的损失函数是CRF损失函数,常用的优化器是Adam或者SGD。 6. 开始模型训练。将准备好的训练数据输入到模型中,使用反向传播算法更新模型的权重。可以设置合适的批次大小和训练轮数来进行训练。 7. 监控训练过程中的性能指标,比如损失值和准确率。可以使用验证集来评估模型在未见过的数据上的性能。 8. 进行模型调优。根据训练过程中的性能指标,可以尝试调整模型结构、超参数或者训练策略来提高模型性能。 9. 最后,保存训练好的Albert-BiLSTM-CRF模型,以备后续使用。 请注意,在训练过程中可能需要进行一些调试和优化,例如调整学习率、正则化参数等。同时,合理的数据预处理和特征工程也可以对模型性能产生影响。因此,根据实际情况进行调整和优化。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* *2* [【NLP_命名实体识别】Albert+BiLSTM+CRF模型训练、评估与使用](https://blog.csdn.net/YWP_2016/article/details/114648476)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] - *3* [程序员5个刷题网站-keras-bert-ner:中文NER任务使用BiLSTM-CRF/BiGRU-CRF/IDCNN-CRF模型和预训练语](https://download.csdn.net/download/weixin_38623366/20060209)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] [ .reference_list ]
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值