【NLP】第4章 从头开始预训练 RoBERTa 模型

   🔎大家好,我是Sonhhxg_柒,希望你看完之后,能对你有所帮助,不足请指正!共同学习交流🔎

📝个人主页-Sonhhxg_柒的博客_CSDN博客 📃

🎁欢迎各位→点赞👍 + 收藏⭐️ + 留言📝​

📣系列专栏 - 机器学习【ML】 自然语言处理【NLP】  深度学习【DL】

 🖍foreword

✔说明⇢本人讲解主要包括Python、机器学习(ML)、深度学习(DL)、自然语言处理(NLP)等内容。

如果你对这个系列感兴趣的话,可以关注订阅哟👋

  • 11
    点赞
  • 50
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 7
    评论
RoBERTa是一个基于BERT模型的改进版本,它在预训练方面进行了进一步的探索和改进。与BERT相比,RoBERTa在模型结构上没有太多创新,但它改进了BERT预训练策略。研究结果表明,原始的BERT可能存在训练不足的问题,没有充分学习到训练数据中的语言知识。因此,RoBERTa通过从头开始训练分词器、字节级字节对编码以及重新创建标记器等方式,对BERT进行了改进和优化。RoBERTa模型具有8000万个参数,并且可以应用于下游任务,如Masked Language Modeling(MLM)。\[1\]\[2\] 另外,还有一个名为KantaiBERT预训练模型,它是一个相对较小的模型,具有6层、12个头和84095008个参数。尽管参数数量较少,但这个小型模型可以使预训练过程更加流畅,可以实时查看每个步骤的结果,而无需等待数小时。\[3\] #### 引用[.reference_title] - *1* *3* [【NLP】第4 从头开始预训练 RoBERTa 模型](https://blog.csdn.net/sikh_0529/article/details/127034879)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^insert_down28v1,239^v3^insert_chatgpt"}} ] [.reference_item] - *2* [【原理】预训练模型之自然语言理解--RoBERTa](https://blog.csdn.net/m0_63642362/article/details/121261531)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^insert_down28v1,239^v3^insert_chatgpt"}} ] [.reference_item] [ .reference_list ]
评论 7
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Sonhhxg_柒

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值