有趣的深度学习——使用 BERT 实现一个古体诗生成器

这篇博客介绍了如何利用BERT模型创建一个古体诗生成器,对比了BERT与RNN在该任务上的效果,表明BERT在生成质量和速度上表现出色。通过参考bert4keras库,作者提供了随机生成、续写和藏头诗的功能,并强调预训练的BERT模型对于小公司和个人开发者在NLP任务上的便利性。
摘要由CSDN通过智能技术生成

前言

前阵子使用RNN写了个古体诗生成器(有趣的深度学习——使用TensorFlow 2.0 + RNN 实现一个古体诗生成器)的NLP小Demo玩玩。而现在说到NLP,就很难绕开Transformers系列模型,譬如BERT、GPT-2、RoBERTa、ALBERT、XLNet等等。Transformers系列模型不断刷新着NLP任务得分记录,在绝大多数任务下都远胜于传统的、基于RNN的NLP任务。

那么,既然之前用RNN写了个古体诗生成器,我们不妨也用BERT写一个吧,正好对比一下效果。

转载请注明来源:https://blog.csdn.net/aaronjny/article/details/104802847

解读

代码结构和功能与有趣的深度学习——使用TensorFlow 2.0 + RNN 实现一个古体诗生成器(https://blog.csdn.net/aaronjny/article/details/103806954)基本上相同,只是将模型从RNN换成了BERT,注释也很详细,感觉没有解读的必要了。

对照着这两份文档就能搞清楚:

基于RNN的模型的详细文档:使用TensorFlow 2.0 + RN

评论 12
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值