深度学习(十二)-基于 Bert 的情感分析

   B E R T ( B i d i r e c t i o n a l E n c o d e r R e p r e s e n t a t i o n s f r o m T r a n s f o r m e r s ) BERT(BidirectionalEncoderRepresentations fromTransformers) BERTBidirectionalEncoderRepresentationsfromTransformers G o o g l e Google Google 开发的一种 n l p nlp nlp 领域的预训练语言表示模型, B E R T BERT BERT在11项 N L P NLP NLP 任务中刷新了记录, G o o g l e Google Google 在11月份开源了 b e r t bert bert 的代码,同时发布了多种语言版本的模型。 B e r t Bert Bert 的出现彻底改变了预训练产生词向量和下游具体NLP任务的关系。针对 b e r t bert bert 的概念,网上各种介绍,讲的我也有点脑壳儿痛,为了不误导各位看官,这里就麻烦各位自己去看看其他博客和论文了,我们这里主要浅显的讲解一下分类应用。
   G o o g l e Google Google 官方的 B E R T BERT BERT 源码为 T e n s o r f l o w Tensorflow Tensorflow 的,所以网上比较多的是使用 T e n s o r f l o w Tensorflow Tensorflow 的应用,由于我并不是很懂 T

  • 10
    点赞
  • 91
    收藏
    觉得还不错? 一键收藏
  • 8
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 8
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值