Bert、Transformer模型详解清单

简介

本文将会从BERT的原理开始讲起,并带领大家分析transformer的源码,最后分别介绍如何使用BERT做本文分类与句向量的生成。

原理篇

本章将会先给大家介绍BERT的核心transformer,而transformer又是由attention组合而成,希望这两篇博客能让大家对transformer有一个详细的了解。

  1. Attention机制讲解:
  2. Transrofmer模型讲解:https://blog.csdn.net/u012526436/article/details/86295971
  3. BERT原理详解:https://terrifyzhao.github.io/2019/02/18/BERT%E5%8E%9F%E7%90%86.html

代码篇

上文介绍完了BERT的原理,接下来我们会对transformer的源码进行分析。

Transformer源码分析:https://terrifyzhao.github.io/2019/01/11/Transformer%E6%BA%90%E7%A0%81%E8%A7%A3%E8%AF%BB.html

实践篇

最后就是BERT的两个实战项目了,这两个项目也是目前NLP方向比较热门的内容。

使用BERT做文本相似度计算、文本分类:https://terrifyzhao.github.io/2019/02/18/BERT%E5%8E%9F%E7%90%86.html

BERT句向量生成:https://blog.csdn.net/u012526436/article/details/87697242

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值