bert textcnn用于文本分类

bert 

1. load bert 方式

tf bert源代码 <br/>
tf keras_bert <br/>
tf tensorflow_hub <br/>
tf bert-as-service <br/>
torch tf-->torch(用transformers库把tf-bert模型转成torch) pytorch_pretrained_bert <br/>

input_ids <br/>
input_mask <br/>
segment_ids <br/>

2.preprocess our data <br/>
1. lowercase our text (for:EN) <br/>
2. Tokenize it(i.e. "sally says hi" -> ["sally", "says", "hi"]) <br/>
3. break words into wordpieces <br/>
4. map our words to indexes using a vocab file that bert provides <br/>
5. add special 'CLS' and 'SEP' token <br/>
6. append 'index' and 'segment' tokens to each input (see the [BERT paper](https://arxiv.org/pdf/1810.04805.pdf))<br/>


bert fine-tune <br/>
bert 得到特征进行下游任务 <br/>
一、当作文本特征提取的工具,类似Word2vec模型一样 <br/>
二、作为一个可训练的层,后面可接入客制化的网络,做迁移学习 <br/>

使用keras_bert来加载构建bert模型

import codecs
import pandas as pd
import numpy as np
from keras.utils import to_categorical, multi_gpu_model
from
  • 6
    点赞
  • 26
    收藏
    觉得还不错? 一键收藏
  • 3
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值