嵌入——实例

bert 模型

import tensorflow_hub as hub
import tensorflow as tf
!pip install tensorflow_text
import tensorflow_text as text
'''bert_model_hub='https://hub.tensorflow.google.cn/tensorflow/bert_zh_L-12_H-768_A-12/2'''
bert_model_hub='https://hub.tensorflow.google.cn/google/experts/bert/wiki_books/mnli/2'
max_length=100
text_test=['这个电影不是很好看']
bert_preprocess_model='https://tfhub.dev/tensorflow/bert_en_uncased_preprocess/1'
bert_preprocess_model=hub.KerasLayer(bert_preprocess_model)
text_preprocessed=bert_preprocess_model(text_test)
bert_model=hub.KerasLayer(bert_model_hub)
encoder=bert_model(text_preprocessed)

#encoder是一个字典,包括sequence、pooler out

tansformer _pytorch 中用法

from transformers import AutoTokenizer, AutoModel

tokenizer = AutoTokenizer.from_pretrained("bert-base-uncased")
model = AutoModel.from_pretrained("bert-base-uncased")

inputs = tokenizer("Hello world!", return_tensors="pt")
outputs = model(**inputs)
print(inputs)
print(outputs.keys())
pooler_output=outputs['pooler_output']
print(pooler_output.shape)

在tensorflow中用法

from transformers import BertTokenizer, TFBertModel
tokenizer = BertTokenizer.from_pretrained('bert-base-uncased')
model = TFBertModel.from_pretrained("bert-base-uncased")
text = "我喜欢你"
encoded_input = tokenizer(text, return_tensors='tf')
output = model(encoded_input)
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

YingJingh

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值