Torchtext 0.12+新版API学习与使用示例(1)

torchtext 文档页面:https://pytorch.org/text/stable/index.html
torchtext github页面:https://github.com/pytorch/text

torchtext 0.9是一个API的大更新,0.12又是一个大更新

但是官网教程门槛太高了,这里参考文档,举几个小例子,把学习门槛降下来:

官网教程:SST-2 BINARY TEXT CLASSIFICATION WITH XLM-ROBERTA MODEL

注意:如果大家有学习过transfomer里的类,那么需要注意的是,torchtext能一个函数做成的只有很少很少的基本功能,没法自由把token <-> index或是token <-> embedding这种,需要我们代码中手动转换

学习教程:

1. word 转 token

首先构造一个自定义的vocab

from torchtext.vocab import vocab

from collections import Counter, OrderedDict

sentence = "Natural language processing strives to build machines that understand and respond to text or voice data and respond with text or speech of their own in much the same way humans do."
sentences_list = sentence.split(" ")  # 切分句子

counter = Counter(sentences_list)  # 统计计数
sorted_by_freq_tuples = sorted(counter.items(), key=lambda x: x[1], reverse=True)  # 构造成可接受的格式:[(单词,num), ...]
ordered_dict = OrderedDict(sorted_by_freq_tuples)
# 开始构造 vocab
my_vocab = vocab(ordered_dict, specials=["<UNK>", "<SEP>"])  # 单词转token,specials里是特殊字符,可以为空

最后使用:

print("单词and的token", my_vocab['and'])

即可得到token,为3

2. token 与 word 的对应关系

word对应的token可以通过:

print("word->token:", my_vocab.get_stoi())

同样token->word:

print("token->word:", my_vocab.get_itos())

3. 句子 -> token

这里需要引入一个新的类VocabTransform,然后使用如下示例即可:

from torchtext.transforms import VocabTransform

vocab_transform = VocabTransform(my_vocab)
trans_token = vocab_transform([
    ["language", "processing"],
    ["second", "understand", "and", "respond", "to", "text"],
    ["wa", "ka", "ka", "ka", "ka", "ka"]])
print("转换后的token:", trans_token)

4. 句子定长截断

同样引入新的类Truncate

from torchtext.transforms import Truncate

truncate = Truncate(max_seq_len=3)  # 截断
truncate_token = truncate(trans_token)
print("截断后的token(最长为3)", truncate_token)

5. 批量修改句子的token

使用AddToken可以在开头或结尾为每个句子都添加一个想要的token

from torchtext.transforms import AddToken

begin_token = AddToken(token=1000, begin=True)  # 在每个句子开头添加一个token,使用值 1000 表示这个头token
end_token = AddToken(token=-10000, begin=False)  # 在每个句子结尾添加一个token,使用值 -1000 表示这个头token
add_end_token = end_token(begin_token(truncate_token))
print('动态修改token后的结果(收尾添加特殊字符):', add_end_token)

完整示例代码

from torchtext.vocab import vocab

from collections import Counter, OrderedDict

sentence = "Natural language processing strives to build machines that understand and respond to text or voice data and respond with text or speech of their own in much the same way humans do."
sentences_list = sentence.split(" ")
# ===========================================
# 构造words -> token 与 token -> words
# ===========================================
counter = Counter(sentences_list)
sorted_by_freq_tuples = sorted(counter.items(), key=lambda x: x[1], reverse=True)
ordered_dict = OrderedDict(sorted_by_freq_tuples)
# 开始构造 vocab
my_vocab = vocab(ordered_dict, specials=["<UNK>", "<SEP>"])  # 单词转 token
my_vocab.set_default_index(-1)  # 设置OOV token,就是如果找不到这个单词,返回哪个token,默认会报错,这里只要设置了就不会报错,返回设置的值
# 测试vocab
print("单词 and 的token:", my_vocab['and'])
print("单词 apple 的token(语料中木有这个词):", my_vocab['apple'])

# 批量的将语句转为token
from torchtext.transforms import VocabTransform

vocab_transform = VocabTransform(my_vocab)
trans_token = vocab_transform([
    ["language", "processing"],
    ["second", "understand", "and", "respond", "to", "text"],
    ["wa", "ka", "ka", "ka", "ka", "ka"]])
print("转换后的token:", trans_token)
print("token->word:", my_vocab.get_itos())
print("word->token:", my_vocab.get_stoi())

# 控制语句长度
from torchtext.transforms import Truncate

truncate = Truncate(max_seq_len=3)  # 截断
truncate_token = truncate(trans_token)
print("截断后的token(最长为3)", truncate_token)

# 动态修改语句的token
from torchtext.transforms import AddToken

begin_token = AddToken(token=1000, begin=True)  # 在每个句子开头添加一个token,使用值 1000 表示这个头token
end_token = AddToken(token=-10000, begin=False)  # 在每个句子结尾添加一个token,使用值 -1000 表示这个头token
add_end_token = end_token(begin_token(truncate_token))
print('动态修改token后的结果(收尾添加特殊字符):', add_end_token)
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

呆萌的代Ma

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值