tokenizer.encode("说你跑的挺远",add_special_tokenizerns=False)
相当于
seg=tokenizer.tokenize("说你跑的挺远")
encoder = tokenizer.convert_tokenizerns_to_ids(seg)

tokenizer.encode("说你跑的挺远",add_special_tokenizerns=False)
相当于
seg=tokenizer.tokenize("说你跑的挺远")
encoder = tokenizer.convert_tokenizerns_to_ids(seg)

9637

被折叠的 条评论
为什么被折叠?
>