![](https://img-blog.csdnimg.cn/20201014180756754.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
深度学习通用问题
文章平均质量分 71
Starry_Lei
包含但不局限于:人工智能、Python、C++、Flask网站制作等,个人的一些工作和学习分享。会不断提升博库品质,感谢大家的点赞、关注和收藏。
展开
-
第1章 训练自己的Tokenizer,构建专属词表(非必须,按需进行)
如果我们觉得重新训练一个自己的Tokenizer很麻烦,没有必要性, 但是又想加入一些特殊词汇在词表中。更具体的,如果使用 transformers model,可以使用 resize_token_embeddings 方法进行 resize,详情见。想要自己训练一个自己专属的Tokenizer有多种方法,使用sentencepiece工具是一种非常便捷、高效的方法。以下是一个简单用Transformers加载bert模型后进行resize的示例代码。原创 2024-06-18 18:01:10 · 193 阅读 · 0 评论 -
用optimum和fastT5解决Seq2Seq模型推理加速问题
Seq2Seq模型往往存在模型结构过大,推理速度达不到预期,导致模型推理的接口出现超时的现象。先提供三种改进方法,并且附上了两种方法optimum和fastT5使用onnx模型加速推理的详细实现代码,希望可以帮助到大家!!!原创 2024-03-20 20:51:50 · 1371 阅读 · 1 评论