- 博客(1)
- 收藏
- 关注
原创 大部分的大模型(LLM)采用左填充的原因
在微调大模型LLM 时,发现目前很多的大模型的tokenizer方式采用的都是left-padding 并是不像bert一样采用right-padding来处理token,据此研究了一下原因.如有不足,或者错误请多多指正.
2023-07-30 14:50:02 2301 1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
在微调大模型LLM 时,发现目前很多的大模型的tokenizer方式采用的都是left-padding 并是不像bert一样采用right-padding来处理token,据此研究了一下原因.如有不足,或者错误请多多指正.
2023-07-30 14:50:02 2301 1
TA创建的收藏夹 TA关注的收藏夹
TA关注的人