最近对embedding_model得输入长度和显存占用做了一些测试,结果发现只要bge-m3才能满足超大文本块得embedding需求。第一列为模型部署运行需要得显存,以下测试的字符都为中文字符,如3000,即为3000个汉字。
bge-m3 | 3000 | 8000 | 9000 |
---|---|---|---|
2492MB | 3754MB | 10610MB | 10982MB |
bge-large-zh-1.5v | 400 | 500 | 600 |
---|---|---|---|
1564MB | 1676MB | 1702MB | 1702MB |
m3e-base | 400 | 500 | 600 |
---|---|---|---|
754MB | 842MB | 846MB | 846MB |
m3e-large | 400 | 500 | 600 |
---|---|---|---|
1564MB | 1674MB | 1702MB | 1702MB |