文本数据:MTEB 排行榜
HuggingFace 的 MTEB leaderboard 是一个一站式的文本 Embedding 模型榜!您可以了解每个模型的平均性能。
您可以将“Retrieval Average”列进行降序排序,因为这最符合向量搜索的任务。然后,寻找排名最高、占内存最小的模型。
-
Embedding 向量维度是向量的长度,即 f(x)=y 中的 y,模型将输出此结果。
-
最大 Token 数是输入文本块的长度,即 f(x)=y 中的 x ,您可以输入到模型中。
除了通过 Retrieval 任务排序外,您还可以根据以下条件进行过滤:
-
语言:支持法语、英语、中文、波兰语。(例如:task=retrieval,
Language=chinese)
-
法律领域文本。
(例如:task=retrieval,Language=law)
值得注意的是,由于部分训练数据最近才得以公开,一些 MTEB 上的 Embedding 模型可能是看似合适但实际不合适的模型,排名虚高&#