最强中文Embedding模型m3e和向量数据库Qdrant联动
M3E 是的缩写Moka,此模型由 MokaAI 训练,开源和评测,训练脚本使用uniem,评测 BenchMark 使用MTEB-zhMassive,此模型通过千万级(2200w+) 的中文句对数据集进行训练Mixed,此模型支持中英双语的同质文本相似度计算,异质文本检索等功能,未来还会支持代码检索Embedding,此模型是文本嵌入模型,可以将自然语言转换成稠密的向量在大模型中使用向量数据库具有多方面的意义,特别是在处理大规模向量数据时。大模型通常需要处理大量的向量数据,如图像、文本、语音等。
原创
2024-02-28 16:55:35 ·
3463 阅读 ·
0 评论