[Github项目名] Chinese-Word-Vectors
[Github作者] Embedding
包括100多个不同corpus、context features、representations的预训练的中文词向量模型,可用于词向量的分析。其中,语料包括百度百科、人民日报、知乎问答、微博等,可满足传播研究的需求。
中文词向量模型概览
本项目提供100多种预训练的中文词向量模型,涵盖百度百科、人民日报等多元语料,适用于词向量分析及传播研究。模型基于不同corpus和context features训练,包括知乎问答和微博数据。
[Github项目名] Chinese-Word-Vectors
[Github作者] Embedding
包括100多个不同corpus、context features、representations的预训练的中文词向量模型,可用于词向量的分析。其中,语料包括百度百科、人民日报、知乎问答、微博等,可满足传播研究的需求。
718

被折叠的 条评论
为什么被折叠?