- 博客(2)
- 收藏
- 关注
转载 搜狐新闻数据400w+
在之前的闲聊对话语料中提到,爬取了400w+新闻语料训练word2vec,考虑到这个平台数据质量比较高,但是爬取的时候又有频率限制、网页打开慢、甚至有时候需要多次访问才能打开网页,经过几个月断断续续地爬取,在此把这部分数据公布给大家学习使用。这部分数据不仅可用来训练word2vec,还能进行做简单的新闻分类任务(可以通过url确定新闻的类别)。数据特点:时间跨度:2
2018-01-11 16:41:26 2144 2
转载 120G+训练好的word2vec模型(中文词向量)
从网上了解到,很多人缺少大语料训练的word2vec模型,在此分享下使用120G+语料训练好的word2vec模型。训练语料:百度百科800w+条,20G+搜狐新闻400w+条,12G+(数据下载链接见其它博文)小说:90G左右模型参数:window=5min_count=5size=64ps:其它参数见gensi
2018-01-11 16:32:38 21130 13
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人