- 博客(2)
- 收藏
- 关注
转载 word2vec训练中文模型
首先需要一份比较大的中文语料数据,可以考虑中文的维基百科(也可以试试搜狗的新闻语料库)。中文维基百科的打包文件地址为 https://dumps.wikimedia.org/zhwiki/latest/zhwiki-latest-pages-articles.xml.bz2中文维基百科的数据不是太大,xml的压缩文件大约1G左右。首先用 process_wiki_data.py处理这个XML压缩文...
2018-06-05 23:12:28 565 1
原创 ModuleNotFoundError: No module named 'jieba.analyse'; 'jieba' is not a package
python文件不能叫jieba.py修改名字,再确认jieba工具是否安装好,就ok
2018-06-05 23:02:10 14643
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人