医疗NLP领域 |
为中文自然语言处理领域发展贡献语料 来自 <https://github.com/brightmart/nlp_chinese_corpus> 1.维基百科(wiki2019zh),100万个结构良好的中文词条 2.新闻语料(news2016zh),250万篇新闻,含关键词、描述 3.百科问答(baike2018qa),150万个带问题类型的问答 4.社区问答json版(webtext2019zh),410万个高质量社区问答,适合训练超大模型 5.翻译语料(translation2019zh),520万个中英文句子对 |
Chinese-poetry: 最全中华古诗词数据库 |
THUCTC: 一个高效的中文文本分类工具包 |
实体识别
https://github.com/CLUEbenchmark/CLUENER2020
中文NLP.数据集搜索:https://www.cluebenchmarks.com/dataSet_search.html
综合
对话语料
chinese_chatbot_corpushttps://github.com/codemayq/chinese_chatbot_corpus