NLP文本语料库

ChineseNlpCorpus

搜集、整理、发布中文自然语言处理 语料/数据集,与有志之士共同促进中文自然语言处理 的 发展。

情感/观点/评论 倾向性分析

1、ChnSentiCorp_htl_all 数据集

  • 数据概览:7000 多条酒店评论数据,5000 多条正向评论,2000 多条负向评论

  • 下载地址:

 

https://github.com/SophonPlus/ChineseNlpCorpus/blob/master/datasets/ChnSentiCorp_htl_all/intro.ipynb

 

2、waimai_10k 数据集

  • 数据概览:某外卖平台收集的用户评价,正向 4000 条,负向 约 8000 条

  • 下载地址:

https://github.com/SophonPlus/ChineseNlpCorpus/blob/master/datasets/waimai_10k/intro.ipynb

 

3、online_shopping_10_cats 数据集   

  • 数据概览:10 个类别,共 6 万多条评论数据,正、负向评论各约 3 万条, 包括书籍、平板、手机、水果、洗发水、热水器、蒙牛、衣服、计算机、酒店

  • 下载地址:

 

https://github.com/SophonPlus/ChineseNlpCorpus/blob/master/datasets/online_shopping_10_cats/intro.ipynb

 

4、weibo_senti_100k 数据集

  • 数据概览:10 万多条,带情感标注 新浪微博,正负向评论约各 5 万条

  • 下载地址:

 

https://github.com/SophonPlus/ChineseNlpCorpus/blob/master/datasets/weibo_senti_100k/intro.ipynb

 

5、simplifyweibo_4_moods 数据集

  • 数据概览:36 万多条,带情感标注 新浪微博,包含 4 种情感, 其中喜悦约 20 万条,愤怒、厌恶、低落各约 5 万条

  • 下载地址:

 

https://github.com/SophonPlus/ChineseNlpCorpus/blob/master/datasets/simplifyweibo_4_moods/intro.ipynb

 

6、dmsc_v2 数据集

  • 数据概览:28 部电影,超 70 万 用户,超 200 万条 评分/评论 数据

  • 下载地址:

 

https://github.com/SophonPlus/ChineseNlpCorpus/blob/master/datasets/dmsc_v2/intro.ipynb

 

7、yf_dianping 数据集

  • 数据概览:24 万家餐馆,54 万用户,440 万条评论/评分数据

  • 下载地址:

 

https://github.com/SophonPlus/ChineseNlpCorpus/blob/master/datasets/yf_dianping/intro.ipynb

 

8、yf_amazon 数据集

  • 数据概览:52 万件商品,1100 多个类目,142 万用户,720 万条评论/评分数据

  • 下载地址:

https://github.com/SophonPlus/ChineseNlpCorpus/blob/master/datasets/yf_amazon/intro.ipynb

中文命名实体识别

dh_msra 数据集

  • 数据概览:5 万多条中文命名实体识别标注数据(包括地点、机构、人物)

  • 下载地址:

 

https://github.com/SophonPlus/ChineseNlpCorpus/blob/master/datasets/dh_msra/intro.ipynb

 

推荐系统


 

1、ez_douban 数据集

  • 数据概览:5 万多部电影(3 万多有电影名称,2 万多没有电影名称),2.8 万 用户,280 万条评分数据

  • 下载地址:

 

https://github.com/SophonPlus/ChineseNlpCorpus/blob/master/datasets/ez_douban/intro.ipynb

 

2、dmsc_v2 数据集

  • 数据概览:28 部电影,超 70 万 用户,超 200 万条 评分/评论 数据

  • 下载地址:

 

https://github.com/SophonPlus/ChineseNlpCorpus/blob/master/datasets/dmsc_v2/intro.ipynb

 

3、yf_dianping 数据集

  • 数据概览:24 万家餐馆,54 万用户,440 万条评论/评分数据

  • 下载地址:

 

https://github.com/SophonPlus/ChineseNlpCorpus/blob/master/datasets/yf_dianping/intro.ipynb

 

4、yf_amazon 数据集

  • 数据概览:52 万件商品,1100 多个类目,142 万用户,720 万条评论/评分数据

  • 下载地址:

 

https://github.com/SophonPlus/ChineseNlpCorpus/blob/master/datasets/yf_amazon/intro.ipynb

 

项目传送门:

https://github.com/SophonPlus/ChineseNlpCorpus

  • 13
    点赞
  • 45
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
### 回答1: 文本分类语料库(txt)是一种存储了大量文本数据并按照其主题或类别进行分类的数据库。它通常被广泛应用于自然语言处理、信息检索和机器学习领域。 文本分类是通过对文本内容进行分析和处理,将其归类到预先定义的类别中。文本分类语料库(txt)中的文本样本可以来源于各种不同类型的文本,比如新闻文章、评论、电子邮件、社交媒体帖子等。 这个语料库的构建过程通常需要进行以下步骤: 1. 收集数据:需要收集大量的文本样本,这些文本样本应覆盖多个类别或主题。可以通过网络爬虫、数据库查询等方式来获取数据。 2. 预处理:在收集到的文本数据中,需要对其进行预处理,包括去除无用的字符、标点符号,去除停用词,进行词干提取等处理方法。 3. 标注数据:在收集到的文本数据中,需要对每个样本进行标注,即为每个样本指定一个类别或主题。这个过程可以根据需要手动标注,也可以利用已有的标签来进行自动标注。 4. 划分数据集:将收集到的文本数据划分为训练集和测试集。训练集用于训练分类模型,测试集用于评估模型的性能。 5. 特征提取:从文本样本中提取有用的特征,可以使用基于词频的方法,如词袋模型(Bag of Words),也可以使用深度学习方法,如词嵌入(Word Embeddings)。 6. 构建分类模型:根据提取的特征和标注好的数据,可以使用各种分类算法构建文本分类模型。常用的算法包括朴素贝叶斯、支持向量机、决策树等。 7. 模型评估:使用测试集来评估训练好的模型的性能,可以通过计算准确率、召回率、F1值等指标来评估模型的性能。 通过文本分类语料库(txt),我们可以对文本进行分类和归类,从而实现信息的自动分类和检索。它为自然语言处理、信息检索和机器学习领域的研究和应用提供了重要的数据资源。 ### 回答2: 文本分类语料库是一种含有大量文本样本的数据集,每个样本都被标注了相应的分类标签。这些样本可以用于机器学习和自然语言处理领域的任务,例如文本分类、情感分析等。 文本分类语料库通常包含了各种不同领域的文本,如新闻、博客、邮件等。这样做是为了能够训练模型适应不同的文本类型和主题。语料库中的文本样本一般都会进行预处理,例如去除特殊字符、停用词和标点符号,以及进行分词等。 txt格式是一种通用的文本文件格式,常常被用来存储和传输文本数据。在文本分类语料库中,每个txt文件代表一个文本样本,其中包含了文本的内容和相应的分类标签。这种格式的简单性和易读性使得txt格式非常适合用于存储文本分类语料库。 通过使用文本分类语料库,我们可以对机器学习算法进行训练,以使其能够自动识别和分类文本。例如,在垃圾邮件过滤中,我们可以用一个文本分类语料库训练一个模型,以便将垃圾邮件和正常邮件进行区分。同样,我们也可以用它来对新闻文章进行主题分类,帮助用户快速了解文章内容。 总之,文本分类语料库是一个非常有用的资源,它提供了大量的文本样本和标签,可以用于训练和评估各种文本分类任务的模型。txt格式的文本分类语料库可以方便地存储和处理,使得它们能够广泛应用于各种文本处理任务中。
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值