LCSTS中文数据集解析与处理

LCSTS 数据来源主要是微博爬虫,数据收集的策略很类似pageRank思想。先找50个流行的官方组织用户作为种子然后从种子用户中抓取他们关注的用户,并且将不是大V,且粉丝少于100万的用户过滤掉。然后抓取候选用户的微博内容。最后通过过滤,清洗,提取等工作得到最后的数据集。
来源为哈尔滨工业大学深圳研究生院,是开放的数据集。

一、数据下载

1、根据 http://icrc.hitsz.edu.cn/Article/show/139.html 该网站上的提示发送申请获取数据集。
2、可以在我的网盘下载:https://download.csdn.net/download/u012495579/12050986

二、数据解析处理

下载下来的数据集是三个txt文件,里面的数据格式类似于XML格式的,如下:

<doc id=0>
    <human_label>5</human_label>
    <summary>
        可穿戴技术十大设计原则
    </summary>
    <short_text>
        本文总结了十个可穿戴产品的设计原则,而这些原则,同样也是笔者认为是这个行业最吸引人的地方:1.为人们解决重复性问题;2.从人开始,而不是从机器开始;3.要引起注意,但不要刻意;4.提升用户能力,而不是取代人
    </short_text>
</doc>

我们在做NLP任务的时候通常需要将摘要与原文本分别提取出来,此前尝试了使用XML解析工具进行解析,会出问题。后来采用HTML解析工具BeautifulSoup进行解析可行。下面是完整的解析代码,解析出来的摘要和原文本分别存放在不同文件,每行对应。

from bs4 import BeautifulSoup
import os
from tqdm import tqdm

INPUT = {
    'valid': './LCSTS_ORIGIN/DATA/PART_III.txt',
    'test': './LCSTS_ORIGIN/DATA/PART_II.txt',
    'train': './LCSTS_ORIGIN/DATA/PART_I.txt'
}

OUTPUT_DIR = './dataset/LCSTS_DATA'

for key in INPUT:
    print('start process: {}\n'.format(key))
    src_file = open(os.path.join(OUTPUT_DIR, key + '.src'), 'a+', encoding='utf-8')
    tgt_file = open(os.path.join(OUTPUT_DIR, key + '.tgt'), 'a+', encoding='utf-8')

    input_file_path = INPUT[key]
    with open(input_file_path, encoding='utf-8') as file:
        contents = file.read()
        soup=BeautifulSoup(contents,'html.parser')
        line_count = 0
        max_lines = 2078888	# 此处设置了一个变量控制最大解析多少条数据
        for doc in tqdm(soup.find_all('doc')):
            if line_count > max_lines:
                break
            short_text = doc.find('short_text').get_text()
            summary = doc.find('summary').get_text()
            src_file.write(short_text.strip() + '\n')
            tgt_file.write(summary.strip() + '\n')
            line_count += 1

    src_file.close()
    tgt_file.close()

在代码中采用了一个max_lines = 2078888将最大解析条数设置在了2078888条,主要是原数据解析的时候在208万条左右会出错误,暂时没去分析错误原因,想想208万条也够用了,所以设置了一个限制,到此处就停止解析。
解析后的内容被分别输出到6个文件中:

train.src	(训练集的输入(短文本))
train.tgt	(训练集的输出(摘要))
test.src	(测试集的输入(短文本))
test.tgt	(测试集的输出(摘要))
vaild.src	(验证集的输入(短文本))
vaild.tgt	(验证集的输出(摘要))

之后就可以对解析后文本进行分词等处理操作啦。

  • 12
    点赞
  • 45
    收藏
    觉得还不错? 一键收藏
  • 19
    评论
### 回答1: LCSTS2.0数据集中文短文本摘要数据集,是由清华大学自然语言处理与社会人文计算实验室发布的。它包含了超过200,000篇中文短文本和对应的标题,每篇原文包含50个中文字符左右,标题包含15个中文字符左右。这些短文本不仅覆盖了各种主题,还包含了各种风格,例如科技新闻、社会新闻、娱乐新闻等。这个数据集是由自动提取和人工编辑组成的,每篇文章的标题都是经过人工编辑的。 LCSTS2.0数据集可以用于各种中文文本摘要任务,例如文本生成和文本分类。它可以用于评估摘要算法的效果以及训练机器学习模型,例如深度学习模型。考虑到摘要任务的复杂性和实用性,LCSTS2.0数据集可以促进文本摘要领域的研究和发展,也可以为企业提供改善文本摘要方案的思路和实现方法。 总之,LCSTS2.0数据集是一个非常有用的中文文本摘要数据集,它包含了大量的短文本和对应的标题,以及人工编辑的高质量标签。这个数据集可以帮助研究人员和企业解决文本摘要问题,也可以促进文本摘要领域的进一步发展。 ### 回答2: LCSTS2.0数据集是一个中文短文本(Short Text)数据集,其全称是“百度公司发布的中文人类摘要数据集LCSTS2.0)”。该数据集主要用于研究中文自动文摘技术,即从一篇长文本中提取出关键信息并以简洁的方式呈现出来。该数据集包括了来自网络上的新闻、博客、微博等各种类型的文本,并且都已经被专业编辑人员进行了人工摘要。数据集中包含了逾200,000条短文本和对应的手动摘要,同时也包含了一些用于评估算法性能的其他信息。该数据集可以帮助研究人员评估他们的算法在自动文摘方面的表现,以及开展自动文摘相关的研究工作,具有一定的研究价值。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 19
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值