NYT-10数据获取(1.74G)

前言

本文大多数内容均copy于关系抽取数据集 NYT-10 SemEval2010


一、NYT-10是什么?

NYT-10数据发布于Riedel et al, 2010这篇论文中,其文本来源于纽约时报New York Times所标注的语料,命名实体是通过 Stanford NER 工具并结合 Freebase 知识库进行标注的。命名实体对之间的关系是链接和参考外部的Freebase知识库中的关系,结合远监督方法所得到的。

二、数据下载

1.OpenNRE

数据可直接从这一链接中进行下载:https://github.com/thunlp/OpenNRE/tree/master/benchmark
以其中的download_nyt10.sh为例其内容如下:

mkdir nyt10
wget -P nyt10 https://thunlp.oss-cn-qingdao.aliyuncs.com/opennre/benchmark/nyt10/nyt10_rel2id.json
wget -P nyt10 https://thunlp.oss-cn-qingdao.aliyuncs.com/opennre/benchmark/nyt10/nyt10_train.txt
wget -P nyt10 https://thunlp.oss-cn-qingdao.aliyuncs.com/opennre/benchmark/nyt10/nyt10_test.txt

我的步骤如下:

  1. 首先需要先安装wget。(使用直接百度得到的安装方法即可。)
  2. 在需要下载的目标文件下打开cmd。(或者打开cmd然后移动到目标文件下都一样。)
  3. 将上述4条命令改成如下:
mkdir nyt10
wget --no-check-certificate -P nyt10 https://thunlp.oss-cn-qingdao.aliyuncs.com/opennre/benchmark/nyt10/nyt10_rel2id.json
wget --no-check-certificate -P nyt10 https://thunlp.oss-cn-qingdao.aliyuncs.com/opennre/benchmark/nyt10/nyt10_train.txt
wget --no-check-certificate -P nyt10 https://thunlp.oss-cn-qingdao.aliyuncs.com/opennre/benchmark/nyt10/nyt10_test.txt

如果不修改会报错,报错内容如下。(我的是windows系统。)

SYSTEM_WGETRC = c:/progra~1/wget/etc/wgetrc
syswgetrc = D:\wget\GnuWin32/etc/wgetrc
--2021-09-25 23:26:05--  https://thunlp.oss-cn-qingdao.aliyuncs.com/opennre/benchmark/nyt10/nyt10_rel2id.json
正在解析主机 thunlp.oss-cn-qingdao.aliyuncs.com... 119.167.128.167, 119.167.128.167
Connecting to thunlp.oss-cn-qingdao.aliyuncs.com|119.167.128.167|:443... 已连接。
ERROR: cannot verify thunlp.oss-cn-qingdao.aliyuncs.com's certificate, issued by `/C=BE/O=GlobalSign nv-sa/CN=GlobalSign Organization Validation CA - SHA256 - G2':
  Unable to locally verify the issuer's authority.
ERROR: certificate common name `*.oss-cn-beijing.aliyuncs.com' doesn't match requested host name `thunlp.oss-cn-qingdao.aliyuncs.com'.
To connect to thunlp.oss-cn-qingdao.aliyuncs.com insecurely, use `--no-check-certificate'.
无法建立 SSL 连接。
  1. 依次运行上述4条命令。(直接运行shell脚本应该也可以,不过我不会。【@_@|||】)

    通过这一方法下载会得到总计170+M的数据

2.Tsinghua Cloud 或 Google Drive

Tsinghua Cloud链接:https://link.zhihu.com/?target=https%3A//cloud.tsinghua.edu.cn/f/11391e48b72749d8b60a/%3Fdl%3D1
Google Drive链接(没打开过):https://link.zhihu.com/?target=https%3A//drive.google.com/file/d/1eSGYObt-SRLccvYCsWaHx1ldurp9eDN_/view%3Fusp%3Dsharing
通过这一方式会下载得到大约3G的压缩文件,解压后如下所示。
在这里s入图片描述
对于其中的protobuf2json.py文件中可以掉到get_entities如下:

def get_entities(file_name):
    print("Loading entities...")
    f = open(file_name, 'rb')
    for line in f.readlines():
        line = line.rstrip()
        guid, word, type = line.split('\t')
        guid2entity[guid] = {'id': guid, 'word': word, 'type': type}       
    f.close()
    print("Finish loading, got {} entities totally".format(len(guid2entity)))

将其修改为如下(仅修改第5行):

def get_entities(file_name):
    print("Loading entities...")
    f = open(file_name, 'rb')
    for line in f.readlines():
        line = line.rstrip().decode()
        guid, word, type = line.split('\t')
        guid2entity[guid] = {'id': guid, 'word': word, 'type': type}       
    f.close()
    print("Finish loading, got {} entities totally".format(len(guid2entity)))
打开其中的README.md,按照里面的指示需要运行
protoc --proto_path=. --python_out=. Document.proto
python protobuf2json.py

要运行第一条就需要先安装protoc。(安装方法百度得到的方法即可。)
然后,运行以上两条命令即可。


总结

因为,在寻找数据集的过程中没有找到一个直接下载就可用的。在这个过程中甚至还从CSDN的上下载了,结果感觉还是不行。通过第二个方式得到的数据集大小是1.74G,而通过第一个方式下载得到的大小是170+M。我单从这一点上推测通过第二个方式下载的数据可能会比第一个途径的数据多一些。(详细情况我也不知道。)
  • 4
    点赞
  • 10
    收藏
    觉得还不错? 一键收藏
  • 2
    评论
### 回答1: 将文本训练成为nyt数据集的代码需要考虑以下几个方面: 1. 数据准备:首先需要准备好nyt数据集,该数据集包含了数十万篇文章的文本数据以及它们的标签信息,如实体识别、关系抽取等。我们需要对这些文本数据进行预处理,例如分词、去除停用词等,以便于后续的模型训练。 2. 模型设计:接下来需要设计一个适合处理文本数据的模型。常用的模型有基于词向量的模型(例如Word2Vec、GloVe等)以及基于深度学习的模型(例如LSTM、Transformer等)。不同的模型有着各自的优劣,需要根据具体情况进行选择。 3. 模型训练:我们使用准备好的nyt数据集进行模型训练,将训练数据分为训练集、验证集和测试集。在训练过程中,需要选择适当的优化器、损失函数和评价指标,并对超参数进行调整以达到最佳效果。另外,在使用深度学习模型进行训练时,需要使用GPU加速以提高训练速度。 4. 模型评估:在训练完成后,需要对模型进行评估。常用的评估指标有准确率、召回率、F1值等。在评估过程中,可以使用测试集进行模型测试,并根据测试结果进行模型调整。 5. 模型应用:最后,我们可以将训练好的模型应用到新的文本数据中,例如进行实体识别、关系抽取等任务。在应用模型时,需要注意模型的输入数据格式以及输出结果的解析。 ### 回答2: 首先,需要将NYT数据集下载到本地,并进行预处理。预处理包括分割成训练集、验证集和测试集,并将数据转换为模型可读的格式。转换的方式可以是将每篇文本处理成一个多维向量,其中每个维度代表一个固定的特征。这些特征可以是从文本中提取出的词、句子长度、词频等。经过处理后,每篇文本都表示为一个n维向量。处理后的数据集可以用pickle保存到本地。 接下来需要选择并训练模型。可以使用深度学习的文本分类模型,例如卷积神经网络(CNN)或递归神经网络(RNN)。在训练之前,需要将数据集分成mini-batches,并将它们送入模型进行训练。训练过程可以使用梯度下降算法优化。 经过训练后,可以评估模型的表现。评估的方法包括计算预测准确率、召回率和F1分数等指标。如果模型的表现不够好,可以更改模型架构或优化算法,再次训练。当模型表现足够好时,可以将其保存到本地,以备后续使用。 最后,可以使用该模型进行预测和分类。对于新的文本数据,可以将其送入经过训练的模型并输出其所属的类别。该过程可以通过加载保存的模型并使用已经训练好的参数来实现。 ### 回答3: 将文本训练成为nyt数据集,需要以下步骤: 1. 数据预处理:首先需要将nyt数据集进行预处理,包括去重、清洗、分词、去停用词等操作,将文本转化为可供模型训练的格式。 2. 构建模型:可以采用传统的机器学习模型,如朴素贝叶斯、SVM等,也可以使用深度学习模型,如LSTM、Transformer等。需要针对nyt数据集的特点进行模型的选择和调整。 3. 训练模型:将预处理后的数据输入到模型中,通过梯度下降等优化算法不断调整模型参数,直到达到一定的训练效果。 4. 模型评估:将一部分数据作为测试集,用训练好的模型对测试集进行预测,并计算预测准确率、召回率等指标,评估模型的性能。 5. 预测与应用:将训练好的模型用于新的文本数据预测,可以应用于分类、情感分析、命名实体识别等领域。 以上是训练nyt数据集的基本流程,但具体实现上可能还需要根据具体的需求和情况进行调整和优化。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值