ES 上传,更新数据

本文详细介绍了如何使用 Elasticsearch 进行数据上传和更新操作。内容包括基本的索引创建、文档插入、更新及批量操作等步骤,旨在帮助读者掌握 Elasticsearch 的数据管理技巧。
摘要由CSDN通过智能技术生成
import json
import hashlib
from pprint import pprint

from elasticsearch import Elasticsearch

es = Elasticsearch(hosts="10.109.24.153", port=9200)
es.indices.create(index="newlegalindex", ignore=400)
# with open("/Users/rouckiechen/PycharmProjects/falv/falv_zhongguorenda_spider/id_num.txt", encoding="utf-8") as f:
#     temp_str = f.readlines()
# for i in temp_str:
#     item = json.loads(i, strict=False)
#     href = item["sourceURL"]
#     uuid = hashlib.md5(href.encode(encoding='UTF-8')).hexdigest()
#     item["uuid"] = uuid
# res = es.index(index="newlegalindex", doc_type="mytype", body=item, id=uuid)
# print(i.replace("\n", ""))
# _id = i.replace("\n", "")
# print(href)
# print(uuid)
# if item["fgtitle"] == "" or item["fgtext"] == ""
Elasticsearch 是一个开源的分布式搜索和分析引擎,用于快速存储、搜索和分析大量的数据。在 Elasticsearch 中,我们可以通过索引数据来建立搜索的数据集。 上传索引数据是指将数据导入到 Elasticsearch 中的过程。可以通过多种方式来上传索引数据,下面是一些常用的方法: 1. 使用 Elasticsearch 提供的 RESTful API:通过调用 Elasticsearch 的 RESTful API,我们可以将数据以 JSON 格式的文档插入到索引中。首先,我们需要创建一个索引,并指定索引名称、数据类型和字段的映射规则。然后,可以使用 API 中的索引命令来插入数据。 2. 使用 Logstash:Logstash 是一个开源的数据处理工具,它可以从各种来源(如文件、数据库、Kafka 等)读取数据,并将其转换为适合 Elasticsearch 的格式,然后将数据导入到 Elasticsearch 中。Logstash 支持多种输入和输出插件,可以根据需要来选择适合的插件。 3. 使用 Filebeat:Filebeat 是一个轻量级的日志数据收集器,它可以监控文件或目录中的变化,并将变化的数据发送到 Elasticsearch 或 Logstash 进行处理。通过配置 Filebeat,可以指定要监控的文件和数据格式,并将其传输到 Elasticsearch 中。 4. 使用批量处理 API:Elasticsearch 提供了一个批量处理 API,可以在一次请求中插入多个文档。可以将多个文档放在一个 JSON 数组中,然后使用批量处理 API 将整个数组上传到 Elasticsearch 中。 上传索引数据是 Elasticsearch 中的一个重要步骤,能够帮助我们构建强大的搜索和分析功能。通过以上方法,我们可以将不同来源和格式的数据上传到 Elasticsearch 中,以便后续的数据分析和搜索操作。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值