11.reindex操作

1. Reindex API简介

Reindex不会尝试创建目标索引。它不会复制源索引的设置信息。您应该在运行_reindex操作之前创建目标索引,包括设置mapping,shard,replica_num等。

_reindex的最基本形式只是将文档从一个索引复制到另一个索引。下面将文档从twitter索引复制到new_twitter索引中:


POST _reindex
{
  "source": {
    "index": "twitter"
  },
  "dest": {
    "index": "new_twitter"
  }
}

这将会返回类似以下的信息:


{
  "took" : 147,
  "timed_out": false,
  "created": 120,
  "updated": 0,
  "deleted": 0,
  "batches": 1,
  "version_conflicts": 0,
  "noops": 0,
  "retries": {
    "bulk": 0,
    "search": 0
  },
  "throttled_millis": 0,
  "requests_per_second": -1.0,
  "throttled_until_millis": 0,
  "total": 120,
  "failures" : [ ]
}

和_update_by_query一样,_reindex获取源索引的snapshot,但其目标索引必须是不同的索引,因此不会发生版本冲突。 dest元素可以像index API一样进行配置基于乐观锁的并发控制。如果将version_type 空着(像上面一样)或将version_type设置为internal,则Elasticsearch强制性的将文档转储到目标中,覆盖具有相同类型和ID的任何内容:


POST _reindex
{
  "source": {
    "index": "twitter"
  },
  "dest": {
    "index": "new_twitter",
    "version_type": "internal"
  }
}

将version_type设置为external将导致Elasticsearch从源doc中携带version,如果target index中没有这个doc会创建该doc,反之target index中的对应的version小于当前verison才会更新。


POST _reindex
{
  "source": {
    "index": "twitter"
  },
  "dest": {
    "index": "new_twitter",
    "version_type": "external"
  }
} 

设置op_type为create将导致_reindex仅在目标索引中创建缺少的文档。所有存在的文档将导致版本冲突:


POST _reindex
{
  "source": {
    "index": "twitter"
  },
  "dest": {
    "index": "new_twitter",
    "op_type": "create"
  }
} 

默认情况下,version 冲突将中止_reindex进程,但您可以通过请求体设置"conflict":"proceed"来在冲突时进行计数:


POST _reindex
{
  "conflicts": "proceed",
  "source": {
    "index": "twitter"
  },
  "dest": {
    "index": "new_twitter",
    "op_type": "create"
  }
} 

您可以通过向source添加type或添加query来限制文档。下面会将kimchy发布的tweet复制到new_twitter中:


POST _reindex
{
  "source": {
    "index": "twitter",
    "query": {
      "term": {
        "user": "kimchy"
      }
    }
  },
  "dest": {
    "index": "new_twitter"
  }
} 

source中的index和type都可以是一个列表,允许您在一个请求中从大量的来源进行复制。下面将从twitter和blog索引中的tweet和post类型中复制文档。它也包含twitter索引中post类型以及blog索引中的tweet类型。如果你想更具体,你将需要使用query。它也没有努力处理ID冲突。目标索引将保持有效,但由于迭代顺序定义不正确,预测哪个文档可以保存下来是不容易的。


POST _reindex
{
  "source": {
    "index": ["twitter", "blog"]
  },
  "dest": {
    "index": "all_together"
  }
} 

还可以通过设置大小限制处理的文档的数量。下面只会将单个文档从twitter复制到new_twitter:


POST _reindex
{
  "size": 1,
  "source": {
    "index": "twitter"
  },
  "dest": {
    "index": "new_twitter"
  }
} 

如果你想要从twitter索引获得一个特定的文档集合你需要排序。排序使滚动效率更低,但在某些情况下它是值得的。如果可能,更喜欢更多的选择性查询size和sort。这将从twitter复制10000个文档到new_twitter:


POST _reindex
{
  "size": 10000,
  "source": {
    "index": "twitter",
    "sort": { "date": "desc" }
  },
  "dest": {
    "index": "new_twitter"
  }
} 

source部分支持搜索请求中支持的所有元素。例如,只使用原始文档的一部分字段,使用源过滤如下所示:


POST _reindex
{
  "source": {
    "index": "twitter",
    "_source": ["user", "tweet"]
  },
  "dest": {
    "index": "new_twitter"
  }
} 

像update_by_query一样,_reindex支持修改文档的脚本。与_update_by_query不同,脚本允许修改文档的元数据。此示例修改了源文档的版本:


POST _reindex
{
  "source": {
    "index": "twitter"
  },
  "dest": {
    "index": "new_twitter",
    "version_type": "external"
  },
  "script": {
    "inline": "if (ctx._source.foo == 'bar') {ctx._version++; ctx._source.remove('foo')}",
    "lang": "painless"
  }
} 

就像在_update_by_query中一样,您可以设置ctx.op来更改在目标索引上执行的操作:

noop: 设置 ctx.op = “noop” 。如果你的脚本并没有对原来的doc做任何更改。这将导致 reindex 忽略该doc。这将在响应的 noop 中被展示。

delete: 设置ctx.op = “delete”,如果你的脚本如此设定,target index中的该doc会被被删除。这将在响应的 deleted 中被展示。

也就是说使用update 和 update_by_query 的api是有能力删除doc的

设置 ctx.op成别的值会报错。设置任何其它领域中 ctx 也会报错。

下面的字段都是你可以在script中改变的,但是在你决定改变之前请仔细评估可能带来的影响

_id
_type
_index
_version
_routing
_parent

将_version设置为null或从ctx中移除version相关操作就像在索引请求中不发送版本一样。这将导致目标索引中的文档被覆盖,无论目标版本或_reindex请求中使用的版本类型如何。

默认情况下,如果_reindex看到具有routing的doc,则发送bulk request的时候routing将被保留,可以修改routing的值
在dest部分可以将routing字段设置为一下的值

  1. keep: 将批量请求的每个匹配项的路由设置为匹配上的路由。默认值。就是如果原文档有custom routing就用源文档的,没有就灭有
  2. discard: 丢弃源文档的routing
  3. =${某些文本}: 将批量请求的每个匹配项的路由设置为=之后的文本。
    例如,您可以使用以下请求将source索引的所有公司名称为cat的文档复制到路由设置为cat的dest索引。

POST _reindex
{
  "source": {
    "index": "source",
    "query": {
      "match": {
        "company": "cat"
      }
    }
  },
  "dest": {
    "index": "dest",
    "routing": "=cat"
  }
} 


默认情况下,_reindex批量滚动处理大小为1000.您可以在source元素中指定size字段来更改批量处理大小:


POST _reindex
{
  "source": {
    "index": "source",
    "size": 100
  },
  "dest": {
    "index": "dest",
    "routing": "=cat"
  }
} 

Reindex也可以使用[Ingest Node]功能来指定pipeline, 就像这样:


POST _reindex
{
  "source": {
    "index": "source"
  },
  "dest": {
    "index": "dest",
    "pipeline": "some_ingest_pipeline"
  }
} 

2. 从远程集群重建索引

Reindex支持从远程Elasticsearch群集重建索引:

这个非常适合es的跨版本升级数据迁移工作。


POST _reindex
{
  "source": {
    "remote": {
      "host": "http://otherhost:9200",
      "username": "user",
      "password": "pass"
    },
    "index": "source",
    "query": {
      "match": {
        "test": "data"
      }
    }
  },
  "dest": {
    "index": "dest"
  }
} 

host参数必须包含scheme,host和port(例如 https:// otherhost:9200)。用户名和密码参数是可选的,当它们存在时,索引将使用基本认证连接到远程Elasticsearch节点。使用基本认证时请务必使用https,密码将以纯文本格式发送。

必须在elasticsearch.yaml中使用reindex.remote.whitelist属性将远程主机明确列入白名单。它可以设置为允许的远程host和port组合的逗号分隔列表(例如otherhost:9200,another:9200,127.0.10.:9200,localhost:)。白名单忽略了scheme ——仅使用主机和端口。

此功能应适用于您可能找到的任何版本的Elasticsearch的远程群集。这应该允许您从任何版本的Elasticsearch升级到当前版本,通过从旧版本的集群重新建立索引。

要启用发送到旧版本Elasticsearch的查询,query参数将直接发送到远程主机,无需验证或修改。

从远程服务器重新索引使用堆上缓冲区,该缓冲区默认最大大小为100mb。如果远程索引包含非常大的文档,则需要使用较小的批量。下面的示例将批次大小设置为10,这非常小。


POST _reindex
{
  "source": {
    "remote": {
      "host": "http://otherhost:9200"
    },
    "index": "source",
    "size": 10,
    "query": {
      "match": {
        "test": "data"
      }
    }
  },
  "dest": {
    "index": "dest"
  }
} 

也可以使用socket_timeout字段在远程连接上设置socket的读取超时,并使用connect_timeout字段设置连接超时。两者默认为三十秒。此示例将套接字读取超时设置为一分钟,并将连接超时设置为十秒:


POST _reindex
{
  "source": {
    "remote": {
      "host": "http://otherhost:9200",
      "socket_timeout": "1m",
      "connect_timeout": "10s"
    },
    "index": "source",
    "query": {
      "match": {
        "test": "data"
      }
    }
  },
  "dest": {
    "index": "dest"
  }
} 

3. URL参数

除了标准参数像pretty之外,“Reindex API”还支持refresh、wait_for_completion、wait_for_active_shards、timeout以及requests_per_second。

当请求完成时,发送 refresh将更新索引中的所有分片。这与索引index API 的 refresh 参数不同,index api只会refresh收到请求的shard。

如果请求包含wait_for_completion=false,那么Elasticsearch将执行一些预检检查、启动请求、然后返回一个任务,可以与Tasks API一起使用来取消或获取任务的状态。Elasticsearch还将以.tasks/task/${taskId}作为文档创建此任务的记录。这是你可以根据是否合适来保留或删除它。当你完成它时,删除它可以让Elasticsearc

wait_for_active_shards控制在继续请求之前必须有多少个分片必须处于活动状态,详见这里。timeout控制每个写入请求等待不可用分片变成可用的时间。两者都能正确地在Bulk API中工作。

requests_per_second可以设置为任何正数(1.4,6,1000等),来作为“delete-by-query”每秒请求数的节流阀数字,或者将其设置为-1以禁用限制。节流是在批量批次之间等待,以便它可以操纵滚动超时。等待时间是批次完成的时间与request_per_second * requests_in_the_batch的时间之间的差异。由于分批处理没有被分解成多个批量请求,所以会导致Elasticsearch创建许多请求,然后等待一段时间再开始下一组。这是“突发”而不是“平滑”。默认值为-1。在集群本省的任务比较重的情况下建议开启限流,以减少对集群资源的使用。

throttle的计算方式是,每秒处理requests_per_second 个request,假如我们设置requests_per_second=500,写1000个需要0.5s,则等待时间是

target_time = 1000 / 500 per second = 2 seconds
wait_time = target_time - write_time = 2 seconds - .5 seconds = 1.5 seconds

默认没有限流

4. 响应体

JSON响应类似如下:


{
  "took" : 639,
  "updated": 0,
  "created": 123,
  "batches": 1,
  "version_conflicts": 2,
  "retries": {
    "bulk": 0,
    "search": 0
  }
  "throttled_millis": 0,
  "failures" : [ ]
} 

took: 从整个操作的开始到结束的毫秒数。
updated: 成功更新的文档数。
upcreateddated: 成功创建的文档数。
batches: 通过查询更新的滚动响应数量。
version_conflicts: 根据查询更新时,版本冲突的数量。
retries: 根据查询更新的重试次数。bluk 是重试的批量操作的数量,search 是重试的搜索操作的数量。
throttled_millis: 请求休眠的毫秒数,与requests_per_second一致。
failures: 失败的索引数组。如果这是非空的,那么请求因为这些失败而中止。请参阅 conflicts 来如何防止版本冲突中止操作。

5. 配合Task API使用

您可以使用Task API获取任何正在运行的重建索引请求的状态:

1. 查找任务


GET _tasks?detailed=true&actions=*/update/byquery 
响应会类似如下:

{
  "nodes" : {
    "r1A2WoRbTwKZ516z6NEs5A" : {
      "name" : "r1A2WoR",
      "transport_address" : "127.0.0.1:9300",
      "host" : "127.0.0.1",
      "ip" : "127.0.0.1:9300",
      "attributes" : {
        "testattr" : "test",
        "portsfile" : "true"
      },
      "tasks" : {
        "r1A2WoRbTwKZ516z6NEs5A:36619" : {
          "node" : "r1A2WoRbTwKZ516z6NEs5A",
          "id" : 36619,
          "type" : "transport",
          "action" : "indices:data/write/reindex",
          "status" : {    //①
            "total" : 6154,
            "updated" : 3500,
            "created" : 0,
            "deleted" : 0,
            "batches" : 4,
            "version_conflicts" : 0,
            "noops" : 0,
            "retries": {
              "bulk": 0,
              "search": 0
            },
            "throttled_millis": 0
          },
          "description" : ""
        }
      }
    }
  }
} 

① 此对象包含实际状态。它就像是响应json,重要的添加total字段。 total是重建索引希望执行的操作总数。您可以通过添加的updated、created和deleted的字段来估计进度。当它们的总和等于total字段时,请求将完成。

使用任务id可以直接查找任务:


GET /_tasks/taskId:1 

这个API的优点是它与wait_for_completion=false集成,以透明地返回已完成任务的状态。如果任务完成并且wait_for_completion=false被设置,那么它将返回results或error字段。此功能的成本是wait_for_completion=false在.tasks/task/${taskId}创建的文档,由你自己删除该文件。

2. 配合取消任务API使用

所有重建索引都能使用Task Cancel API取消:


POST _tasks/task_id:1/_cancel 

可以使用上面的任务API找到task_id。

取消应尽快发生,但可能需要几秒钟。上面的任务状态API将继续列出任务,直到它被唤醒取消自身。

3. 重置节流阀

request_per_second的值可以在通过查询删除时使用_rethrottle API更改:


POST _update_by_query/task_id:1/_rethrottle?requests_per_second=-1 

可以使用上面的任务API找到task_id。

就像在_update_by_query API中设置它一样,request_per_second可以是-1来禁用限制,或者任何十进制数字,如1.7或12,以节制到该级别。加速查询的会立即生效,但是在完成当前批处理之后,减慢查询的才会生效。这样可以防止滚动超时。

4. 修改字段名

_reindex可用于使用重命名的字段构建索引的副本。假设您创建一个包含如下所示的文档的索引:


POST test/_doc/1?refresh
{
  "text": "words words",
  "flag": "foo"
}


但是你不喜欢这个flag名称,而是要用tag替换它。 _reindex可以为您创建其他索引:


POST _reindex
{
  "source": {
    "index": "test"
  },
  "dest": {
    "index": "test2"
  },
  "script": {
    "inline": "ctx._source.tag = ctx._source.remove(\"flag\")"
  }
} 

现在你可以get得到新的文件:

GET test2/_doc/1 


它看起来像:

{
  "found": true,
  "_id": "1",
  "_index": "test2",
  "_type": "_doc",
  "_version": 1,
  "_seq_no": 44,
  "_primary_term": 1,
  "_source": {
    "text": "words words",
    "tag": "foo"
  }
}

或者你可以通过tag进行任何你想要的搜索。

6. 使用slice并行执行

1. 手动切片

重建索引支持滚动切片,您可以相对轻松地手动并行化处理:

POST _reindex
{
  "source": {
    "index": "twitter",
    "slice": {
      "id": 0,
      "max": 2
    }
  },
  "dest": {
    "index": "new_twitter"
  }
}
POST _reindex
{
  "source": {
    "index": "twitter",
    "slice": {
      "id": 1,
      "max": 2
    }
  },
  "dest": {
    "index": "new_twitter"
  }
} 

您可以通过以下方式验证:

GET _refresh
POST new_twitter/_search?size=0&filter_path=hits.total 

其结果一个合理的total像这样:

{
  "hits": {
    "total" : {
        "value": 120,
        "relation": "eq"
    }
  }
}

2. 自动切片

你还可以让重建索引使用切片的_uid来自动并行的滚动切片。

POST _reindex?slices=5&refresh
{
  "source": {
    "index": "twitter"
  },
  "dest": {
    "index": "new_twitter"
  }
} 

您可以通过以下方式验证:

POST new_twitter/_search?size=0&filter_path=hits.total 

其结果一个合理的total像这样:

{
  "hits": {
    "total" : {
        "value": 120,
        "relation": "eq"
    }
  }
}


将slices添加到_reindex中可以自动执行上述部分中使用的手动过程,创建子请求,这意味着它有一些怪癖:

  1. 您可以在Task API中看到这些请求。这些子请求是具有slices请求任务的“子”任务。
  2. 获取slices请求任务的状态只包含已完成切片的状态。
  3. 这些子请求可以单独寻址,例如取消和重置节流阀。
  4. slices的重置节流阀请求将按相应的重新计算未完成的子请求。
  5. slices的取消请求将取消每个子请求。
  6. 由于slices的性质,每个子请求将不会获得完全均匀的文档部分。所有文件都将被处理,但有些片可能比其他片大。预期更大的切片可以有更均匀的分布。
  7. 带有slices请求的request_per_second和size的参数相应的分配给每个子请求。结合上述关于分布的不均匀性,您应该得出结论,使用size 参数在slice中有可能删除的并不是完全准确的想要删除的数据量。
  8. 每个子请求都会获得源索引的略有不同的快照,尽管这些都是大致相同的时间。

3. 挑选slice的数量

如果使用auto模式,es默认会选择合适的slice数量
如果是主观的设置slice的数量或者是手动执行slice,下面有一些建议。

不要使用大的数字,500就能造成相当大的CPU抖动。
在源索引中使用完全相同的分片是从查询性能的角度来看效率最高的。
索引性能应在可用资源之间以slices数量线性扩展。
索引或查询性能是否支配该流程取决于许多因素,如正在重建索引的文档和进行reindexing的集群。

8. index name 带有日志的索引的重建

您可以使用_reindex与Painless组合来重新每日编制索引,以将新模板应用于现有文档。 假设您有由以下文件组成的索引:

PUT metricbeat-2016.05.30/_doc/1?refresh
{"system.cpu.idle.pct": 0.908}
PUT metricbeat-2016.05.31/_doc/1?refresh
{"system.cpu.idle.pct": 0.105}

metricbeat-*索引的新模板已经加载到Elaticsearch中,但它仅适用于新创建的索引。Painless可用于重新索引现有文档并应用新模板。

下面的脚本从索引名称中提取日期,并创建一个附带有-1的新索引。来自metricbeat-2016.05.31的所有数据将重新索引到metricbeat-2016.05.31-1。

POST _reindex
{
  "source": {
    "index": "metricbeat-*"
  },
  "dest": {
    "index": "metricbeat"
  },
  "script": {
    "lang": "painless",
    "inline": "ctx._index = 'metricbeat-' + (ctx._index.substring('metricbeat-'.length(), ctx._index.length())) + '-1'"
  }
} 

来自上一个度量索引的所有文档现在可以在*-1索引中找到。

GET metricbeat-2016.05.30-1/beat/1
GET metricbeat-2016.05.31-1/beat/1
以前的方法也可以与更改字段的名称一起使用,以便将现有数据加载到新索引中,但如果需要,还可以重命名字段。

9.提取索引的随机子集

Reindex可用于提取用于测试的索引的随机子集:

POST _reindex
{
  "size": 10,
  "source": {
    "index": "twitter",
    "query": {
      "function_score" : {
        "query" : { "match_all": {} },
        "random_score" : {}
      }
    },
    "sort": "_score"    //①
  },
  "dest": {
    "index": "random_twitter"
  }
} 

① Reindex默认按_doc排序,所以random_score不会有任何效果,除非您将排序重写为_score。

10.一次线上操作示例

线上的索引数据,有些时候因为索引的一些设置调整,需要进行reindex,这里结合具体的实战,总结一个操作示例来给大家演示一下如何操作更加保险。
在操作线上索引的时候,最重要的点是不能对集群的性能造成大的影响,所以slice得数量是比较关键的,slice越大,对性能影响越大(可以认为是任务的并行度)。如果slice=auto的话,默认就是primary的数量,有时候primary比较多的时候(比如20)对性能还是有影响的。一般可以在测试环境调试一下,这个时候一般需要使用异步的模式(wait_for_completion=false)来获取task_id,以便于不合适的时候可以快速取消该task。以下列出实际步骤。

1.创建目标索引

PUT target_index
{
    "mappings" : {...}
    "settings" : {
    	"number_of_replicas" : "0"
    }

这里建议把number_of_replicas=0,这样可以简快reindex的速度

2.执行reindex

这一步要记录返回中的task id

POST _reindex?slices=5&wait_for_completion=false
{
  "source": {
    "index": "source_index"
  }
  , "dest": {
    "index": "target_index",
    "routing": "discard"
  }
}

  1. 我的操作是要丢弃原来的索引的routing值,原来是按照某个字段值生成routing进行分片的,我现在想打乱数据,也就是使用_id来做routing
  2. 设置wait_for_completion=false,使用异步的模式,这样的话就会返回task_id,方便查看和取消这个reindex任务

这个ES返回的task id一定要记录下来

ES Response
{
  "task" : "AFbLWz98QaCeK1crDIgT6w:1632840681"
}

3.Task 管理

查看task

GET /_tasks/AFbLWz98QaCeK1crDIgT6w:1632840681

这个时候也可以通过kibana观察一下target_index的写入速率,集群的负载或者ES监控的延迟,如果影响比较大,那么就要及时停掉reindex任务,避免对集群造成干扰,当然,如果你的集群一切表现良好,那就没必要执行下一步了。
取消任务

POST _tasks/AFbLWz98QaCeK1crDIgT6w:1632603312/_cancel

4.总结

如果集群压力较大,我们取消了task,那么接下来就是调小slice的数量看看多少并行度对于当前的集群来说是合理的,可能需要重复1-3的步骤。

最后,如果对您有一些帮助,烦劳点个赞哦😄

  • 2
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: 在 Pandas 中,`reindex()` 是 Series 和 DataFrame 的一个重要方法。`reindex()` 可以改变对象的索引,返回一个新的对象,这个新对象拥有被重新排列的数据,如果当前对象不存在某些索引,则会引入缺失值。具体来说,`reindex()` 方法可以按指定的方式重新排列当前对象的行或列。这个方法常常用于 DataFrame 中处理缺失值。 例如,下面是一个使用 `.reindex()` 方法重排 DataFrame 索引的例子: ```python import pandas as pd data = {'name': ['Alice', 'Bob', 'Charlie', 'David'], 'age': [25, 32, 18, 47], 'gender': ['F', 'M', 'M', 'M'], 'salary': [50000, 80000, 20000, 100000]} df = pd.DataFrame(data) print(df) new_index = ['a', 'b', 'c', 'd'] df_reindex = df.reindex(new_index) print(df_reindex) ``` 输出: ``` name age gender salary 0 Alice 25 F 50000 1 Bob 32 M 80000 2 Charlie 18 M 20000 3 David 47 M 100000 name age gender salary a NaN NaN NaN NaN b NaN NaN NaN NaN c NaN NaN NaN NaN d NaN NaN NaN NaN ``` 在上面的例子中,我们首先创建了一个 DataFrame 对象 `df`,然后通过调用 `.reindex()` 方法,将 `df` 的索引按照指定顺序进行重新排列,并返回一个新的 DataFrame 对象 `df_reindex`。在本例中,我们指定了新索引为 `['a', 'b', 'c', 'd']`,因此 `df_reindex` 中的每一行都是由 NaN 值组成的。这是因为 `df` 中的数据没有按照新索引进行重排,因此在新索引中没有对应的值,所以所有值都变成了缺失值。 ### 回答2: .reindex() 是一个pandas库中的函数,用于重新索引一个Series或DataFrame对象。 重新索引是指改变对象的索引值,使其与一个新的索引值对应起来。这样可以对数据进行重新排序、填充缺失值或者截取出特定的子集。 .reindex() 函数可以在原始对象上进行操作,也可以返回一个新的对象。 使用方法如下: df.reindex(new_index) 或 s.reindex(new_index) 其中 df 是一个DataFrame对象,s 是一个Series对象,new_index 是一个包含新的索引值的列表或数组。 .reindex() 函数的参数有多种选择,可以灵活地满足各种需求: - index:新的索引值,可以是一个索引对象、列表或数组。 - columns:重新指定的列名。 - fill_value:在重新索引过程中填充缺失值的值。 - method:填充缺失值的方法,如向前填充ffill、向后填充bfill等。 - limit:在向前或向后填充时的最大连续填充次数。 - tolerance:在重新索引过程中,允许的最大索引值的差异。 例如,我们有一个DataFrame对象 df,其中有三行三列的数据,索引值分别为'A'、'B'、'C',列名分别为'X'、'Y'、'Z'。我们想要按照新的索引值['C'、'B'、'A']重新排序数据,可以使用如下代码: df.reindex(['C', 'B', 'A']) .reindex() 函数可以在多个维度上重新索引,如果只指定了新的索引值,那么会在行索引上进行重新索引,列索引保持不变。如果需要在列索引上重新索引,可以使用参数columns。 使用.reindex() 函数可以方便地改变数据的索引值,从而满足不同的分析和处理需求。 ### 回答3: .reindex() 是 Pandas 库中的一个方法,用于重新索引(或重新排序)DataFrame 或 Series 的索引。 在 DataFrame 中,索引通常是行标签,而在 Series 中,索引通常是序列的标签。 使用.reindex() 方法,我们可以按照指定的索引值重新排列 DataFrame 或 Series 的行。 这个方法可以接受一个参数,即新的索引值。我们可以传递一个列表或数组作为新的索引值,也可以使用Python 的 range 函数等来生成新的索引。 .reindex() 方法返回一个具有重新排列索引的新对象,而原始的 DataFrame 或 Series 不会被直接改变。 例如,我们可以这样使用 .reindex() 方法: ```python import pandas as pd # 创建一个 DataFrame data = {'A': [1, 2, 3], 'B': [4, 5, 6], 'C': [7, 8, 9]} df = pd.DataFrame(data) # 将索引重新排列为 ['C', 'B', 'A'] df_new = df.reindex(['C', 'B', 'A']) ``` 在上面的例子中,我们创建了一个 DataFrame,并使用 .reindex() 方法按照 ['C', 'B', 'A'] 的顺序重新排列了索引。最终,我们得到了一个新的 DataFrame df_new。 .reindex() 方法还可以用于处理缺失的索引值。通过将缺失的索引值填充为指定的值,可以更方便地处理缺失值。 总而言之,.reindex() 是一个在 Pandas 中重新排列 DataFrame 或 Series 索引的常用方法。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值