【数据分享】全球30m土地利用数据分享(2015-2020),后附下载方法和无偿获取方式

数据介绍

这里介绍了2020年的数据,1985,1990,1995,2000,2005,2010以及2015年的数据也一样

一共有八年的数据:

image-20231020120618320

image-20231019162151776

数据标识:

DOI:10.12237/casearth.6123651428a58f70c2a51e49
CSTR: 31104.11.casearth.6123651428a58f70c2a51e49
PID: 21.86109/casearth.6123651428a58f70c2a51e49

数据简介:

地表覆盖分布是气候变化研究、生态环境评估及地理国情监测等不可或缺的重要基础信息。 近年来, 随着遥感科学技术以及计算机存储和计算能力的不断提升,针对长时序全球30米地表覆盖动态监测产品的应用需求日益迫切。本课题研发的以课题组2020年最新研发的全球30米地表覆盖精细分类产品(GLC_FCS30-2020)为基准数据, 提出了耦合变化检测和动态更新相结合的长时序地表覆盖动态监测方案,利用1984-2020年所有Landsat卫星数据(Landsat TM,ETM+和 OLI)生产了1985 年-2020年全球30米精细地表覆盖动态监测产品。该产品沿用了2020年基准数据的分类体系,共包含29个地表覆盖类型,更新周期为5年。 Zhang, X., Liu, L., Chen, X., Gao, Y., Xie, S., Mi, J., 2021. GLC_FCS30: global land-cover product with fine classification system at 30 m using time-series Landsat imagery. Earth Syst. Sci. Data 13, 2753-2776 , https://doi.org/10.5194/essd-13-2753-2021. Zhang, X., Liu, L., Wu, C., Chen, X., Gao, Y., Xie, S., & Zhang, B. (2020). Development of a global 30 m impervious surface map using multisource and multitemporal remote sensing datasets with the Google Earth Engine platform. Earth System Science Data, 12, 1625-1648, https://doi.org/10.5194/essd-12-1625-2020. Liu, L., Zhang, X., Gao, Y., Chen, X., Shuai, X., Mi, J., 2021. Finer-Resolution Mapping of Global Land Cover: Recent Developments, Consistency Analysis, and Prospects. Journal of Remote Sensing 2021, 1-38.

引用地址:

刘良云;张肖.2020年全球30米地表覆盖精细分类产品V1.0,北京:中国科学院空天信息创新研究院,2021.doi:10.12237/casearth.6123651428a58f70c2a51e49

数据加工方法说明

为了实现全自动长时序的全球30米地表覆盖动态监测目标,本研究以课题组2020年最新研发的全球30米地表覆盖精细分类产品(GLC_FCS30-2020)为基准数据,提出了耦合变化检测和动态更新相结合的长时序地表覆盖动态监测方案,利用1984-2020年所有Landsat卫星数据(Landsat TM,ETM+和OLI)在Google Earth Engine云计算平台完成了长时序的地表覆盖变化检测,并结合变化检测结果实现了逐区域和逐期的地表覆盖动态更新,生产了1985年-2020年全球30米精细地表覆盖动态监测产品。该产品沿用了2020年基准数据的分类体系,共包含29个地表覆盖类型,更新周期为5年。

部分元数据信息

格式TIF
范围说明全球陆地区域
时间范围开始时间2015-01-01
结束时间2020-12-31
分辨率空间分辨率30米
时间分辨率5年
创建信息创建机构中国科学院空天信息创新研究院
创建人员刘良云;张肖
创建日期2021-08-12
发布信息发布机构中国科学院空天信息创新研究院
邮箱liuly@radi.ac.cn
电话010-82178163
最新发布日期2021-08-23
文件信息总存储量23.98GB
总文件数963
总记录数961

数据下载方式

1、python爬虫

数据为切片方式存储,全球一共963条数据,当然你也可以手点900多次也能下载下来~~~,官方提供了API,发现可以通过官方提供的下载链接来下载单个文件,也提供了每个文件的id列表,就意味着可以爬虫!!!

image-20231019163417286

发现文件id列表是用字典格式存储,这就好办了,直接解析josn文件后打印key就能拿到每个文件id,再组合下载url就能拿到下载链接,最后get一下就能下载数据了,这里需要在链接中添加文用户名。

image-20231019164144067

爬虫代码
import requests
import json
import os
from urllib.parse import unquote

# 发送GET请求获取JSON数据
url = "http://data.casearth.cn/api/getAllFileListBySdoId?sdoId=6123651428a58f70c2a51e49"
response = requests.get(url)

if response.status_code == 200:  # 网页状态码
    data = json.loads(response.text)  # 解析JSON数据
    file_info_list = data.get("文件信息列表", [])  # 获取文件信息列表,如果不存在则返回空列表

    # 你的用户名
    username = "###"

    # 指定下载目录
    download_dir = r"D:\浏览器下载目录\全球土地利用数据"  # 替换储存路径

    # 创建下载目录(如果不存在)
    if not os.path.exists(download_dir):
        os.makedirs(download_dir)

    # 遍历文件信息并下载文件
    for file_info in file_info_list:
        file_id = file_info.get("id")
        file_name = file_info.get("filename")

        # 如果文件名包含非法字符,请进行适当的处理,以确保合法文件名
        download_url = f"http://data.casearth.cn/sdo/downloadOneFile?id={file_id}&username={username}"
        file_response = requests.get(download_url)

        if file_response.status_code == 200:
            # 构建文件路径
            file_path = os.path.join(download_dir, file_name)

            # 保存文件到指定目录
            with open(file_path, "wb") as file:
                file.write(file_response.content)
            print(f"文件 {file_name} 下载成功.")
        else:
            print(f"文件 {file_name} 下载失败. 状态码: {file_response.status_code}")
else:
    print(f"Failed to retrieve data. Status code: {response.status_code}")

print("下载完成!!!")

成功拿到数据

image-20231019164907990

2、IDM或者迅雷下载

成功构建下载链接后就可以通过下载器来批量下载数据了,这步的关键在于拿到文件id

获取ID并构建下载链接

将文件id的josn数据复制到excel表格中,将下面链接复制到浏览器打开,复制全部内容到excel表格,但是亲测excel单元格存不下这么多数据,所有只能曲线救国,用csv文件来存储。

image-20231019165811500

新建一个空的txt文本,将复制到的所有内容粘贴上去,后把txt文件后缀改成csv,后打开,发现数据直接被分列好了!!!

选中整行数据后复制右键粘贴为转置:

image-20231019171314201

选中整列数据后按照冒号来分列

image-20231019171512990

筛选出id字段

image-20231019171555102

拿到id后接着就是组合下载链接了,把官网复制的下载链接复制下来,

image-20231019171911333

需要把filed部分替换成每个文件的id,将id,url前缀和用户名在不同单元格显示

image-20231019172032206

用&符号将各个部分拼接起来,注意各部分的位置

image-20231019172220242

后将各部分数据延伸下去就得到了所有文件的下载链接,双击实心指针或者拖到都可以

image-20231019172347117

IDM批量下载

复制全部下载链接后直接从剪切板导入

image-20231019164531678

解析一会儿后就可以直接下载了

image-20231019164618638

数据获取

当然要是懒得下载的话也可以在我的公众号(同名)后台回复口令10获取,我已经将所有切片进行了镶嵌

数据投影信息如下:

image-20231020102821870

数据展示:

image-20231020102900410

  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 4
    评论
评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

GIS探险家

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值