数据介绍
这里介绍了2020年的数据,1985,1990,1995,2000,2005,2010以及2015年的数据也一样
一共有八年的数据:
数据标识:
DOI:10.12237/casearth.6123651428a58f70c2a51e49
CSTR: 31104.11.casearth.6123651428a58f70c2a51e49
PID: 21.86109/casearth.6123651428a58f70c2a51e49
数据简介:
地表覆盖分布是气候变化研究、生态环境评估及地理国情监测等不可或缺的重要基础信息。 近年来, 随着遥感科学技术以及计算机存储和计算能力的不断提升,针对长时序全球30米地表覆盖动态监测产品的应用需求日益迫切。本课题研发的以课题组2020年最新研发的全球30米地表覆盖精细分类产品(GLC_FCS30-2020)为基准数据, 提出了耦合变化检测和动态更新相结合的长时序地表覆盖动态监测方案,利用1984-2020年所有Landsat卫星数据(Landsat TM,ETM+和 OLI)生产了1985 年-2020年全球30米精细地表覆盖动态监测产品。该产品沿用了2020年基准数据的分类体系,共包含29个地表覆盖类型,更新周期为5年。 Zhang, X., Liu, L., Chen, X., Gao, Y., Xie, S., Mi, J., 2021. GLC_FCS30: global land-cover product with fine classification system at 30 m using time-series Landsat imagery. Earth Syst. Sci. Data 13, 2753-2776 , https://doi.org/10.5194/essd-13-2753-2021. Zhang, X., Liu, L., Wu, C., Chen, X., Gao, Y., Xie, S., & Zhang, B. (2020). Development of a global 30 m impervious surface map using multisource and multitemporal remote sensing datasets with the Google Earth Engine platform. Earth System Science Data, 12, 1625-1648, https://doi.org/10.5194/essd-12-1625-2020. Liu, L., Zhang, X., Gao, Y., Chen, X., Shuai, X., Mi, J., 2021. Finer-Resolution Mapping of Global Land Cover: Recent Developments, Consistency Analysis, and Prospects. Journal of Remote Sensing 2021, 1-38.
引用地址:
刘良云;张肖.2020年全球30米地表覆盖精细分类产品V1.0,北京:中国科学院空天信息创新研究院,2021.doi:10.12237/casearth.6123651428a58f70c2a51e49
数据加工方法说明
为了实现全自动长时序的全球30米地表覆盖动态监测目标,本研究以课题组2020年最新研发的全球30米地表覆盖精细分类产品(GLC_FCS30-2020)为基准数据,提出了耦合变化检测和动态更新相结合的长时序地表覆盖动态监测方案,利用1984-2020年所有Landsat卫星数据(Landsat TM,ETM+和OLI)在Google Earth Engine云计算平台完成了长时序的地表覆盖变化检测,并结合变化检测结果实现了逐区域和逐期的地表覆盖动态更新,生产了1985年-2020年全球30米精细地表覆盖动态监测产品。该产品沿用了2020年基准数据的分类体系,共包含29个地表覆盖类型,更新周期为5年。
部分元数据信息
格式 | TIF | |
---|---|---|
范围说明 | 全球陆地区域 | |
时间范围 | 开始时间 | 2015-01-01 |
结束时间 | 2020-12-31 | |
分辨率 | 空间分辨率 | 30米 |
时间分辨率 | 5年 | |
创建信息 | 创建机构 | 中国科学院空天信息创新研究院 |
创建人员 | 刘良云;张肖 | |
创建日期 | 2021-08-12 | |
发布信息 | 发布机构 | 中国科学院空天信息创新研究院 |
邮箱 | liuly@radi.ac.cn | |
电话 | 010-82178163 | |
最新发布日期 | 2021-08-23 | |
文件信息 | 总存储量 | 23.98GB |
总文件数 | 963 | |
总记录数 | 961 |
数据下载方式
1、python爬虫
数据为切片方式存储,全球一共963条数据,当然你也可以手点900多次也能下载下来~~~,官方提供了API,发现可以通过官方提供的下载链接来下载单个文件,也提供了每个文件的id列表,就意味着可以爬虫!!!
发现文件id列表是用字典格式存储,这就好办了,直接解析josn文件后打印key就能拿到每个文件id,再组合下载url就能拿到下载链接,最后get一下就能下载数据了,这里需要在链接中添加文用户名。
爬虫代码
import requests
import json
import os
from urllib.parse import unquote
# 发送GET请求获取JSON数据
url = "http://data.casearth.cn/api/getAllFileListBySdoId?sdoId=6123651428a58f70c2a51e49"
response = requests.get(url)
if response.status_code == 200: # 网页状态码
data = json.loads(response.text) # 解析JSON数据
file_info_list = data.get("文件信息列表", []) # 获取文件信息列表,如果不存在则返回空列表
# 你的用户名
username = "###"
# 指定下载目录
download_dir = r"D:\浏览器下载目录\全球土地利用数据" # 替换储存路径
# 创建下载目录(如果不存在)
if not os.path.exists(download_dir):
os.makedirs(download_dir)
# 遍历文件信息并下载文件
for file_info in file_info_list:
file_id = file_info.get("id")
file_name = file_info.get("filename")
# 如果文件名包含非法字符,请进行适当的处理,以确保合法文件名
download_url = f"http://data.casearth.cn/sdo/downloadOneFile?id={file_id}&username={username}"
file_response = requests.get(download_url)
if file_response.status_code == 200:
# 构建文件路径
file_path = os.path.join(download_dir, file_name)
# 保存文件到指定目录
with open(file_path, "wb") as file:
file.write(file_response.content)
print(f"文件 {file_name} 下载成功.")
else:
print(f"文件 {file_name} 下载失败. 状态码: {file_response.status_code}")
else:
print(f"Failed to retrieve data. Status code: {response.status_code}")
print("下载完成!!!")
成功拿到数据
2、IDM或者迅雷下载
成功构建下载链接后就可以通过下载器来批量下载数据了,这步的关键在于拿到文件id
获取ID并构建下载链接
将文件id的josn数据复制到excel表格中,将下面链接复制到浏览器打开,复制全部内容到excel表格,但是亲测excel单元格存不下这么多数据,所有只能曲线救国,用csv文件来存储。
新建一个空的txt文本,将复制到的所有内容粘贴上去,后把txt文件后缀改成csv,后打开,发现数据直接被分列好了!!!
选中整行数据后复制右键粘贴为转置:
选中整列数据后按照冒号来分列
筛选出id字段
拿到id后接着就是组合下载链接了,把官网复制的下载链接复制下来,
需要把filed部分替换成每个文件的id,将id,url前缀和用户名在不同单元格显示
用&符号将各个部分拼接起来,注意各部分的位置
后将各部分数据延伸下去就得到了所有文件的下载链接,双击实心指针或者拖到都可以
IDM批量下载
复制全部下载链接后直接从剪切板导入
解析一会儿后就可以直接下载了
数据获取
当然要是懒得下载的话也可以在我的公众号(同名)后台回复口令10获取,我已经将所有切片进行了镶嵌
数据投影信息如下:
数据展示: