介绍
CloudSat标准数据产品由位于柯林斯堡的科罗拉多州立大学大气合作研究机构的CloudSat数据处理中心分发。数据产品ID以及产品名如下:
下载
方式1,交互式下载。
在官网注册,官网:http://www.cloudsat.cira.colostate.edu/order-data。根据时间或区域下载。
方式2,wget批量下载。
使用ftp从网站ftp.cloudsat.cira.colostate.edu获得文件,需要注册账号。下载数据的版本时间说明:
产品版本:2B-GEOPROF.P1_R05
年:2015
日:1 这里的日表示一年的第几天。
官网wget下载代码:
wget -nd -N -r --user=<your username> --ask-password ftp://ftp.cloudsat.cira.colostate.edu/2B-GEOPROF.P1_R05/2015/001
这里需要修改的地方有,填入用户名即可,密码运行上面脚本会提示输入,当然也可以写在脚本里。这里假设我的用户名是:na_wang,密码是:nala,此时脚本可以修改为:
wget -nd -N -r --user=na_wang --ask-password ftp://ftp.cloudsat.cira.colostate.edu/2B-GEOPROF.P1_R05/2015/001
如果想将密码写入其中,脚本为:
wget -nd -N -r --user=na_wang --password=nala ftp://ftp.cloudsat.cira.colostate.edu/2B-GEOPROF.P1_R05/2015/001
关于wget脚本写作规则可以参考本人以前博客。
这就是刚才下载的文件了:
CloudSat数据产品以HDF-EOS格式提供,文件命名约定如下:
R04文件: YYYYDDDHHMMSS _ NNNNN _ CS_ 2B-TAU _GRANULE_ S _R VV _E VV .hdf
R05文件: YYYYDDDHHMMSS _ NNNNN _ CS_ 2B-TAU _GRANULE_ S _R VV _E VV _F 00 .hdf
YYYYDDDHHMMSS = 文件中包含的第一个数据的年,儒略日,时,分,秒
NNNNN = 颗粒数
CS = 表示CloudSat
2B-TAU = 产品名称
GRANULE = 表示数据子集(如果数据不是子集,则为“ GRANULE”)
S_ R VV = 版本,包括处理迭代(“ P”,“ P1”,“ P2”等)和发行版(“ R04”,“ R05”等)。例如:P_R04。
E VV = Epoch number
F 00 = 修订号(用于版本中的重新处理的文件-仅R05)
.hdf = HDF-EOS文件后缀
R04 files: YYYYDDDHHMMSS_ NNNNN_ CS_2B-TAU_GRANULE_S_RVV_EVV.hdf
R05 files: YYYYDDDHHMMSS_ NNNNN_ CS_2B-TAU_GRANULE_S_RVV_EVV_F00.hdf
YYYYDDDHHMMSS = Year, Julian day, hour, minute, second of the first data contained in the file (UTC)
NNNNN = Granule number
CS = Literal "CS" indicating the CloudSat mission
2B-TAU = Product name
GRANULE = Indicates the data subset ("GRANULE" if the data are not subset)
S_RVV = Version including the processing iteration ("P", "P1", "P2", etc.) and release ("R04", "R05", etc.). For example: P_R04.
EVV = Epoch number
F00 = Fix number (for reprocessed files within a version - R05 only)
.hdf = HDF-EOS file suffix
数据读取
官网提供了C IDL Matlab Python 等语言,以及一些工具。这里就用HDFView简单看一下数据。