python_爬虫获取Modis数据下载页面的数据链接

该博客介绍了如何使用Python爬虫从Modis数据下载页面抓取数据链接,这些链接可以用于后续的批量下载操作,既可以通过代码直接下载,也可以复制到下载工具如IDM或迅雷中进行批量下载。
摘要由CSDN通过智能技术生成
# -*- coding: utf-8 -*-
"""
Created on Sat Jul 21 14:35:57 2018

@author: Administrator
"""
import re
import urllib
from bs4 import BeautifulSoup
import csv
rawurl=r'https://e4ftl01.cr.usgs.gov/MOLT/MOD11A2.006/2005.09.30/'    #20050930数据下载页面链接
file=r'G:\MOD13A3_NDVI\DATA'    #链接存储位置
t=[]
urls=[]
U=[]
PP=[]
content = urllib.request.urlopen(rawurl).read().decode('ascii')  #获取页面的HTML
soup = BeautifulSoup(content, 'lxml')
print(soup.prettify())
s=[soup.find_all('a')]
#print(soup.find_all('a'))
#使用正则表达匹配下载需要的研究区对应行号的Modis数据, 如下为 h2304,h2305等
reinfo=re.compile(r'MOD11A2[0-9a-zA-Z\_.]{10}h23v04[0-9a-zA-Z\_.]{19}hdf$')  #正则表达匹配
reinfo1=re.compile(r'MOD11A2[0-9a-zA-Z\_.]{10}h23v05[0-9a-zA-Z\_.]{19}hdf$') #正则表达匹配
reinfo2=re.compile(r'MOD11A2[0-9a-zA-Z\_.]{10}h24v04[0-9a-zA-Z\_.]{19}hdf$') #正则表达匹配
评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值