python学习之跨网页批量下载数据


欢迎关注我的微信公众号“人小路远”哦,在这里我将会记录自己日常学习的点滴收获与大家分享,以后也可能会定期记录一下自己在外读博的所见所闻,希望大家喜欢,感谢支持! 


需求:

目标网址:http://data.ess.tsinghua.edu.cn/landsat_pathList_fromglc_0_1.html

如下若干个view_table里都有若干条数据,每条数据有三个可选的下载链接,选第一个或者第二个下载即可。需要批量下载所有view_table中的所有条数据。

分析目标网页结构:

实现 :

python2.7

如果需要用python3,把urllib2改为urllib.request;print改为print()即可。默认下载至代码所在的文件夹下。

# coding:utf-8
import urllib2
import re
from bs4 import BeautifulSoup
from distutils.filelist import findall

id = 0
end = "/"
pat2 = '/(.+?\.gz)'
for num in range(1, 224):
    id = id + 1
    m = "%03d" % id
    # print "第"+str(id)+"页begin::"
    # 根据规律拼接网页地址,循环遍历
    url = 'http://data.ess.tsinghua.edu.cn/pathlinks/path_' + m + '.html'
    # 页面解析
    page = urllib2.urlopen(url)
    contents = page.read()
    soup = BeautifulSoup(contents, "html.parser")
    # 新建数组存储所需的下载地址
    list = []
    # 搜索所有的href链接
    for tag in soup.find_all('a'):
        list.append(tag.get("href"))
    count = 0
    # 三个链接按顺序只选择1、4、7、10...即可,每个页面的最后一个不是下载链接,所以要减掉
    for s in range(0, len(list)-1, 3):
        print list[s]
        count += 1
        # 提取出下载链接最后的文件名
        string1 = list[s]
        string2 = string1[string1.rfind(end):]
        name = re.compile(pat2).findall(string2)
        name = str(name[0])
        # 根据下载链接和文件名存储文件
        f = urllib2.urlopen(string1)
        with open(name, "wb") as code:
            code.write(f.read())
    print "第"+str(id)+"页共下载了"+str(count)+"个文件"





源码:

https://github.com/LiGuiye/WebCrawler/blob/master/DownloadWebFiles.py

 

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

湖大李桂桂

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值