python爬虫获取下一页url_写爬虫如何获取网页页数并使程序跑完第一页继续前往下一页?...

该楼层疑似违规已被系统折叠 隐藏此楼查看此楼

# -*- coding: utf-8 -*-

import urllib

import re

import time

import os

#显示下载进度

def schedule(a,b,c):

'''''

a:已经下载的数据块

b:数据块的大小

c:远程文件的大小

'''

per = 100.0 * a * b / c

if per > 100 :

per = 100

print '%.2f%%' % per

def getHtml(url):

page = urllib.urlopen(url)

html = page.read()

return html

def downloadImg(html):

reg = r'

imgre = re.compile(reg)

imglist = re.findall(imgre, html)

#定义文件夹的名字

t = time.localtime(time.time())

foldername = str(t.__getattribute__("tm_year"))+"-"+str(t.__getattribute__("tm_mon"))+"-"+str(t.__getattribute__("tm_mday"))

picpath = '/Volumes/BOOTCAMP/Tuigirl/%s' % (foldername) #下载到的本地目录

if not os.path.exists(picpath): #路径不存在时创建一个

os.makedirs(picpath)

x = 0

for imgurl in imglist:

target = picpath+'%s.jpg' % x

print 'Downloading image to location: ' + target + '\nurl=' + imgurl

image = urllib.urlretrieve(imgurl, target, schedule)

x += 1

return image;

if __name__ == '__main__':

print ''' *************************************

** Welcome to use Spider **

** Created on 2014-05-13 **

** @author: cruise **

*************************************'''

html = getHtml("待抓取的网页地址"

downloadImg(html)

print "Download has finished."

这段代码有个BUG,他会自动创建一个当前日期的文件夹在目录那里。可是jpg不能存放进那个文件夹。全部存在外面了,不知道该怎么办。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值