python 爬虫

import re  
import urllib2
import os


# 网址链接地址 放在 lists 列表里面
start_urls=[
"url地址"


]
# 下载图片 保存指定路劲
def getImg(url):
urldata=urllib2.urlopen(url)
data=urldata.read()
urldata.close()
imglist=re.findall('<img src="/resources/.*?"',data)
fileall="C:\Python27\imgdemo\\" + url.split("/")[4]
x=0
for imgurl in imglist:
print('==========222==========')
imgall=re.findall('src="(.*?)"',imgurl)

print(imgall[0])
print('<br/>')

filename=imgall[0].split("/")[-1]
path=fileall.strip()
isExist=os.path.exists(path)
if not isExist:
os.makedirs(path)

try:
img='URL地址'+ imgall[0]

socket=urllib2.urlopen(img)
data1=socket.read()
socket.close()
with open(fileall + '/' + filename,'wb') as code:
code.write(data1)

except IOError:
print 'download error:' +  img

x = x + 1 
#遍历 URL网址
for url in start_urls:
print(url)
getImg(url)
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值