Python爬虫天涯论坛美图

import urllib.request
from lxml import etree

headers = ('Referer','http://bbs.tianya.cn/post-funinfo-2325132-1.shtml')#防盗链,修改访问来源
opener = urllib.request.build_opener()
opener.addheaders = [headers]
urllib.request.install_opener(opener)

for i in range(1,22):
    url="http://bbs.tianya.cn/post-funinfo-2325132-"+str(i)+".shtml"
    response = opener.open(url).read().decode("utf-8","ignore")
    html = etree.HTML(response) 
    imagelist = html.xpath('//img/@original')

    for j in range(0,len(imagelist)):
            thisimg=imagelist[j]
            thisimgurl=thisimg
            file="D://python/tyimg/"+str(i)+str(j)+".jpg"
            urllib.request.urlretrieve(thisimgurl,filename=file)

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值