python爬虫爬取百度贴吧——高考吧图片

话不多说,直接上代码。

mport urllib.request
import re
from lxml import etree

def gethtml(start):
    #str(start)=0表示第一页,50表示第二页,……。
    url = 'http://tieba.baidu.com/f?kw=%E9%AB%98%E8%80%83&ie=utf-8&pn='+str(start)+''
    page = urllib.request.urlopen(url).read()
    html = etree.HTML(page)
    imglink =html.xpath('//div[@class="threadlist_title pull_left j_th_tit "]/a/@href')
    for i in imglink:
        # print(i)
        get_son_html(page,i)

def get_son_html(page,i):
    son_page = urllib.request.urlopen('http://tieba.baidu.com'+i).read().decode('utf-8')
    getimg(son_page,i)

def getimg(son_page,i):
    x=1
    path = 'F:\\baidutieba\\'
    reg = r'src="(http://imgsrc.*?\.jpg)"'
    imgre = re.compile(reg)
    imglist = re.findall(imgre,son_page)
    list = filter(None,imglist)
    for i in list:
        x=1
        img = urllib.request.urlopen(i)
        imgresp = img.read()
        pic = open(path+i.split('/')[-1],'wb')
        pic.write(imgresp)
        x+=1
    print('正在保存……')

if __name__=='__main__':
    for n in range(0,5):
     gethtml(start=n*50)

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值