Python自学笔记——京东商城汽车图片爬取

编写思路:

  1. 建立一个自定义函数,用于读取网页源代码,进行信息过滤后得到目标图片的链接,并将这些链接地址存储到一个列表中,随后遍历该列表,通过urllib.request.urlretrieve()将图片存储到本地。

  2. 通过for循环将所有的网页都爬取一遍

# -*- coding: utf-8 -*-

"""

Created on Tue Dec 19 14:32:34 2017

@author: Andrew

"""

import re

import urllib.request

def craw(url,page):

    html1=urllib.request.urlopen(url).read()#读取对应网页的全部源代码

    html1=str(html1)

    #第一次信息过滤

    pat1='<div class="car-wrap".+?<div class="page clearfix">'#用于匹配对应图片区域的正则表达式,过滤掉无用源码

    result1=re.compile(pat1).findall(html1)#对正则表达式pat1进行编译,并将匹配结果赋给result1

    result1=result1[0]

    #第二次信息过滤

    pat2='<img src="//(.*?)" .*?>'#用于匹配图片地址的正则表达式

    imagelist=re.compile(pat2).findall(result1)#编译正则表达式pat2,并将结果赋给imagelist,即图片地址列表

    x=1

    for imageurl in imagelist:

        imagename="C:/Python35/jingdongcarimg/" + str(page) + str(x) + ".jpg"#为每个图片进行命名

        imageurl="http://"+imageurl#图片地址

        #建立异常处理,若不能爬取某个图片,则会通过x+=1自动跳到下一个图片

        try:

            urllib.request.urlretrieve(imageurl,filename=imagename)#将图片保存到本地

        except urllib.error.URLError as e:

            if hasattr(e,"code"):

                x+=1

            if hasattr(e,"reason"):

                x+=1

        x+=1

for i in range(1,3):#爬取第一页到第二页(可根据具体需要进行设置)

    url="http://car.jd.com/hmc/0_0_0-10000?ccode=201&pageIndex="+str(i)#待抓取网页地址

    craw(url,i)

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值