python爬虫得图片并保存到文件夹里

转载自https://www.cnblogs.com/xuchao/p/6087676.html

1.观察网页,找到img标签

2.通过requests和BS库来提取网页中的img标签

3.抓取img标签后,再把里面的src给提取出来,接下来就可以下载图片了

4.通过urllib的urllib.urlretrieve来下载图片并且放进文件夹里面(第一之前的准备工作就是获取当前路径然后新建一个文件夹)

5.如果有多张图片,不断的重复3-4

 

由于爬虫写得少,通过自己的调试,终于写了出来了

下面直接上代码:

#coding = 'utf-8'
import requests
from bs4 import BeautifulSoup
import urllib
import os
import sys
reload(sys)
sys.setdefaultencoding("utf-8")


if __name__ == '__main__':
    url = 'http://www.qiushibaike.com/'
    res = requests.get(url)
    res.encoding = 'utf-8'
    soup = BeautifulSoup(res.text, 'html.parser')
    imgs = soup.find_all("img")


    _path = os.getcwd()
    new_path = os.path.join(_path , 'pictures')
    if not os.path.isdir(new_path):
        os.mkdir(new_path)
    new_path += '\ '


    try:
        x = 1
        if imgs == []:
            print "Done!"
        for img in imgs:
            link = img.get('src')
            if 'http' in link:
                print "It's downloading %s" %x + "th's piture"
                urllib.urlretrieve(link, new_path + '%s.jpg' %x)
                x += 1


    except Exception, e:
        print e
    else:
        pass
    finally:
        if x :
            print "It's Done!!!"

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值