cramler2.py-20171207

本文介绍了一种使用Python爬取百度贴吧图片的方法,通过两种不同的技术实现:一是使用urllib和re模块;二是利用requests和re模块。文章详细展示了如何解析HTML页面中的图片链接,并下载这些图片。
摘要由CSDN通过智能技术生成
#!/usr/bin/env python3
# -*- coding: utf-8 -*-
"""
Created on Tue Nov 21 21:18:48 2017

@author: vicky
"""

#cramler1的改写
# 实现一个简单的爬虫,爬取百度贴吧图片

# 1. urllib+re实现
import urllib.request
import re

#网址
url = 'http://tieba.baidu.com/p/2256306796'

#根据url获取网页html内容
page = urllib.request.urlopen(url)
html=page.read()

# 从html中解析出所有jpg图片的url
# 百度贴吧html中jpg图片的url格式为:<img ... src="XXX.jpg" width=...>
# 解析jpg图片url的正则,从<img开始找,包括src,到width>为止
jpgReg = re.compile(r'<img.+?src="(.+?\.jpg)" width')  # 注:这里最后加一个'width'是为了提高匹配精确度
# 解析出jpg的url列表
jpgs = re.findall(jpgReg, html.decode('utf-8'))

# 封装:从百度贴吧网页下载图片
# 批量下载图片,默认保存到目录path下
path = '/Users/vicky/Documents/code/python/scrapy/'
# 用于给图片命名
count = 1
for url in jpgs:
    # 用图片url下载图片并保存成制定文件名
    urllib.request.urlretrieve(url,''.join([path,'{0}.jpg'.format(count)]))
    count = count + 1


#2. requests + re实现
    
import requests
import re
from contextlib import closing

url = 'http://tieba.baidu.com/p/2256306796'

page = requests.get(url)
html=page.text

jpgReg = re.compile(r'<img.+?src="(.+?\.jpg)" width')  # 注:这里最后加一个'width'是为了提高匹配精确度
# 解析出jpg的url列表
jpgs = re.findall(jpgReg,html)
            
# 用于给图片命名
count = 1
for url in jpgs:
    with closing(requests.get(jpgs,stream = True)) as resp:
        fileName=''.join([path,'{0}.jpg'.format(count)])
        with open(fileName,'wb') as f:
            for chunk in resp.iter_content(128):
                f.write(chunk)
#   downloadJPG(url,''.join([path,'{0}.jpg'.format(count)]))
    print ('下载完成第{0}张图片'.format(count)) #加了这一句
    count = count + 1
    
    
    

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值