Python爬虫入门学习笔记(二)

实战爬取百度贴吧图片

首先我是参考了这篇文章的实例进行学习,然后发现运行失败!
一个简单的爬虫实例
报错信息:

AttributeError: module ‘urllib’ has no attribute ‘urlopen’

因为我是用python3写的,用urllib时需要加上request才不会报上面那个错。

import urllib

改为

import urllib.request

把有用到urllib的地方均加上.request就好了!

这些改完后运行,发现居然还报错!
报错信息:

cannot use a string pattern on a bytes-like object

这种情况解决方法就是加上html=html.decode(‘utf-8’)#python3这句代码

修改后可运行的代码如下:

import urllib.request

import re

# 根据url获取网页html内容
def getHtmlContent(url):
    page = urllib.request.urlopen(url)
    return page.read()


#从html中解析出所有jpg图片的url
# 百度贴吧html中jpg图片的url格式为:<img ... src="XXX.jpg" width=...>

def getJPGs(html):
# 解析jpg图片url的正则
    jpgReg = re.compile(r'<img.+?src="(.+?\.jpg)" width')  
# 注:这里最后加一个'width'是为了提高匹配精确度
# 解析出jpg的url列表
    jpgs = re.findall(jpgReg, html)
    return jpgs
    
# 用图片url下载图片并保存成制定文件名
def downloadJPG(imgUrl, fileName):
    urllib.request.urlretrieve(imgUrl, fileName)


# 批量下载图片,默认保存到当前目录下
def batchDownloadJPGs(imgUrls, path='./'): # 用于给图片命名
    count = 1
    for url in imgUrls:
        downloadJPG(url, ''.join([path, '{0}.jpg'.format(count)]))
        count = count + 1


# 封装:从百度贴吧网页下载图片
def download(url):
    html = getHtmlContent(url)
    html = html.decode('utf-8')  # python3
    jpgs = getJPGs(html)
    batchDownloadJPGs(jpgs)


url = 'http://tieba.baidu.com/p/2256306796'
download(url)

参考资料:学习爬虫时遇到的问题TypeError: cannot use a string pattern on a bytes-like object 与解决办法

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值