一个简单的 python3 爬虫

本文通过借助 beautifulsoup 库实现了一个简单的用于爬网站图片的 python 爬虫,代码如下:

from urllib import request       # 导出 request 库
from bs4 import BeautifulSoup    # 导出 beautifulsoup 库
import re, os                    # 搜索用到了正则表达式, os 模块用于创建本地文件夹</span>

以下实现了两个函数,一个函数用于获取网页的地址列表,另一个函数用于从一个网页地址中抓取图片:

def getHtml(reqa):               # 获取网页中的地址列表
    with request.urlopen(reqa) as f:
        soup = BeautifulSoup(f.read())
        address_list = soup.find_all(href=re.compile(r'^/.*.html$'))   # 获取网页地址列表
        return address_list

def getImage(addr_list_image):
    dir_num = 1                  # 用于创建本地文件夹编号
    for addr in addr_list_image:
        image_num = 1            # 用于给图片编号
        path = "C:/Users/Administrator/Desktop/image/%s"%dir_num
        os.mkdir(path)           # 创建本地文件夹
        req_image = request.Request('http://www.meizitu.com%s'%addr['href'])
        with request.urlopen(req_image) as f:
             soup = BeautifulSoup(f.read())
             image_list = soup.find_all(src=re.compile(r'^http:.*.jpg$'))
             for image in image_list:
                 print(image['src']+'\n')
                 try:            # 写了个 try...except... 错误处理语句,防止下载出现错误
                     request.urlretrieve(image['src'], path+'/%s.jpg'%image_num)    #通过 request.urlretrieve 函数下载图片
                 except Exception:
                     pass
                 image_num += 1
             f.close()
        dir_num += 1

if __name__=="__main__":         # 主函数
    req = request.Request('http://www.meizitu.com/')
    addr_list = getHtml(req)
    getImage(addr_list)

以上就是这个简单爬虫的完整实现了,如有不妥之处,欢迎指正。

  • 2
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值