基于Scrapy架构的网络爬虫入坑第三战(爬取某网站**头像到本地)

本文介绍了如何使用Scrapy架构编写爬虫,通过定位网站中头像的class属性,抓取头像URL,利用urllib.request模块下载图片并保存到本地。爬虫程序简化了手动保存图片的步骤,实现批量下载。
摘要由CSDN通过智能技术生成

一、前言

Internet surfing的时候,经常会有这样的感叹:有些图片能自动保存到本地多好!省去右键另存为的麻烦,而且可以批量操作。

比如这样:

比如这样:

、方法

首先观察网站涉及头像的源码,发现头像的网络地址在class = 'pic'style中,截图如下:

而后想到借助最近一直摸索的Scrapy架构,写一个爬虫程序:先定位到用户主页,利用urllib.request.urlopen头像网址,并将图片信息写到本地。爬取流程如下:

相较于前两战,修改的代码也主要集中于Spider主函数文件,主要增加一个图片下载的函数:

    # 下载图片
    def imageDownload(self,titlename,url_img):
    ​#         print("
开始")
        file_path = 'E:\Works\image\hunlian'
        if not os.path.exists(file_path):
            os.mkdir(file_path)
        file_path=os.path.join(file_path, titlename +'.jpg')
        response = urllib.request.urlopen(url_img)
        print("
开始下载图片")
        print(file_path)
        with open(file_path,'wb') as f:
            f.write(response.read())

三、效果

运行爬虫程序,便可将头像保存到本地。具体效果图如下:

四、小结

urllibrequest模块可以非常方便地抓取URL内容,也就是发送一个GET请求到指定的页面,然后返回HTTP的响应,利用response.read()可以获取主体内容。

 

 

兵马未动,粮草先行。有了充足有效的数据,才能开展可视化分析

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值