python爬取知乎话题_python爬取知乎话题图片

前言

什么是网络爬虫(也叫网络蜘蛛)?简单来说,是一种用来自动浏览万维网程序或脚本(网络爬虫的典型应用就是我们所熟知的搜索引擎)。既然如此,那么我们也可以写一个程序,用来自动浏览或者获取网页上的信息。本文将介绍利用python自带库编写一个简单的爬虫程序来获取网络信息。

准备

本次爬取实例可能涉及以下知识:python基础知识

urllib库使用

http基本知识

html/js基本知识

正则表达式

环境准备:linux(windows基本适用)

python3

chrome浏览器

爬取目标

本次爬取的目标是知乎话题下的图片。

分析

以知乎话题你有哪些压箱底的表情包?为例

(链接地址:https://www.zhihu.com/question/48132860):

用chrome浏览器打开该链接。鼠标右键-检查元素,在elements页移动鼠标,当鼠标移动到某元素时,页面会被选中,因此我们可以找到第一张图片的img标签,而在标签中,我们可以找到图片的url地址,复制url地址,在浏览器打开,我们就看到了需要下载的表情包了。

至此,整体思路就很简单了:访问话题页--找到img标签--获取图片url地址--下载图片。

查找链接

代码#!/usr/bin/python3

#coding=utf-8

import urllib.request as request

import urllib.parse as parse

import string

import sys

import re

import os

import urllib.error as error

'''

获取url中的图片

url:链接地址

dirpath:保存路径

'''

def getUrlImage(url,dirpath):

dldNum=0

#存储目录不存在时,创建目录

if not os.path.isdir(dirpath):

os.makedirs(dirpath)

data = request.urlopen(url).read()

page_data = data.decode('gbk','ignore')

#获取img标签数据

page_image = re.compile('p

#循环获取img标签中的图片

for image in page_image.findall(page_data):

#匹配数据中的图片

pattern = re.compile(r'^https://.*.(jpg|png|gif|jpeg)$')

if pattern.match(image):

print (image)

try:

extension = GetFileNameAndExt(image)

#读取图片内容

image_data = request.urlopen(image).read()

image_path = dirpath+'/'+str(dldNum)+extension

dldNum += 1

print(image_path)

#保存图片

with open(image_path, 'wb') as image_file:

image_file.write(image_data)

image_file.close()

except error.URLError as e:

print('Download failed')

'''

获取文件名中的扩展名

'''

def GetFileNameAndExt(filename):

(filepath,tempfilename) = os.path.split(filename);

(shotname,extension) = os.path.splitext(tempfilename);

return extension

'''

入口函数

带两个参数

参数1:话题链接地址

参数2:图片保存路径

'''

if __name__ == "__main__":

if(len(sys.argv) < 2):

print("usage:./download_spider.py url savePath")

else:

print("the url is "+str(sys.argv[1]))

print("the save path is "+str(sys.argv[2]))

url = sys.argv[1]

savePath = sys.argv[2]

getUrlImage(url,savePath)

运行

有两个参数,第一个参数是url,即话题的链接,第二个参数是所要保存图片的路径。

在linux下运行,可以看到正在不断保存话题图片./getZhiHuImage.py https://www.zhihu.com/question/48132860 ./test

程序执行完成后可以在目的目录下发现下载好的图片,接下来就可以开心地去斗图啦。

下载结果

下载结果2

最后说两句

本文仅简单利用了python自带urllib库完成了话题图片的获取工作,但更多时候,爬取网络资源要更困难得的多,要获取的内容也不像本文例子中那么明显易得到,比如可能需要模拟登录,验证码识别,伪装成浏览器,去重等等,这里不再展开。但是Python中自带urllib及urllib2 库,基本上能满足一般的页面抓取了。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值