python制作手机壁纸_Python爬取手机壁纸图片

使用Python爬取图片。

1 说明

本文通过爬虫程序的编写,实现了一个简单易懂的爬虫程序,方便初学者理解,主要程序分为网页获取函数,以及保存下载函数,这就是所有爬虫程序的基本思想。(本文不涉及反爬,具体反爬程序以后再说),文章最后附上全部代码。

爬取目标网站为

https://www.3gbizhi.com

此网站没有反爬,图片质量也很好,爬取时需加延时,不要给他们的服务器造成太大负担,且用且珍惜!!!

2 准备事项:

先pip安装以下命令

使用的第三方库

1.配置以下请求头,模拟自己是个浏览器

headers = {

'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/86.0.4240.111 Safari/537.36 Edg/86.0.622.58',

"Cookie": "UM_distinctid=1758c184bea97-0d217f1a4272e5-7d677f67-144000-1758c184beb5c8; CNZZDATA1255139604=1098251314-1604371519-%7C1604403769; Hm_lvt_3b19253d112290a9184293cf68a02346=1604373205,1604402882,1604407056; _uupv=3; Hm_lpvt_3b19253d112290a9184293cf68a02346=1604407260"

}

2.通过分析网址,发现此网页的分类是根据url的名字变化,实现,因此,我们只需要将分类之后的文字作为参数传入get_parse_page函数中,就可以找到目标网页。

def get_parse_page(name):

# name是你要搜索的关键词

url = r'https://www.3gbizhi.com/%s'%(name)

#1. 发送请求,获取相应

response = requests.get(url, headers=headers)

html = response.content.decode()

# print(html)

# 2.正则表达式解析网页

results = re.findall('src="(.*?).238.390.jpg"', html) # 返回一个图片下载链接的列表

pic_names = re.findall('alt="(.*?)"', html) # 返回图片名字一个列表

print(results)

# 根据获取到的图片链接,把图片保存到本地

save_to_txt(results, name, pic_names)

# 保存图片到本地

3.在获取到图片链接以及图片名字之后,进行下载,保存到本地指定的文件路径中,并进行命名。

def save_to_txt(results, name, pic_names):

j = 0

# 在当目录下创建文件夹

if not os.path.exists('./' + name):

os.makedirs('./' + name)

# 下载图片

for result in results:

try:

pic = requests.get(result, headers=headers)

print(pic)

print('正在保存第{}个'.format(j + 1))

time.sleep(random.random())

except:

print('当前图片无法下载')

j += 1

continue

# 把图片保存到文件夹

file_full_name = './' + name + '/' + str(j) + '-' + pic_names[j] + '.jpg'

with open(file_full_name, 'wb') as f:

f.write(pic.content)

j += 1

4.这是主函数

# 主函数

if __name__ == '__main__':

name = "sjbz"#手机壁纸分类

get_parse_page(name)

# 获取图片url连接

# 配置以下模块

import random

import requests

import re

import os

import time

headers = {

'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/86.0.4240.111 Safari/537.36 Edg/86.0.622.58',

"Cookie": "UM_distinctid=1758c184bea97-0d217f1a4272e5-7d677f67-144000-1758c184beb5c8; CNZZDATA1255139604=1098251314-1604371519-%7C1604403769; Hm_lvt_3b19253d112290a9184293cf68a02346=1604373205,1604402882,1604407056; _uupv=3; Hm_lpvt_3b19253d112290a9184293cf68a02346=1604407260"

}

def get_parse_page(name):

# name是你要搜索的关键词

# pn是你想下载的页数

url = r'https://www.3gbizhi.com/%s'%(name)

# 发送请求,获取相应

response = requests.get(url, headers=headers)

html = response.content.decode()

# print(html)

# 2.正则表达式解析网页

# "objURL":"http://n.sinaimg.cn/sports/transform/20170406/dHEk-fycxmks5842687.jpg"

results = re.findall('src="(.*?).238.390.jpg"', html) # 返回一个列表

pic_names = re.findall('alt="(.*?)"', html) # 返回一个列表

print(results)

# 根据获取到的图片链接,把图片保存到本地

save_to_txt(results, name, pic_names)

# 保存图片到本地

def save_to_txt(results, name, pic_names):

j = 0

# 在当目录下创建文件夹

if not os.path.exists('./' + name):

os.makedirs('./' + name)

# 下载图片

for result in results:

try:

pic = requests.get(result, headers=headers)

print(pic)

print('正在保存第{}个'.format(j + 1))

time.sleep(random.random())

except:

print('当前图片无法下载')

j += 1

continue

# 把图片保存到文件夹

file_full_name = './' + name + '/' + str(j) + '-' + pic_names[j] + '.jpg'

with open(file_full_name, 'wb') as f:

f.write(pic.content)

j += 1

# 主函数

if __name__ == '__main__':

name = "sjbz"

get_parse_page(name)

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值