python唯美壁纸_用python爬虫爬取网页壁纸图片(彼岸桌面网唯美图片)

本文介绍了如何使用Python爬虫从彼岸桌面网批量下载唯美壁纸。作者分享了爬虫代码,包括获取网页源码、筛选图片、处理分辨率、下载图片等步骤。代码中对图片进行了分辨率和内容的筛选,以适应个人需求。同时提醒读者,爬虫应注重对目标网页源码的分析,每个爬虫都是针对特定页面定制的。
摘要由CSDN通过智能技术生成

参考文章:https://www..com/franklv/p/6829387.html

今天想给我的电脑里面多加点壁纸,但是嫌弃一个个保存太慢,于是想着写个爬虫直接批量爬取,因为爬虫只是很久之前学过一些,很多基础语句都不记得了,于是直接在网上找了个有基础操作语句的爬虫代码,在这上面进行修改以适应我的要求和爬取的网页需求

我爬取的网页如下:

彼岸桌面网唯美图片:http://www.netbian.com/weimei/index.htm

注意:这次爬取的网页的图片是静态的,没有爬取js,而且之前爬虫就学了一点也没很深入,所以代码写的很丑,而且因为写这个主要是为了给电脑爬个壁纸,所以侧重功能,一些地方能简单解决的就简单解决了,在此建议想好好学习爬虫的还是多多钻研,不要取巧

下面代码来自上面的参考文章:

import requests

from bs4 import BeautifulSoup

import os

def getHtmlurl(url): #获取网址

try:

r=requests.get(url)

r.raise_for_status()

r.encoding=r.apparent_encoding

return r.text

except:

return ""

def getpic(html): #获取图片地址并下载

soup =BeautifulSoup(html,'html.parser')

all_img=soup.find('ul',class_='pli')find_all('img')

for img in all_img:

src=img['src']

img_url=src

print (img_url)

root='D:/pic/'

path = root + img_url.split('/')[-1]

try: #创建或判断路径图片是否存在并下载

if not os.path.exists(root):

os.mkdir(root)

if not os.path.exists(path):

r = requests.get(img_url)

with open(path, 'wb') as f:

f.write(r.content)

f.close()

print("文件保存成功")

else:

print("文件已存在")

except:

print("爬取失败")

def main():

url='http://www.ivsky.com/bizhi/yourname_v39947/'

html=(getHtmlurl(url))

print(getpic(html))

main()

这上面的代码中有基本的网页信息获取,图片下载操作,我们主要工作就是依据网页源代码信息以及自己的个人要求编写爬取网页图片的代码。

首先点开网站,按F12观察源码信息:

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值