python 爬虫爬取唯美图片

python 爬虫爬取图片 代码可直接运行

在这里插入图片描述

1. 准备

requests 库
bs4库

添加方法:

cmd 中输入:

pip install requests
pip install bs4

2. python 3.9 代码

# python爬取网站上1000张唯美图片
import requests
from bs4 import BeautifulSoup
path='https://www.woyaogexing.com/tupian/weimei'  #爬取网站URL
p='https://www.woyaogexing.com'; #初始路径
path_all=[path]
for i in range(2,6):
    path_all.append(path+'/index_'+str(i)+'.html')  #所有的爬取页面
print(path_all) #打印所有的待爬取页面链接


l=[] # l储存一级套图页面url
def find_path(path):
    resp=requests.get(path)
    resp.encoding='utf-8'
    main_page=BeautifulSoup(resp.text,"html.parser")
    list=main_page.find_all("a", attrs={"class":"img"})  #直接找套图元素
    for ele in list:
        l.append(p+ele.get("href"))


fig=[]; #fig储存有所二级页面(JEPG)的URL
def find_fig(path):
    resp = requests.get(path)
    resp.encoding = 'utf-8'
    main_page = BeautifulSoup(resp.text, "html.parser")
    list = main_page.find_all("a", attrs={"class": "swipebox"})  # 直接找图片jpeg
    for p in list:
        fig.append(p.get("href"))

## 构建l和fig
for ele in path_all:  #构建l
    find_path(ele)
print(l)

for ele in l:      #构建fig
    find_fig(ele)
print(len(fig)) #fig储存图片的链接


# 下载图片并保存图片到指定文件夹
for i in range(len(fig)):
    f=open('./'+str(i)+'.jpeg',mode='wb') #在当前文件夹中创建文并保存
    f.write(requests.get('http:'+fig[i]).content)
    print('Successful '+str(i))

3. 爬取结果

共爬取了接近1000张图片

最终共爬取了接近1000张图片

  • 1
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值