实例学习——爬取Pexels高清图片(学习异步加载)

  近来学习爬取Pexels图片时,发现书上代码会抛出ConnectionError,经查阅资料知,可能是向网页申请过于频繁被禁,可使用time.sleep(),减缓爬取速度,但考虑到爬取数据较多,运行时间过长,所以选择对抛出的异常pass,在此修正。

开发环境:(Windows)eclipse+pydev

爬取网址:https://www.pexels.com/search/book/

1、通过观察网页可一直下滑更新知,该网页使用了异步加载技术(AJAX)

2、观察网页源代码,F12——>NETWORK——>Headers,得请求URL

3、逐步删除URL字符串,把URL缩短,当使用"https://www.pexels.com/search/book/?page=2"时,可返回正常网页内容

代码:

# _*_ coding:utf-8 _*_

import requests
from bs4 import BeautifulSoup

headers ={
    'accept':'text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,*/*;q=0.8',
    'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/76.0.3809.132 Safari/537.36'
    }

urls = ['https://www.pexels.com/search/book/?page={}'.format(str(i)) for i in range(1,20)]

list = []        #初始化列表,存储图片URLS

path = 'D:\Pyproject\pexels\picture'

for url in urls:
    try:
        wb_data = requests.get(url, headers = headers)
        soul = BeautifulSoup(wb_data.text, 'lxml')
        imgs = soul.select('article > a > img')
        for img in imgs:
            photo = img.get('src')
            list.append(photo)
            print('加载成功')
    except ConnectionError:
        print('pass disappoint')
        
        
    
for item in list:
    try:
        data = requests.get(item, headers = headers)
        fp = open(path + item.split('?')[0][-10:], 'wb')
        fp.write(data.content)
        fp.close
        print('下载成功')
    except ConnectionError:
        print('pass') 
        
           
    

  可以加入Time.time()观察程序运行时间

import time

start_time = time.time()
# program code
end_time = time.time()
print(start_time - end_time)

写入图片内容时代码迭代

with open(path + item.split('?')[0][-10:]) as fp:
    fp.write(data.content)

 

  • 0
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
好的,以下是Python爬取豆瓣音乐TOP250数据的代码实例: ```python import requests from bs4 import BeautifulSoup url = 'https://music.douban.com/top250' headers = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.3'} def get_music_info(url): res = requests.get(url, headers=headers) soup = BeautifulSoup(res.text, 'html.parser') music_list = soup.find('div', class_='article').find_all('tr', class_=lambda x:x and x.startswith('item')) for music in music_list: rank = music.find('td', class_='').get_text().strip() music_name = music.find('div', class_='pl2').find('a').get_text().strip() music_info = music.find('div', class_='pl2').find('p').get_text().strip().split('/') music_artist = music_info[0].strip() music_album = music_info[1].strip() music_year = music_info[2].strip() if len(music_info) == 4 else '' music_rating = music.find('span', class_='rating_nums').get_text().strip() music_votes = music.find('span', class_='pl').get_text().strip() print("排名:{}\n歌曲名:{}\n歌手:{}\n专辑名:{}\n发行年份:{}\n评分:{}\n评论数:{}\n".format(rank, music_name, music_artist, music_album, music_year, music_rating, music_votes)) for i in range(0, 250, 25): get_music_info(url + '?start=' + str(i)) ``` 这个程序使用了requests和BeautifulSoup库来爬取豆瓣音乐TOP250的数据。程序首先定义了请求的URL和请求头部,然后使用requests库来获取网页的HTML文本内容,并使用BeautifulSoup库来解析HTML文本内容。 程序中的`get_music_info`函数用来获取每个音乐的详细信息,并将信息打印出来。在主程序中,我们将URL的`start`参数从0循环到225,每次调用`get_music_info`函数来获取一页的数据。 希望这个实例能够帮到你!

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值