最新python爬虫实战——小红书,快手程序员面试

网上学习资料一大堆,但如果学到的知识不成体系,遇到问题时只是浅尝辄止,不再深入研究,那么很难做到真正的技术提升。

需要这份系统化学习资料的朋友,可以戳这里获取

一个人可以走的很快,但一群人才能走的更远!不论你是正从事IT行业的老鸟或是对IT行业感兴趣的新人,都欢迎加入我们的的圈子(技术交流、学习资源、职场吐槽、大厂内推、面试辅导),让我们一起学习成长!

for child_ul in ul:
    thread = threading.Thread(target=thread_task, args=(child_ul,))
    thread.start()

else:
thread_task(url_list)


若使用多线程,每一个线程处理自己被分配到的作品列表: 



每一个线程遍历自己分配到的作品列表,进行逐项处理

def thread_task(ul):
for item in ul:
href = item[0]
is_pictures = (True if item[1] == 0 else False)
res = work_task(href, is_pictures)
if res == 0: # 被阻止正常访问
break


处理每一项作品: 



处理每一项作品

def work_task(href, is_pictures):
# href 中最后的一个路径参数就是博主的id
work_id = href.split(‘/’)[-1]

# 判断是否已经下载过该作品
has_downloaded = check_download_or_not(work_id, is_pictures)

# 没有下载,则去下载
if not has_downloaded:
    if not is_pictures:
        res = deal_video(work_id)
    else:
        res = deal_pictures(work_id)
    if res == 0:
        return 0            # 无法正常访问
else:
    print('当前作品已被下载')
    return 2
return 1



## 4、处理图文类型作品


        对于图文类型,每一张图片都作为 div 元素的背景图片进行展示,图片对应的 URL 在 div 元素的 style 中。 可以先获取到 style 的内容,然后根据圆括号进行分隔,最后得到图片的地址。


        这里拿到的图片是没有水印的。


![](https://img-blog.csdnimg.cn/direct/df0c544269b5454ba6361d0229539920.png)



处理图片类型作品的一系列操作

def download_pictures_prepare(res_links, path, date):
# 下载作品到目录
index = 0
for src in res_links:
download_resource(src, f’{path}/{date}-{index}.webp’)
index += 1

处理图片类型的作品

def deal_pictures(work_id):
# 直接 requests 请求回来,style 是空的,使用 webdriver 获取当前界面的源代码
temp_driver = webdriver.Chrome()
temp_driver.set_page_load_timeout(5)
temp_driver.get(f’https://www.xiaohongshu.com/explore/{work_id}')
sleep(1)
try:
# 如果页面中有 class=‘feedback-btn’ 这个元素,则表示不能正常访问
temp_driver.find_element(By.CLASS_NAME, ‘feedback-btn’)
except NoSuchElementException: # 没有该元素,则说明能正常访问到作品页面
WebDriverWait(temp_driver, 5).until(EC.presence_of_element_located((By.CLASS_NAME, ‘swiper-wrapper’)))

    # 获取页面的源代码
    source_code = temp_driver.page_source
    temp_driver.quit()

    html = BeautifulSoup(source_code, 'lxml')
    swiper_sliders = html.find_all(class_='swiper-slide')
    # 当前作品的发表日期
    date = html.find(class_='bottom-container').span.string.split(' ')[0].strip()

    # 图片路径
    res_links = []
    for item in swiper_sliders:
        # 在 style 中提取出图片的 url
        url = item['style'].split('url(')[1].split(')')[0].replace('"', '').replace('"', '')
        if url not in res_links:
            res_links.append(url)

    #为图片集创建目录
    path = f'{ABS_BASE_URL}/{work_id}-pictures'
    try:
        os.makedirs(path)
    except FileExistsError:
        # 目录已经存在,则直接下载到该目录下
        download_pictures_prepare(res_links, path, date)
    except Exception as err:
        print(f'deal_pictures 捕获到其他错误:{err}')
    else:
        download_pictures_prepare(res_links, path, date)
    finally:
        return 1
except Exception as err:
    print(f'下载图片类型作品 捕获到错误:{err}')
    return 1
else:
    print(f'访问作品页面被阻断,下次再试')
    return 0



## 5、处理视频类型作品


        获取到的视频有水印。 


![](https://img-blog.csdnimg.cn/direct/ad8695ffc9684291ba3c27c03a14a0d8.png)



处理视频类型的作品

def deal_video(work_id):
temp_driver = webdriver.Chrome()
temp_driver.set_page_load_timeout(5)
temp_driver.get(f’https://www.xiaohongshu.com/explore/{work_id}')
sleep(1)
try:
temp_driver.find_element(By.CLASS_NAME, ‘feedback-btn’)
except NoSuchElementException:
WebDriverWait(temp_driver, 5).until(EC.presence_of_element_located((By.CLASS_NAME, ‘player-container’)))
source_code = temp_driver.page_source
temp_driver.quit()

    html = BeautifulSoup(source_code, 'lxml')
    video_src = html.find(class_='player-el').video['src']
    # 作品发布日期
    date = html.find(class_='bottom-container').span.string.split(' ')[0].strip()

    # 为视频作品创建目录,以 作品的id号 + video 命名目录
    path = f'{ABS_BASE_URL}/{work_id}-video'
    try:
        os.makedirs(path)
    except FileExistsError:
        download_resource(video_src, f'{path}/{date}.mp4')
    except Exception as err:
        print(f'deal_video 捕获到其他错误:{err}')
    else:
        download_resource(video_src, f'{path}/{date}.mp4')
    finally:
        return 1
except Exception as err:
    print(f'下载视频类型作品 捕获到错误:{err}')
    return 1
else:
    print(f'访问视频作品界面被阻断,下次再试')
    return 0



## 6、异常访问而被中断的现象


         频繁的访问和下载资源会被重定向到如下的页面,可以通过获取到该页面的特殊标签来判断是否被重定向连接,如果是,则及时中断访问,稍后再继续。


        使用 webdriver 访问页面,页面打开后,在 try 中查找是否有 class='feedback-btn' 元素(即下方的 我要反馈 的按钮)。如果有该元素,则在 else 中进行提示并返回错误码退出任务。如果找不到元素,则会触发 NoSuchElementException 的错误,在 except 中继续任务即可。


![](https://img-blog.csdnimg.cn/direct/a71a65c170fe44d6af72aa98782cd540.png)



try:
    temp_driver.find_element(By.CLASS_NAME, 'feedback-btn')
except NoSuchElementException:
    # 正常访问到作品页面
    pass
except Exception as err:
    # 其他的异常
    return 1
else:
    # 不能访问到作品页面
    return 0



## 7、完整参考代码



import json
import threading
import requests,os
from selenium.webdriver.common.by import By
from selenium.common.exceptions import NoSuchElementException
from selenium.webdriver.support import expected_conditions as EC
from selenium.webdriver.support.wait import WebDriverWait
from datetime import datetime
from selenium import webdriver
from time import sleep
from bs4 import BeautifulSoup

获取当前时间

def get_current_time():
now = datetime.now()
format_time = now.strftime(“_%Y-%m-%d__%H-%M-%S-%f__”)
return format_time

下载的作品保存的路径,以作者主页的 id 号命名

ABS_BASE_URL = f’G:\639476c10000000026006023’

检查作品是否已经下载过

def check_download_or_not(work_id, is_pictures):
end_str = ‘pictures’ if is_pictures else ‘video’
# work_id 是每一个作品的目录,检查目录是否存在并且是否有内容,则能判断对应的作品是否被下载过
path = f’{ABS_BASE_URL}/{work_id}-{end_str}’
if os.path.exists(path) and os.path.isdir(path):
if os.listdir(path):
return True
return False

下载资源

def download_resource(url, save_path):
response = requests.get(url, stream=True)
if response.status_code == 200:
with open(save_path, ‘wb’) as file:
for chunk in response.iter_content(1024):
file.write(chunk)

处理图片类型作品的一系列操作

def download_pictures_prepare(res_links, path, date):
# 下载作品到目录
index = 0
for src in res_links:
download_resource(src, f’{path}/{date}-{index}.webp’)
index += 1

处理图片类型的作品

def deal_pictures(work_id):
# 直接 requests 请求回来,style 是空的,使用 webdriver 获取当前界面的源代码
temp_driver = webdriver.Chrome()
temp_driver.set_page_load_timeout(5)
temp_driver.get(f’https://www.xiaohongshu.com/explore/{work_id}')
sleep(1)
try:
temp_driver.find_element(By.CLASS_NAME, ‘feedback-btn’)
except NoSuchElementException:
WebDriverWait(temp_driver, 5).until(EC.presence_of_element_located((By.CLASS_NAME, ‘swiper-wrapper’)))
source_code = temp_driver.page_source
temp_driver.quit()

    html = BeautifulSoup(source_code, 'lxml')
    swiper_sliders = html.find_all(class_='swiper-slide')
    # 当前作品的发表日期
    date = html.find(class_='bottom-container').span.string.split(' ')[0].strip()

    # 图片路径
    res_links = []
    for item in swiper_sliders:
        url = item['style'].split('url(')[1].split(')')[0].replace('"', '').replace('"', '')
        if url not in res_links:
            res_links.append(url)

    #为图片集创建目录
    path = f'{ABS_BASE_URL}/{work_id}-pictures'
    try:
        os.makedirs(path)
    except FileExistsError:
        # 目录已经存在,则直接下载到该目录下
        download_pictures_prepare(res_links, path, date)
    except Exception as err:
        print(f'deal_pictures 捕获到其他错误:{err}')
    else:
        download_pictures_prepare(res_links, path, date)
    finally:
        return 1
except Exception as err:
    print(f'下载图片类型作品 捕获到错误:{err}')
    return 1
else:
    print(f'访问作品页面被阻断,下次再试')
    return 0

处理视频类型的作品

def deal_video(work_id):
temp_driver = webdriver.Chrome()
temp_driver.set_page_load_timeout(5)
temp_driver.get(f’https://www.xiaohongshu.com/explore/{work_id}')
sleep(1)
try:
# 访问不到正常内容的标准元素
temp_driver.find_element(By.CLASS_NAME, ‘feedback-btn’)
except NoSuchElementException:
WebDriverWait(temp_driver, 5).until(EC.presence_of_element_located((By.CLASS_NAME, ‘player-container’)))
source_code = temp_driver.page_source
temp_driver.quit()

    html = BeautifulSoup(source_code, 'lxml')
    video_src = html.find(class_='player-el').video['src']
    # 作品发布日期
    date = html.find(class_='bottom-container').span.string.split(' ')[0].strip()

    # 为视频作品创建目录
    path = f'{ABS_BASE_URL}/{work_id}-video'
    try:
        os.makedirs(path)
    except FileExistsError:
        download_resource(video_src, f'{path}/{date}.mp4')
    except Exception as err:
        print(f'deal_video 捕获到其他错误:{err}')
    else:
        download_resource(video_src, f'{path}/{date}.mp4')
    finally:
        return 1
except Exception as err:
    print(f'下载视频类型作品 捕获到错误:{err}')
    return 1
else:
    print(f'访问视频作品界面被阻断,下次再试')
    return 0

做了那么多年开发,自学了很多门编程语言,我很明白学习资源对于学一门新语言的重要性,这些年也收藏了不少的Python干货,对我来说这些东西确实已经用不到了,但对于准备自学Python的人来说,或许它就是一个宝藏,可以给你省去很多的时间和精力。

别在网上瞎学了,我最近也做了一些资源的更新,只要你是我的粉丝,这期福利你都可拿走。

我先来介绍一下这些东西怎么用,文末抱走。


(1)Python所有方向的学习路线(新版)

这是我花了几天的时间去把Python所有方向的技术点做的整理,形成各个领域的知识点汇总,它的用处就在于,你可以按照上面的知识点去找对应的学习资源,保证自己学得较为全面。

最近我才对这些路线做了一下新的更新,知识体系更全面了。

在这里插入图片描述

(2)Python学习视频

包含了Python入门、爬虫、数据分析和web开发的学习视频,总共100多个,虽然没有那么全面,但是对于入门来说是没问题的,学完这些之后,你可以按照我上面的学习路线去网上找其他的知识资源进行进阶。

在这里插入图片描述

(3)100多个练手项目

我们在看视频学习的时候,不能光动眼动脑不动手,比较科学的学习方法是在理解之后运用它们,这时候练手项目就很适合了,只是里面的项目比较多,水平也是参差不齐,大家可以挑自己能做的项目去练练。

在这里插入图片描述

(4)200多本电子书

这些年我也收藏了很多电子书,大概200多本,有时候带实体书不方便的话,我就会去打开电子书看看,书籍可不一定比视频教程差,尤其是权威的技术书籍。

基本上主流的和经典的都有,这里我就不放图了,版权问题,个人看看是没有问题的。

(5)Python知识点汇总

知识点汇总有点像学习路线,但与学习路线不同的点就在于,知识点汇总更为细致,里面包含了对具体知识点的简单说明,而我们的学习路线则更为抽象和简单,只是为了方便大家只是某个领域你应该学习哪些技术栈。

在这里插入图片描述

(6)其他资料

还有其他的一些东西,比如说我自己出的Python入门图文类教程,没有电脑的时候用手机也可以学习知识,学会了理论之后再去敲代码实践验证,还有Python中文版的库资料、MySQL和HTML标签大全等等,这些都是可以送给粉丝们的东西。

在这里插入图片描述

这些都不是什么非常值钱的东西,但对于没有资源或者资源不是很好的学习者来说确实很不错,你要是用得到的话都可以直接抱走,关注过我的人都知道,这些都是可以拿到的。

网上学习资料一大堆,但如果学到的知识不成体系,遇到问题时只是浅尝辄止,不再深入研究,那么很难做到真正的技术提升。

需要这份系统化学习资料的朋友,可以戳这里获取

一个人可以走的很快,但一群人才能走的更远!不论你是正从事IT行业的老鸟或是对IT行业感兴趣的新人,都欢迎加入我们的的圈子(技术交流、学习资源、职场吐槽、大厂内推、面试辅导),让我们一起学习成长!

  • 9
    点赞
  • 19
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值