python爬虫学习笔记(三)

在进行爬虫代码的编写前,要对要爬取的页面源代码和要实现的功能进行分析,尽量选择最简捷的方式完成所需的功能。

在源代码中,很多都包含script模块,该模块中可能存放了与该页面有关的同级的页面信息,从而可以避免访问所有页面而获取所有页面中的有效内容。

实战示例

 首先获取所需内容的下载路径

# 该段代码用于实现对多个内容的提取,例如提取组图中的每一张高清大图
import requests
import re

url = "xxxx"  # 某张图片的详情页
resp = requests.get(url)
print(resp.text)  # 检查获取的源代码有没有问题

# 提取
obj = re.compile(r"lllll",re.S)
# 注意源代码中的空格,可能是空格,也可能是制表符,换行符之类的,所以建议直接.*?,但要遵守前端的语法规则,比如var后一定是空格
result = obj.search(resp.text)
objcontext = result.group("groupname")
# .*?提取的内容是字符串,而不是字典,在前端中叫json


import json
# 把提取的字符串转换为字典
dirobj = json.loads(objcontext)
print(dirobj) 

for item in dirobj['list']:
    A = item.get("A")  # 获取list中的对应参数信息
    B = item.get("B")
    print(A,B)
    C = B.replace("xxx", A)  # 将B中对应元素替换为A
    print(C)

下载所需的内容

# 发送网络请求
resp_sub = requests.get(C)
# resp.text获取的是文本
# resp.content获取的是字节
filename = resp_sub.split("/")[-1]  # 获取合适的文件名称
with open("xxx.jpg/Z/i/tiff",mode='wb') as f:
with open(f"filedirpath/{filename}",mode='wb') as f:
    f.write(resp_sub.content)

与笔记(二)中的内容结合就可以完整地获取下载内容啦~

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值