五、爬虫实战
5.1 导入模块
import requests # 爬虫必备
import time # 限制爬虫速度
import os # 新建指定存储文件夹
5.2 分析网页
我们右击网页点击插件,可以在network中找到图片链接存储的接口:
接下来只需要去构造参数获取接口中的数据,发送请求即可:
5.3 获取图片链接
这里我们创建一个get_img_url(keyword)
函数传入关键词,通过添加请求头和params表单构造接口参数,发送请求获取图片链接:
def get\_img\_url(keyword):
"""发送请求,获取接口中的数据"""
# 接口链接
url = 'https://image.baidu.com/search/acjson?'
# 请求头模拟浏览器
headers = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/95.0.4638.69 Safari/537.36'}
# 构造网页的params表单
params = {
'tn': 'resultjson\_com',
'logid': '6918515619491695441',
'ipn': 'rj',
'ct': '201326592',
'is': '',
'fp': 'result',
'queryWord': f'{keyword}',
'word': f'{keyword}',
'cl': '2',
'lm': '-1',
'ie': 'utf-8',
'oe': 'utf-8',
'adpicid': '',
'st': '-1',
'z': '',
'ic': '',
'hd': '',
'latest': '',
'copyright': '',
's': '',
'se': '',
'tab': '',
'width': '',
'height': '',
'face': '0',
'istype': '2',
'qc': '',
'nc': '1',
'fr': '',
'expermode': '',
'force': '',
'cg': 'girl',
'pn': 1,
'rn': '30',
'gsm': '1e',
}
# 携带请求头和params表达发送请求
response = requests.get(url=url, headers=headers, params=params)
# 设置编码格式
response.encoding = 'utf-8'
# 转换为json
json_dict = response.json()
# 定位到30个图片上一层
data_list = json_dict['data']
# 删除列表中最后一个空值
del data_list[-1]
# 用于存储图片链接的列表
img_url_list = []
for i in data_list:
img_url = i['thumbURL']
# 打印一下图片链接
print(img_url)
img_url_list.append(img_url)
# 返回图片列表
return img_url_list
运行结果,控制台打印获取的图片链接:
我们点开一个图片链接查看,的确没问题:
5.4 获取代理
获取到图片链接后我们需要再次发送请求去下载图片,由于请求量一般会很大所以需要用到代理IP。上面我们已经手动获取到了代理IP,下面来看Python如何挂上代理IP发送请求:
1、通过爬虫去获取API接口的里面的代理IP(注意:下面代理URL,看4.2教程换成自己的API链接):
import requests
import time
import random
def get\_ip():
url = "这里放你自己的API链接"
while 1:
try:
r = requests.get(url, timeout=10)
except:
continue
ip = r.text.strip()
if '请求过于频繁' in ip:
print('IP请求频繁')
time.sleep(1)
continue
break
proxies = {
'https': '%s' % ip
}
return proxies
if __name__ == '\_\_main\_\_':
proxies = get_ip()
print(proxies)
运行结果,可以看到返回了接口中的代理IP:
2、接下来我们写爬虫代理的时候就可以挂上代理IP去发送请求了,只需要将proxies
当成参数传给requests.get
函数去请求其他网址:
requests.get(url, headers=headers, proxies=proxies)
5.5 下载图片
图片链接有了,代理IP也有了,下面我们就可以下载图片。定义一个get_down_img(img_url_list)
函数,传入图片链接列表,然后遍历列表,每下载一个图片切换一次代理,将所有图片下载到指定文件夹:
def get\_down\_img(img_url_list):
# 在当前路径下生成存储图片的文件夹
os.mkdir("小姐姐")
# 定义图片编号
n = 0
for img_url in img_url_list:
headers = {
'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/95.0.4638.69 Safari/537.36'}
# 调用get\_ip函数,获取代理IP
proxies = get_ip()
# 每次发送请求换代理IP,获取图片,防止被封
img_data = requests.get(url=img_url, headers=headers, proxies=proxies).content
# 拼接图片存放地址和名字
img_path = './小姐姐/' + str(n) + '.jpg'
# 将图片写入指定位置
with open(img_path, 'wb') as f:
f.write(img_data)
# 图片编号递增
n = n + 1
5.6 调用主函数
主要步骤为明确我们需要获取的关键名,获取指定关键词的图片链接,下载图片到指定位置
if __name__ == '\_\_main\_\_':
# 1. 修改关键词
keyword = '小姐姐'
# 2. 获取指定关键词的图片链接
img_url_list = get_img_url(keyword)
# 3. 下载图片到指定位置
get_down_img(img_url_list)
5.7 完整代码
下面完整代码只需要修改关键词和get_ip()
函数中的代理IP接口链接(注意:看4.2教程换成自己的API链接)
import requests # 爬虫必备
import time # 限制爬虫速度
import os # 新建指定存储文件夹
def get\_ip():
"""获取代理IP"""
# (注意:下面代理URL,看4.2教程换成自己的API链接):
url = "这里放你自己代理IP的API链接"
while 1:
try:
r = requests.get(url, timeout=10)
except:
continue
ip = r.text.strip()
if '请求过于频繁' in ip:
print('IP请求频繁')
time.sleep(1)
continue
break
proxies = {
'https': '%s' % ip
}
return proxies
def get\_img\_url(keyword):
"""发送请求,获取接口中的数据"""
# 接口链接
url = 'https://image.baidu.com/search/acjson?'
# 请求头模拟浏览器
headers = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/95.0.4638.69 Safari/537.36'}
# 构造网页的params表单
params = {
'tn': 'resultjson\_com',
'logid': '6918515619491695441',
'ipn': 'rj',
'ct': '201326592',
'is': '',
'fp': 'result',
'queryWord': f'{keyword}',
'word': f'{keyword}',
'cl': '2',
'lm': '-1',
'ie': 'utf-8',
'oe': 'utf-8',
'adpicid': '',
'st': '-1',
'z': '',
'ic': '',
'hd': '',
'latest': '',
'copyright': '',
's': '',
'se': '',
'tab': '',
'width': '',
'height': '',
'face': '0',
'istype': '2',
'qc': '',
'nc': '1',
'fr': '',
'expermode': '',
'force': '',
'cg': 'girl',
'pn': 1,
'rn': '30',
'gsm': '1e',
}
# 携带请求头和params表达发送请求
response = requests.get(url=url, headers=headers, params=params)
# 设置编码格式
response.encoding = 'utf-8'
# 转换为json
json_dict = response.json()
# 定位到30个图片上一层
data_list = json_dict['data']
# 删除列表中最后一个空值
del data_list[-1]
# 用于存储图片链接的列表
img_url_list = []
for i in data_list:
img_url = i['thumbURL']
# 打印一下图片链接
print(img_url)
img_url_list.append(img_url)
# 返回图片列表
return img_url_list
def get\_down\_img(img_url_list):
# 在当前路径下生成存储图片的文件夹
os.mkdir("小姐姐")
# 定义图片编号
n = 0
for img_url in img_url_list:
headers = {
'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/95.0.4638.69 Safari/537.36'}
# 调用get\_ip函数,获取代理IP
proxies = get_ip()
# 每次发送请求换代理IP,获取图片,防止被封
img_data = requests.get(url=img_url, headers=headers, proxies=proxies).content
# 拼接图片存放地址和名字
img_path = './小姐姐/' + str(n) + '.jpg'
# 将图片写入指定位置
with open(img_path, 'wb') as f:
f.write(img_data)
# 图片编号递增
**自我介绍一下,小编13年上海交大毕业,曾经在小公司待过,也去过华为、OPPO等大厂,18年进入阿里一直到现在。**
**深知大多数Python工程师,想要提升技能,往往是自己摸索成长或者是报班学习,但对于培训机构动则几千的学费,着实压力不小。自己不成体系的自学效果低效又漫长,而且极易碰到天花板技术停滞不前!**
**因此收集整理了一份《2024年Python开发全套学习资料》,初衷也很简单,就是希望能够帮助到想自学提升又不知道该从何学起的朋友,同时减轻大家的负担。**
![img](https://img-blog.csdnimg.cn/img_convert/e18bb7f1335d4d25ff9a5f5fe2038e08.png)
![img](https://img-blog.csdnimg.cn/img_convert/c48695004a4fefb44969c0eb10d7513a.png)
![img](https://img-blog.csdnimg.cn/img_convert/46506ae54be168b93cf63939786134ca.png)
![img](https://img-blog.csdnimg.cn/img_convert/252731a671c1fb70aad5355a2c5eeff0.png)
![img](https://img-blog.csdnimg.cn/img_convert/6c361282296f86381401c05e862fe4e9.png)
![img](https://img-blog.csdnimg.cn/img_convert/9f49b566129f47b8a67243c1008edf79.png)
**既有适合小白学习的零基础资料,也有适合3年以上经验的小伙伴深入学习提升的进阶课程,基本涵盖了95%以上前端开发知识点,真正体系化!**
**由于文件比较大,这里只是将部分目录大纲截图出来,每个节点里面都包含大厂面经、学习笔记、源码讲义、实战项目、讲解视频,并且后续会持续更新**
**如果你觉得这些内容对你有帮助,可以扫码获取!!!(备注Python)**
![img](https://img-blog.csdnimg.cn/img_convert/6c361282296f86381401c05e862fe4e9.png)
![img](https://img-blog.csdnimg.cn/img_convert/9f49b566129f47b8a67243c1008edf79.png)
**既有适合小白学习的零基础资料,也有适合3年以上经验的小伙伴深入学习提升的进阶课程,基本涵盖了95%以上前端开发知识点,真正体系化!**
**由于文件比较大,这里只是将部分目录大纲截图出来,每个节点里面都包含大厂面经、学习笔记、源码讲义、实战项目、讲解视频,并且后续会持续更新**
**如果你觉得这些内容对你有帮助,可以扫码获取!!!(备注Python)**
<img src="https://img-community.csdnimg.cn/images/fd6ebf0d450a4dbea7428752dc7ffd34.jpg" alt="img" style="zoom:50%;" />