目录
一、什么是动态渲染信息?
学过网页开发相关的都知道很多网页数据并不是一次就返回全部,需要向服务器发送异步请求获取数据。在爬取此类信息的时候可以在浏览器中分析Ajax和JS请求的数据。本文我将和大家一起学习如何使用Ajax、Selenium和Splash技术获取动态数据。
二、Ajax数据爬取
Ajax是一种新的网页数据交互技术,它可以在页面不刷新、不更改页面链接的情况下与服务器交换数据并更新网页部分内容。
下面我们以原神官网的角色加载为例介绍。
1.分析网页请求
2.查看请求数据
这类数据一般会以json格式返回,为了方便查好数据,给大家推荐一个JSON数据在线格式化的网站。JSON在线格式化
3.请求数据
分析完请求以及返回的数据之后就可以开始怕取数据了,请求代码展示如下,返回数据正常。
# -*- coding: utf-8 -*-
# @Time : 2021/9/18 16:03
# @Author : KK
# @File : 40_原神官网.py
# @Software: PyCharm
import requests
headers = {
'user-agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/92.0.4515.159 Safari/537.36'}
def get_data(url):
try:
response = requests.get(url=url, headers=headers)
print(response.json())
except:
pass
if __name__ == '__main__':
url = 'https://ys.mihoyo.com/content/ysCn/getContentList?pageSize=20&pageNum=1&order=asc&channelId=150'
get_data(url)
4.清洗数据
对于返回的JSON格式的数据我们不需要任何选择器就可以直接获取,注意看清数据的层次结构,这样我们就可以一层层获取我们需要的数据了,获取的时候参照格式化后的代码即可。
格式化后的数据如下,显然我们需要的数据在list这个列表里面,所以我们先拿到这个list,然后去遍历list进一步取出里面的数据。
def get_data(url):
try:
yinpin = []
tu_url = None
jianjie = None
response = requests.get(url=url, headers=headers)
# print(response.json())
res = response.json()
data_list = res['data']['list'] # 获取到list数据
# print(data_list)
i = 1
for each in data_list:
print('正在爬取第{}个角色..'.format(i))
i = i + 1
id = each['id'] # 角色id
title = each['title'] # 角色名字
start_time = each['start_time'] # 角色上线时间
ext_list = each['ext']
for item in ext_list:
if item['arrtName'] == '角色-PC端主图': # 角色主图
tu_url = item['value'][0]['url']
elif item['arrtName'] == '角色-简介': # 角色简介
jianjie = processing(item['value'])
elif item['arrtName'] == '角色-音频1-2': # 可以使用正则匹配所有的
yinpin = item['value'][0]['name'] + '||' + item['value'][0]['url'] # 一条配音链接
data = {
"角色ID": id,
"角色名称": title,
"上线时间": start_time,
"高清图片": tu_url,
"角色简介": jianjie,
"角色配音": yinpin,
}
# print(data)
dict_infor.append(data)
# print(dict_infor)
except ZeroDivisionError as e:
print("except:", e)
finally:
pass
5.完整代码以及效果截图
# -*- coding: utf-8 -*-
# @Time : 2021/9/18 16:03
# @Author : KK
# @File : 40_原神官网.py
# @Software: PyCharm
import requests
import re
import csv
import time
headers = {
'user-agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/92.0.4515.159 Safari/537.36'}
dict_infor = []
# 处理字符串中的空白符,并拼接字符串
def processing(strs):
n = strs.replace('<p>', '').replace('<br />\n', '').replace('</p>\n', '').replace('\n', '') # 去除空字符
return n # 返回拼接后的字符串
def get_data(url):
try:
yinpin = []
tu_url = None
jianjie = None
response = requests.get(url=url, headers=headers)
# print(response.json())
res = response.json()
data_list = res['data']['list'] # 获取到list数据
# print(data_list)
i = 1
for each in data_list:
print('正在爬取第{}个角色..'.format(i))
i = i + 1
id = each['id'] # 角色id
title = each['title'] # 角色名字
start_time = each['start_time'] # 角色上线时间
ext_list = each['ext']
for item in ext_list:
if item['arrtName'] == '角色-PC端主图': # 角色主图
tu_url = item['value'][0]['url']
elif item['arrtName'] == '角色-简介': # 角色简介
jianjie = processing(item['value'])
elif item['arrtName'] == '角色-音频1-2': # 可以使用正则匹配所有的
yinpin = item['value'][0]['name'] + '||' + item['value'][0]['url'] # 一条配音链接
data = {
"角色ID": id,
"角色名称": title,
"上线时间": start_time,
"高清图片": tu_url,
"角色简介": jianjie,
"角色配音": yinpin,
}
# print(data)
dict_infor.append(data)
# print(dict_infor)
except ZeroDivisionError as e:
print("except:", e)
finally:
pass
def get_url():
page_list = [150, 151, 324]
for i in page_list:
url = 'https://ys.mihoyo.com/content/ysCn/getContentList?pageSize=20&pageNum=1&order=asc&channelId={}'.format(i)
get_data(url)
if __name__ == '__main__':
get_url()
# 保存到csv
with open(r'E:\python\pythonProject3\venv\Include\原神.csv', 'a', encoding='utf-8', newline='') as cf:
writer = csv.DictWriter(cf, fieldnames=['角色ID', '角色名称', '上线时间', '高清图片', '角色简介', '角色配音'])
writer.writeheader()
writer.writerows(dict_infor)
time.sleep(1)
print('爬取并保存完毕')
6.分析总结
通过上面的代码可以发现,对于这类数据的爬取其实和requests请求方式差不多,主要区别在于我们获取到的数据不同,对于JSON数据我们同样进行适当的处理,获取我们想要的数据。
三、Selenium爬取动态数据
Selenium是浏览器自动化测试框架,是一个用于web测试的工具,可以直接在浏览器中运行,并可驱动浏览器执行一定的操作,例如点击、下拉等,还可以获取浏览器当前页面的源代码。
1.安装Selenium以及浏览器驱动
在pycharm搜索安装selenium模块或者直接控制台pip install selenium命令行安装。
由于该框架需要浏览器驱动,我们根据自己所使用的浏览器下载对应版本即可。
chrome浏览器驱动
Firefox浏览器驱动
IE浏览器驱动
2.Selenium使用准备
下载完成后将名称chromedriver.exe的文件提取出来放在与自己的python.exe文件同级的路径中。
3.Selenium模块常用方法
a.定位元素
模块名称 | 使用 |
---|---|
find_element_by_id() | |
find_element_by_name() | |
find_element_by_xpath() | |
find_element_by_link_text() | |
find_element_by_partial_link_text() | 查询返回单个元素 |
find_element_by_tag_name | |
find_element_by_class_name | |
find_element_by_css_selector |
模块名称 | 使用 |
---|---|
find_elements_by_name() | |
find_elements_by_xpath() | |
find_elements_by_link_text() | |
find_elements_by_partial_link_text() | 查询返回多个元素 |
find_elements_by_tag_name | |
find_elements_by_class_name | |
find_elements_by_css_selector |
b.鼠标操作
模块问题 | |
---|---|
click() | 点击元素 |
context_click(elem) | 右击鼠标、点击元素、另存为 |
double_click(elem) | 双击鼠标 |
move_to_hold(elem) | 鼠标光标移动到一个元素上 |
click_and_hold(elem) | 在一个元素上按下鼠标左键 |
c.键盘操作
4.Selenium使用
上面我们看了这个模块的一些常用参数,接下来我们以某东购物网站为例讲解如何使用。大致思路是先生成一个浏览器对象,然后使用常用方法模拟输入搜索关键字并搜索,然后获取搜索的页面数据并解析。
# -*- coding: utf-8 -*-
# @Time : 2021/9/19 0:11
# @Author : KK
# @File : 41_selenium.py
# @Software: PyCharm
from selenium import webdriver
import time
import csv
import re
def change_str(strs):
strs = strs.replace("京东超市", "").replace("\n", "")
return strs
# 获取商品
def get_product(key_word):
# 定位输入框
browser.find_element_by_id("key").send_keys(key_word)
# 定义点击按钮,并点击
browser.find_element_by_class_name('button').click()
browser.maximize_window()
# 等待20秒,方便手动登录
# time.sleep(20)
# 定位这个“页码”,获取“共100页这个文本”
page = browser.find_element_by_xpath('//*[@id="J_bottomPage"]/span[2]/em[1]/b').text
print(page)
return page
# 获取数据
def get_data():
# 所有的信息都在items节点下
items = browser.find_elements_by_xpath('//*[@id="J_goodsList"]/ul/li')
# print(type(items))
for item in items:
# 名称
pro_descs = item.find_element_by_xpath('.//div[@class="p-name p-name-type-2"]/a').text
pro_desc = change_str(pro_descs)
# 价格
pro_price = item.find_element_by_xpath('.//div[@class="p-price"]/strong/i').text
# # 付款人数
buy_num = item.find_element_by_xpath('.//div[@class="p-commit"]/strong/a').text
# # 店铺
shop = item.find_element_by_xpath('.//div[@class="p-shop"]/span[@class="J_im_icon"]/a').text
with open(r'E:\python\pythonProject3\venv\Include\京东月饼.csv', mode='a', newline='', encoding='utf-8-sig') as f:
csv_writer = csv.writer(f, delimiter=',')
csv_writer.writerow([pro_desc, pro_price, buy_num, shop])
if __name__ == '__main__':
# key_word = input("请输入您要搜索的商品:")
key_word = "月饼"
browser = webdriver.Chrome()
browser.execute_cdp_cmd('Page.addScriptToEvaluateOnNewDocument', {
'source': 'Object.defineProperty(navigator, "webdriver", {get: () => undefined})'
})
browser.get('https://www.jd.com/?cu=true&utm_source=baidu-pinzhuan&utm_medium=cpc&utm_campaign=t_288551095_baidupinzhuan&utm_term=0f3d30c8dba7459bb52f2eb5eba8ac7d_0_322db0e3896548d38f025a79a5462747')
page = get_product(key_word)
# print(page)
get_data()
page_i = 1
while int(page) != page_i:
print("正在爬取第{}页".format(page_i + 1))
print("---------- 分割线 ----------")
browser.get('https://search.jd.com/Search?keyword={}&page={}'.format(key_word, (page_i * 2) - 1))
browser.implicitly_wait(15)
get_data()
page_i += 1
print("爬取结束!")
5.分析总结
通过上面的讲解以及实例可以发现,selenium主要用于爬取动态数据,类似于购物网站等,其优点在于模拟人访问网站的方式获取数据,高效便捷。
四、总结
这篇文章有别于前面的爬虫,主要是爬取非常规网站数据,这类网站大多使用js或其他途径加载数据,普通爬虫不能获取有效信息。
下期我们将会学习如何爬取手机app的数据。
author: KK
time :2021年9月22日19:33:14
flag:6/30