js逆向——origin/refer请求头反爬

今日受害网站:

https://www.regulations.gov/docket/FDA-2016-D-1399/document

最终目标:爬取该网站中的新闻摘要

首先打开网页,刷新一下,观察都返回了哪些数据

然后我们ctrl+f进行关键字搜索

 

进一步,只过滤含有document接口的请求

 

选择有数据的那个包(4.3KB)

 

右键》 copy as cURL cmd

我们使用python爬虫工具将cURL转为requests

爬虫工具库网址:https://spidertools.cn

 

然后复制生成的测试代码尝试在pycharm当中运行 

结果报错400,请求参数错误

这是因为网页转换的过程中,参数字符串出现了乱码

我们对照网页重新构造params即可

 

或者可以直接在url当中携带参数,这样就不用单独构造字典了(适用于参数固定的情况) 

我们去除一部分不必要的参数

保留有用的参数(当然都保留也行,我们主要是想看一下哪些参数会对爬虫进行检查)

 

新的参数:

headers = {
    "authority": "api.regulations.gov",
    "accept": "application/vnd.api+json",
    "user-agent": "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/94.0.4606.71 Safari/537.36 Core/1.94.253.400 QQBrowser/12.6.5678.400",
    "x-api-key": "5F20SbTVakeYfU9i5gX1dxx96sw4KELUQxAHhcHa",
    "origin": "https://www.regulations.gov",
    "referer": "https://www.regulations.gov/",
    "accept-language": "zh-CN,zh;q=0.9"
}

我们注释掉x-api-key返回了403,这个参数是必不可少的,而且有可能是动态生成用于检测爬虫的

 

我们接连注释了好几个参数发现都不影响其实

 

但是如果将origin和refer同时注释就会报错403,说明这里是一个检测点,服务端需要判断客户端是不是点击链接进来的,如果直接请求会失败

 

下面就是最后一个参数x-api-key的分析了

我们直接搜索x-api-key的值看看它是静态/动态参数

结果发现是静态参数,那么我们就需要定位它在文件当中的位置

排除掉在请求头当中的目标之后,我们顺利找到静态参数在文件当中的位置

 

 

所以我们应当首先请求网页接口获取参数x-api-key

先爬取下来返回的document,也就是html文档

 

然后搜索关键字5f205b...观察其在响应文本当中位置的特征 

 

使用正则表达式提取出来静态参数x-api-key的值,为二次请求真正的摘要做准备

第一次请求的代码:

import re
import requests

headers = {
    "authority": "api.regulations.gov",
    "accept": "application/vnd.api+json",
    "user-agent": "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/94.0.4606.71 Safari/537.36 Core/1.94.253.400 QQBrowser/12.6.5678.400",
    "x-api-key": "5F20SbTVakeYfU9i5gX1dxx96sw4KELUQxAHhcHa",
    "origin": "https://www.regulations.gov",
    "referer": "https://www.regulations.gov/",
    "accept-language": "zh-CN,zh;q=0.9"
}

# 第一次请求获取静态参数:x-api-key
doc_url = 'https://www.regulations.gov/docket/FDA-2016-D-1399/document'

response = requests.get(doc_url, headers=headers, timeout=10)
print("第一次请求状态码:", response)
print(response.text)
api_key = re.search(r"apiKey%22%3A%22(.*?)%22%2C%22", response.text).group(1)
doc_id = re.search(r"/(FDA.*?)/document", doc_url).group(1)
headers.update({"x-api-key": api_key})

第二次真正请求文档发现返回的是一个json串

 

我们解析相应的json串,拿到最终的摘要内容:

第二次请求代码如下:

# 第二次请求获取真正的文档内容
url = "https://api.regulations.gov/v4/documents"
params = {
    'filter[docketId]': doc_id,
    'page[number]': 1,
    'sort': '-commentEndDate'
}
response_doc = requests.get(url, headers=headers, params=params)
print("第二次请求状态码:", response_doc)
print(response_doc.text)
print('爬取到的摘要内容:')
for item in response_doc.json()['data']:
    abstract = item['attributes']['title']
    print(abstract)

最后附上本文所使用的完整代码:

import re
import requests

headers = {
    "authority": "api.regulations.gov",
    "accept": "application/vnd.api+json",
    "user-agent": "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/94.0.4606.71 Safari/537.36 Core/1.94.253.400 QQBrowser/12.6.5678.400",
    "x-api-key": "5F20SbTVakeYfU9i5gX1dxx96sw4KELUQxAHhcHa",
    "origin": "https://www.regulations.gov",
    "referer": "https://www.regulations.gov/",
    "accept-language": "zh-CN,zh;q=0.9"
}

# 第一次请求获取静态参数:x-api-key
doc_url = 'https://www.regulations.gov/docket/FDA-2016-D-1399/document'

response = requests.get(doc_url, headers=headers, timeout=10)
print("第一次请求状态码:", response)
# print(response.text)
api_key = re.search(r"apiKey%22%3A%22(.*?)%22%2C%22", response.text).group(1)
doc_id = re.search(r"/(FDA.*?)/document", doc_url).group(1)
headers.update({"x-api-key": api_key})

# 第二次请求获取真正的文档内容
url = "https://api.regulations.gov/v4/documents"
params = {
    'filter[docketId]': doc_id,
    'page[number]': 1,
    'sort': '-commentEndDate'
}
response_doc = requests.get(url, headers=headers, params=params)
print("第二次请求状态码:", response_doc)
print(response_doc.text)
print('爬取到的摘要内容:')
for item in response_doc.json()['data']:
    abstract = item['attributes']['title']
    print(abstract)

以上就是本次js逆向的全部内容了,喜欢的朋友欢迎一键三连支持一下哦~🥰🥰 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值