selenium获取网络响应的正文

有时我们爬虫时,需要获取到页面的api接口响应正文

 下面我们上具体代码:

from selenium import webdriver 
from selenium.webdriver.common.desired_capabilities import DesiredCapabilities
import time
import json

caps = {
    'browserName': 'chrome',
    'loggingPrefs': {
        'browser': 'ALL',
        'driver': 'ALL',
        'performance': 'ALL',
    },
    'goog:chromeOptions': {
        'perfLoggingPrefs': {
            'enableNetwork': True,
        },
        'w3c': False,
    },
}
driver = webdriver.Chrome(desired_capabilities=caps)

driver.get('http://127.0.0.1:8000/apiGet?id=1&pid=334')
# 必须等待一定的时间,不然会报错提示获取不到日志信息,因为絮叨等所有请求结束才能获取日志信息
time.sleep(3)

request_log = driver.get_log('performance')

到这里,我们成功获取到了网页加载的所有资源,资源都在request_log里面,现在我们就需要筛选出来我们需要的资源requestId

for i in range(len(request_log)):
    message = json.loads(request_log[i]['message'])
    message = message['message']['params']
    # .get() 方式获取是了避免字段不存在时报错
    request = message.get('request')
    if(request is None):
        continue

    url = request.get('url')
    if(url == "http://127.0.0.1:8000/apiGet?id=1&pid=334"):
        # 得到requestId
        print(message['requestId'])
        # 通过requestId获取接口内容
        content = driver.execute_cdp_cmd('Network.getResponseBody', {'requestId': message['requestId']})
        print(content)
        break

 这里最主要是driver里面的 execute_cdp_cmd方法,我们可以根据此方法来获取网页的请求包,具体文档参考此

查看的源码是

def execute_cdp_cmd(self, cmd, cmd_args):
    """
    Execute Chrome Devtools Protocol command and get returned result
    The command and command args should follow chrome devtools protocol domains/commands, refer to link
    https://chromedevtools.github.io/devtools-protocol/

    :Args:
     - cmd: A str, command name
     - cmd_args: A dict, command args. empty dict {} if there is no command args

    :Usage:
        driver.execute_cdp_cmd('Network.getResponseBody', {'requestId': requestId})

    :Returns:
        A dict, empty dict {} if there is no result to return.
        For example to getResponseBody:

        {'base64Encoded': False, 'body': 'response body string'}

    """
    return self.execute("executeCdpCommand", {'cmd': cmd, 'params': cmd_args})['value']

结果就是这样

 

  • 2
    点赞
  • 16
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Selenium 是一种自动化测试工具,主要用于 Web 应用程序的功能测试。它可以帮助用户模拟人工操作浏览器的行为,并自动完成一系列步骤,比如输入表单、点击按钮等。通过 Selenium,开发者可以编写脚本来验证软件是否按预期运行,从而提高测试效率。 在获取数据方面,通常涉及到从网页上提取信息的操作。这在自动化测试或者数据抓取任务中非常常见。Selenium 通过 WebDriver 接口与其他浏览器交互,允许脚本控制浏览器的加载过程。下面是几个关键点: 1. **选择合适的浏览器驱动**:为了操作不同的浏览器(如 Chrome、Firefox 或者 Safari),你需要安装相应的浏览器驱动并设置好环境变量。 2. **定位元素**:在 HTML 页面中,元素的位置通常是基于 CSS 选择器、XPath、链接文本、标签名或者其他属性来确定的。例如,如果需要获取某个新闻标题的数据,你可以找到该标题的 HTML 元素并使用相应的定位策略。 3. **执行操作**:一旦找到了目标元素,就可以执行各种动作,包括但不限于点击、输入内容、滚动页面等。这对于数据抓取来说至关重要,因为需要按照特定顺序执行各种交互。 4. **获取响应内容**:使用 JavaScript API 可以让 Selenium 脚本读取动态生成的内容。如果你的目标数据在页面加载之后由 JavaScript 动态添加或更新,那么使用 JavaScript 执行上下文可以捕获到这些变化。 5. **解析数据**:获取到 HTML 内容后,通常会使用正则表达式、DOM 操作或者第三方库(如 BeautifulSoup 或 lxml 对于 Python 用户)来解析并提取实际的数据。 6. **处理并发与错误**:自动化脚本可能会遇到网络不稳定、服务器错误或其他异常情况,因此应该包含适当的错误处理机制,同时考虑如何有效地并行执行多个任务。 7. **安全与合规性**:在处理敏感数据时,务必遵守相关的法律与隐私政策,尊重网站的robots.txt 文件指示,并避免过度请求导致对目标网站造成压力。 使用 Selenium 进行数据获取时,需要注意性能优化和稳定性。合理设计脚本结构,分阶段执行复杂操作,利用循环和条件语句来适应各种场景。此外,定期检查和维护驱动以及相关依赖,确保工具能够应对不断变化的技术环境和网站架构。 --- 相关问题: 1. 如何在Python中使用Selenium获取数据? 2. 在进行数据获取时如何处理JavaScript渲染的内容? 3. 使用Selenium进行大规模数据抓取时应考虑哪些因素以防止IP受限?
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值