selenium headless模式下防止反爬及页面加载问题

1、无头模式下缺少浏览器信息,或默认填充的浏览器信息带有爬虫痕迹,会被识别为机器人而导致爬虫执行失败。

2、页面动态加载时,有时会根据页面size来布局控件,如果size太小会出现控件加载失败情况。

def HeadlessChromeDriver(headless = True,Proxy = None):
    from selenium.webdriver import Chrome
    from selenium.webdriver.chrome.options import Options
    chrome_options = Options()
    if(headless == True):
        chrome_options.add_argument("--headless")
        chrome_options.add_argument('--disable-gpu')        #一些情况下使用headless GPU会有问题(我没遇到)
        chrome_options.add_argument('window-size=1920x1080')#页面部分内容是动态加载得时候,无头模式默认size为0x0,需要设置最大化窗口并设置windowssize,不然会出现显示不全的问题
        chrome_options.add_argument('--start-maximized')    #页面部分内容是动态加载得时候,无头模式默认size为0x0,需要设置最大化窗口并设置windowssize,不然会出现显示不全的问题
    if(Proxy != None):
        chrome_options.add_argument("--proxy-server=" + Proxy)
    chrome_options.add_argument(
        'user-agent=Mozilla/5.0 (Macintosh; Intel Mac OS X 10_15_7) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/86.0.4240.198 Safari/537.36')
    #添加user-agent,避免被当作爬虫脚本
    driver = Chrome(  options=chrome_options)
    with open('stealth.min.js') as f:
        js = f.read()

    driver.execute_cdp_cmd("Page.addScriptToEvaluateOnNewDocument", {
        "source": js
    })#加载stealth.min.js 文件,该文件会修改http协议中得head信息,避免被从其他方面识别为爬虫脚本

    driver.get('https://bot.sannysoft.com/')    #加载机器人检测页面,可以从各项指标判断当前程序是否为机器人
    # 保存源代码为 html 再双击打开,查看机器人检测页面返回的完整结果
    source = driver.page_source
    with open('result.html', 'w') as f:
        f.write(source)

    return driver

  • 6
    点赞
  • 16
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值