项目场景:
最近酒店公司需要对接第三方订单数据,但由于没有对应的接口所以只能使用爬虫的方式进行订单数据的爬取,但是部分第三方页面做了反爬虫处理,这里记录下java - chromdriver处理方法
问题描述:
这里使用淘宝演示下,可以看出其实已经无法登录了。
原因分析:
当我们使用selenium
的时候-window.navigator.webdriver
的值为True
。
解决方案:
这里有一个很简单的方法,只需要执行
chorme.executeScript("Object.defineProperty(navigator, 'webdriver', {get: () => undefined})","");
这里就可以正常登录了。