python反爬虫策略有哪些_PYTHON3反爬虫(cookie限制)对策问题

■试过的方法

分别用过模拟浏览器webdriver.chrome和request的方法,代码和结果在最下。

■怀疑的反爬虫策略

模拟浏览器法头一次程序进去后能打开网站。但是再进时,被检测到使用ROBOTS程序后重定向至下述网址。之后能用Safari,或正常的chrome打开,没有被禁IP。

结合网址的描述,怀疑该网站是通过cookie限制来反爬虫的。

【webdriver.chrome时候的重定向】

http://www.homes.co.jp/distil...

■代码

【模拟浏览器法】

from selenium import webdriver

options = webdriver.ChromeOptions()

options.add_argument('user-agent=ozilla/5.0 (Macintosh; Intel Mac OS X 10_12_6) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/60.0.3112.113 Safari/537.36')

driver = webdriver.Chrome(chrome_options=options)

driver.implicitly_wait(30)

driver.get('http://www.homes.co.jp/mansion/chuko/list/')

cookies=driver.get_cookies()

print(cookies)

【模拟浏览器法结果】

第一次能进去,之后被重定向。返回的cookie为空。

【request法】

import requests

header={'user-agent':'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_12_6) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/60.0.3112.113 Safari/537.36'}

conn = requests.session()

conn.get('http://www.homes.co.jp/mansion/chuko/list/',headers=header)

resp = conn.get('http://www.homes.co.jp/mansion/chuko/list/',headers=header)

print(resp.text)

【request结果】

(function(window){

try {

if (typeof sessionStorage !== 'undefined'){

sessionStorage.setItem('distil_referrer', document.referrer);

}

} catch (e){}

})(window);

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值