cookies反爬虫

'''
cookie反爬
'''
from common.tools import Tool
import requests
from scrapy.selector import Selector
from urllib import parse
class User_Agent:
    def __init__(self):
        self.tool = Tool.get_tool()
    def run(self):
        url = 'http://www.porters.vip/verify/cookie/index.html'
        headers = {}
        headers = self.tool.get_user_agent(headers)
        r = requests.get(url=url,headers=headers)
        if r.status_code == 200:
            cookies = r.headers.get('Set-Cookie')
            # cookies = self.tool.get_cookie(cookies)
            a = Selector(r).xpath("//a[@class='btn btn-warning']/@href").extract_first()
            a = parse.urljoin(r.url,a)
            headers['Cookie'] = cookies
            response = requests.get(url=a,headers=headers,allow_redirects=False)
            print(response.status_code)
            print(response.text)

if __name__ == '__main__':
    User_Agent().run()

----参考python3反爬虫原理与绕过实战

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
`get_html`通常是一个用于抓取网页HTML内容的函数或方法,在Python的爬虫库如BeautifulSoup、requests等中常见。然而,针对爬虫策略,`get_html`可能会遇到以下挑战: 1. **频率限制(Rate Limiting)**:网站可能会设置IP限制,频繁请求会被封禁。使用代理IP池或者延时请求(sleep)来模拟人类行为是常见的应对方式。 2. **用户代理伪装(User-Agent spoofing)**:设置合理的User-Agent头,模拟浏览器或者爬虫客户端,避免被识别为机器人。 3. **验证码(CAPTCHA)**:复杂的验证码需要OCR技术或者人工解决,有的库提供了自动识别或规避验证码的方法。 4. **爬虫机制(Robots.txt)**:遵守网站的robots.txt规则,尊重网站的爬取政策。 5. **动态加载内容(Ajax, JavaScript)**:如果内容是通过JavaScript动态生成的,可能需要使用Selenium等工具进行实时渲染并获取。 6. **登录和权限管理**:某些页面需要认证才能访问,爬虫需要模拟登录过程。 7. **IP和Cookie跟踪**:网站可能会通过IP地址或Cookies来追踪爬虫,需要处理这些信息的清除和更换。 8. **隐藏元素或防爬策略**:有些网站会使用CSS或JavaScript隐藏关键信息,这时需要解析CSS选择器或使用专门的库(如Pyppeteer)来抓取。 为了在实际操作中处理这些爬措施,编写一个强大的`get_html`函数通常会结合使用到上述技术,并且需要不断更新以适应网站的变化。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值