常见的反爬手段

本文详细介绍了常见的反爬手段,包括通过headers、cookie、js、验证码、ip地址以及自定义字体和css来反爬。核心思路是尽可能模拟浏览器行为,如使用User-Agent池、处理referer字段、管理cookie、分析js、识别验证码以及处理隐藏信息。
摘要由CSDN通过智能技术生成

目标

  • 了解常用的反爬手段和解决思路

1.明确反反爬的主要思路

反反爬的主要思路就是:尽可能地去模拟浏览器,浏览器咋如何操作,代码中就如何去实现。浏览器先请求了地址url1,保留了cookie在本地,之后请求url2带上了之前的cookie,代码中也可以这样去实现。
很多时候,爬虫中携带 headers 字段, cookie字段, url参数,post的参数很多,不清楚那些有用那些没用的情况下,只能够去尝试,因为每个网站都是不同的。下面有一些思路。

2.通过headers字段来反爬

2.1 通过headers中的User-Agent字段来反爬

只需要在请求的headers中添加User-Agent即可,更好的方式是使用User-Agent池来解决,我们可以考虑随机生成User-Agent
在这里插入图片描述

2.2 通过referer字段或者其他字段来反爬

例如在豆瓣电影中,需要通过referer字段来反爬,添加上就行了

2.3 通过cookie来反爬
  • 如果目标网站不需要登陆 每次请求带上前一次返回的cookie,比如requests模块的session
  • 如果目标网站需要登陆 准备多个账号,
  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值