爬虫实战学习----基础

今天在学习爬虫入门的过程中,遇到了百度的反爬(发送请求无法得到内容,出现“网络不给力,稍后重试”或者“百度安全验证”)。写一下当时的解决方案.

最基础的导入,发送请求和打印数据如下。

#导入模块
import requests

# 发送get请求
response = requests.get('https://www.baidu.com')
#从响应中获得数据
print(response.text)

一开始的时候headers 里面只写了User-Agent,但可能这样太容易被识别出来,后面又添加了Accept,Accept-Language,以及Cookie 后,就可以得可以得到内容了。 同时要注意不要请求太快。

headers = {
    'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/93.0.4577.63 Safari/537.36',
    'Accept':'相应页面的Accept'
    'Accept-Language':'相应的Accept-Language',
    
    'Cookie': '相应的Cookie'
    
}
# url
url = 'http://www.baidu.com/s'

  • 0
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值