【python】【爬虫】伪装浏览器,解决错误码403

存在问题

有些网站服务器会屏蔽爬虫(如csdn),使用爬虫会返回错误码403

解决方案

添加报文头的User-Agent信息,把爬虫伪装成浏览器。

怎么做

在需要爬取的网页中F12打开控制台,在network页中打开任一项资源,在Header栏中的Request Headers中找到User-Agent。

urlopen()方法无法实现添加报头的动作,需要建立自定义opener对象进行访问。

opener对象使用addheaders方法,向opener对象设置报头。然后利用open()方法向指定的URL地址发送请求,返回一个类文件对象。

可以把装配好的opener对象,使用install_opener(opener)方法安装至全局,则后面调用urlopen()时都会使用该全局opener。【不再用open()方法发送请求,而是用回urlopen()】

import urllib.request

url="https://blog.csdn.net/BananaChoas?spm=1011.2124.3001.5343&type=blog"

headers=(&#
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值