爬虫在遇到post请求时的一种解决{“code“:40005,“msg“:“req json error“}问题的思路

我的情况

我在爬取某网站的时候发现网站做了防爬措施,在请求api的时候返回{"code":40005,"msg":"req json error"}遇到这种问题就要多分析你所爬取的网站是如何请求数据的,然后相应的修改你的请求头信息。

附上我的问题解决

在这里插入图片描述
然后发现在payload(负载)里面
在这里插入图片描述
这些请求负载也要转为json格式封装到请求头里面就可顺利请求api数据了。

总结

遇到请求数据返回失败的情况要多分析网站是如何请求的。查看自己是否请求头里面缺少必要的数据。

  • 2
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 1
    评论
当你使用 urllib 库进行网络请求,出现 HTTP Error 403: Forbidden 错误,这意味着服务器拒绝了你的请求。这通常是因为你的请求被防火墙或网站服务器拦截。 有一些方法可以解决这个问题: 1. 修改 User-Agent 有些网站会根据 User-Agent 来判断请求的来源,如果 User-Agent 不合法,就会拒绝请求。因此,你可以通过修改 User-Agent 来模拟浏览器请求。例如: ```python import urllib.request url = 'http://www.example.com/' headers = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.36'} req = urllib.request.Request(url, headers=headers) response = urllib.request.urlopen(req) html = response.read() ``` 2. 使用代理IP 如果你的 IP 被网站服务器封禁,可以使用代理 IP 来绕过限制。例如: ```python import urllib.request url = 'http://www.example.com/' proxy = urllib.request.ProxyHandler({'http': 'http://127.0.0.1:8888'}) opener = urllib.request.build_opener(proxy) urllib.request.install_opener(opener) response = urllib.request.urlopen(url) html = response.read() ``` 其中,`http://127.0.0.1:8888` 是代理服务器的地址。你可以在网上找到一些免费的代理服务器,在代码中修改为对应的地址即可。 3. 等待一段间再请求 有些网站会对频繁请求进行限制,你可以等待一段间再进行请求,或者减少请求频率。如果你是在爬取大量数据,建议使用异步爬虫库,如 asyncio、aiohttp 等,可以提高效率,并减少请求频率。 以上是一些常见的方法,但不保证一定可以解决问题。在实际操作中,还需要根据具体情况进行调整。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

肥学

感谢支持

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值