python发送post请求返回access denied_python使用scrapy发送post请求的坑

本文详细介绍了如何使用Requests库和Scrapy框架发送POST请求。在Requests中,可以方便地通过data或json参数传递数据。而在Scrapy中,使用FormRequest或Request,需要注意FormRequest会将数据转化为URL编码的POST请求。遇到POST请求返回access denied的问题时,作者发现使用scrapy.Request并设置Content-Type为application/json可以解决问题。
摘要由CSDN通过智能技术生成

使用requests发送post请求

先来看看使用requests来发送post请求是多少好用,发送请求

Requests 简便的 API 意味着所有 HTTP 请求类型都是显而易见的。例如,你可以这样发送一个 HTTP POST 请求:

>>>r = requests.post('http://httpbin.org/post', data = {'key':'value'})

使用data可以传递字典作为参数,同时也可以传递元祖

>>>payload = (('key1', 'value1'), ('key1', 'value2'))

>>>r = requests.post('http://httpbin.org/post', data=payload)

>>>print(r.text)

{

...

"form": {

"key1": [

"value1",

"value2"

]

},

...

}

传递json是这样

>>>import json

>>>url = 'https://api.github.com/some/endpoint'

>>>payload = {'some': 'data'}

>>>r = requests.post(url, data=json.dumps(payload))

2.4.2 版的新加功能:

>>>url = 'https://api.github.com/some/endpoint'

>>>payload = {'some': 'data'}

>>>r = requests.post(url, json=payload)

也就是说,你不需要对参数做什么变化,只需要关注使用data=还是json=,其余的requests都已经帮你做好了。

使用scrapy发送post请求

通过源码可知scrapy默认发送的get请求,当我们需要发送携带参数的请求或登录时,是需要post、请求的,以下面为例

from scrapy.spider import CrawlSpider

from scrapy.selector import Selector

import scrapy

import json

class LaGou(CrawlSpider):

name = 'myspider'

def start_requests(self):

yield scrapy.FormRequest(

url='https://www.******.com/j

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值