python爬虫第1章 urllib库(二) urllib发送post请求

python爬虫第1章 urllib库(二) urllib发送post请求

上一篇:

python爬虫第1章 urllib库(一) urllib库概述

一、构建请求对象Request

先看看python urllib默认的请求头:

import urllib.request

url = r"http://www.baidu.com"

response = urllib.request.urlopen(url)

print(response.read())

执行上面代码,使用Charles抓包:

GET / HTTP/1.1
Accept-Encodingidentity
Hostwww.baidu.com
User-AgentPython-urllib/3.6
Connectionclose

User-Agent : Python-urllib/3.6 这是一点伪装都没有,直接告诉服务器自己是python程序。服务器响不响应数据那就很难说了。

那该怎么办?需要伪装自己的User-Agent(UA),让服务器以为浏览器上网。

构建请求对象:urllib.request.Request (这是一个类)

import urllib.request
import ssl

def crawle(url):
    headers = {
        "User-Agent": "Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Maxthon/4.4.3.4000 Chrome/30.0.1599.101 Safari/537.36"
    }
    request = urllib.request.Request(url = url , headers = headers)

    # 使用ssl创建未验证的上下文
    # 必须要有这个参数,否则无法爬取https网页
    # 如果不加,报错:urllib.error.URLError: <urlopen error [SSL: CERTIFICATE_VERIFY_FAILED] certificate verify failed (_ssl.c:833)>
    context = ssl._create_unverified_context()

    response = urllib.request.urlopen(request , context = context)

    print(response.read().decode())

url = r"https://www.jd.com/"

crawle(url)

再次抓包:

GET / HTTP/1.1
Accept-Encodingidentity
Hostwww.jd.com
User-AgentMozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Maxthon/4.4.3.4000 Chrome/30.0.1599.101 Safari/537.36
Connectionclose

二、POST请求案例:使用百度翻译的sug接口查询英语单词

如何获取这个接口?浏览器打开https://fanyi.baidu.com/页面,点击F12键盘打开开发者工具,在页面的输入框输入文字,如cat,就可以在开发者工具的Network中看到发送的请求。

import urllib.request
import urllib.parse

# 百度翻译post请求的url
post_url = r"https://fanyi.baidu.com/sug"

word = input("请输入需要搜索的英文单词...")

form_data = {
    "kw":word
}

headers = {
    "User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/71.0.3578.98 Safari/537.36"
}

# 对post参数进行url编码
# 必须是字节类型,否则报错:TypeError: POST data should be bytes, an iterable of bytes, or a file object. It cannot be of type str.
form_data = urllib.parse.urlencode(form_data).encode()

# 传入url、请求头构建Request对象
request = urllib.request.Request(url = post_url,headers=headers)

# 发送post请求
response = urllib.request.urlopen(request,data=form_data)

print(response.read().decode())

获取到了 unicode

{"errno":0,"data":[{"k":"cat","v":"n. \u732b; \u732b\u79d1\u52a8\u7269;"},{"k":"catch","v":"v. \u63a5\u4f4f; \u622a\u4f4f; \u62e6\u4f4f; \u63a5(\u843d\u4e0b\u7684\u6db2\u4f53); \u6293\u4f4f; \u63e1\u4f4f; n. \u63a5(\u7403\u7b49); \u603b\u6355\u83b7\u91cf; \u6263"},{"k":"category","v":"n. (\u4eba\u6216\u4e8b\u7269\u7684)\u7c7b\u522b\uff0c\u79cd\u7c7b;"},{"k":"cattle","v":"n. \u725b;"},{"k":"categories","v":"n. (\u4eba\u6216\u4e8b\u7269\u7684)\u7c7b\u522b\uff0c\u79cd\u7c7b;  category\u7684\u590d\u6570;"}]}

unicode转字符串后(可以在一些json格式转化的网站进行unicode转字符串,如http://www.bejson.com/):

{
	"errno": 0,
	"data": [{
		"k": "cat",
		"v": "n. 猫; 猫科动物;"
	}, {
		"k": "catch",
		"v": "v. 接住; 截住; 拦住; 接(落下的液体); 抓住; 握住; n. 接(球等); 总捕获量; 扣"
	}, {
		"k": "category",
		"v": "n. (人或事物的)类别,种类;"
	}, {
		"k": "cattle",
		"v": "n. 牛;"
	}, {
		"k": "categories",
		"v": "n. (人或事物的)类别,种类;  category的复数;"
	}]
}
  • 0
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值