Python3网络爬虫教程2——urlopen的返回对象

Python 全栈工程师核心面试 300 问深入解析(2020 版)----全文预览
Python 全栈工程师核心面试 300 问深入解析(2020 版)----欢迎订阅

上接:Python3网络爬虫教程1——初始爬虫(爬虫是干嘛的?)
https://blog.csdn.net/u011318077/article/details/86508872

2.3. urlopen的返回对象

  • rsp = request.urlopen(url)
  • 有时候不一定能获得对象,断网了,服务器故障等等
  • geturl: 返回请求对象的URL
  • info: 返回反馈对象的meta信息
  • getcode: 返回的http code(状态码)
  • 看实例43_3
# chardet
# 自动检测URL编码

import chardet
from urllib import request

if __name__ == '__main__':
    url = 'http://china.chinadaily.com.cn/a/201901/15/WS5c3d510fa31010568bdc3902.html'
    # 打开一个URL然后返回页面的内容
    rsp = request.urlopen(url)
    # 把返回的结果读取出来
    print(type(rsp))
    print("URL: {0}".format(rsp.geturl()))
    print("Info: {0}".format(rsp.info()))
    print("Code: {0}".format(rsp.getcode()))

2.4. request.data

  • 访问网络的两种方法
    • get
      • 利用参数给服务器传递信息
      • 参数为dict,使用parse编码
      • 看实例43_4
from urllib import request, parse

if __name__ == '__main__':

    # 百度搜索请求头信息
    url = 'http://www.baidu.com/s?'
    wd = input('Input your keyword: ')

    # 要想使用data,需使用字典结构
    qs = {'wd': wd}

    # 将输入的字典qs转换为url编码
    # 可以将打印出来的和百度搜索访问结果图片43_4中进行对比,发现url编码是一样的
    qs = parse.urlencode(qs)
    print(qs)

    fullurl = url + qs
    print(fullurl)

    # 访问的网址必须转换为url编码,直接访问会报错
    # fullurl = 'http://www.baidu.com/s?wd=大熊猫'
    rsp = request.urlopen(fullurl)

    html = rsp.read()
    html= html.decode()
    print(html)
- post
    - 一般向服务器传递参数使用
    - post是把信息自动加密处理
    - 我们如果想使用post信息,需要使用data参数
    - 使用post,意味着http请求头可能需要更改:
        - Content-Type: application/x-www.form-urlencode
        - Content-Length: 数据长度
        - 简而言之,一旦更改请求方法,注意其它请求头部信息相适应         
        - 看实例43_5/6
        - 为了更多的设置请求信息,单纯通过urlopen就不太适用了
        - 需要使用request.Request类

43-5

# 本案例用request.urlopen实现
# 更多的设置请求信息需要使用request.Request类,参考43_6

"""
利用parse模块模拟post请求
分析百度词典,参考图片43_5
分析步骤:
1. 打开网页检查(F12),输入单次girl,
2. 一个字母一个字母的输入,每输入一个字母,都会发生一次请求
3. headers采用name排序,会看见有四个sug,发生了四次请求
4. 查看headers里面的FormData的值是kw:girl
5. 检查返回的内容content-type是json格式,需要用到json包
"""
"""
大致流程:
1. 利用data构造内容,然后urlopen打开
2. 返回一个json格式的内容
3. 结果就应该是girl的释义
"""

from urllib import request, parse
import json

baseurl = 'https://fanyi.baidu.com/sug'

# 存储用来模拟formdata的数据一定是字典格式
wd = input('Input your keyword: ')
data = {'kw': wd}

# 需要对data进行编码
data = parse.urlencode(data).encode('utf-8')
print(type(data))
print(data)

# 有了data和url就可以尝试发出请求了,获取网页的内容
rsp = request.urlopen(baseurl, data=data)
json_data = rsp.read().decode('utf-8')
print(type(json_data))
print(json_data)

# 把json的原始字符串数据形式转换成python可编写的字典格式
# 对比上面和下面的打印结果的区别
json_data = json.loads(json_data)
print(type(json_data))
print(json_data)

# 查看结果是一个字典,取出字典中键data对应的值是一个列表,
# 列表中又是有多个字典,每个字典中有两个键值对,将两个值取出,一一对应
for item in json_data['data']:
    # print(item)
    print(item['k'], "-----", item['v'])

43-6

# 本案例用request.Request类实现
# 对比43_5案例

"""
利用parse模块模拟post请求
分析百度词典,参考图片43_5
分析步骤:
1. 打开网页检查(F12),输入单次girl,
2. 一个字母一个字母的输入,每输入一个字母,都会发生一次请求
3. headers采用name排序,会看见有四个sug,发生了四次请求
4. 查看headers里面的FormData的值是kw:girl
5. 检查返回的内容content-type是json格式,需要用到json包
"""
"""
大致流程:
1. 利用Request请求内容(可以进行大量的请求),然后urlopen打开
2. 返回一个json格式的内容
3. 结果就应该是girl的释义
"""

from urllib import request, parse
import json

baseurl = 'https://fanyi.baidu.com/sug'

# 存储用来模拟formdata的数据一定是字典格式
wd = input('Input your keyword: ')
data = {'kw': wd}

# 需要对data进行编码
data = parse.urlencode(data).encode('utf-8')

# 我们需要构造一个请求头,请求头至少包含数据的长度
# request要求传入的请求头是一个dict格式
headers = {'Content-Length': len(data)}

# 构造一个Request类的实例,可以ctrl然后右键查看Request类的源代码
req = request.Request(url=baseurl, data=data, headers=headers)

# 已经构造了一个Request类的实例,然后用urlopen打开
rsp = request.urlopen(req)
json_data = rsp.read().decode('utf-8')

# 把json的原始字符串数据形式转换成python可编写的字典格式
json_data = json.loads(json_data)

# 查看结果是一个字典,取出字典中键data对应的值是一个列表,
# 列表中又是有多个字典,每个字典中有两个键值对,将两个值取出,一一对应
for item in json_data['data']:
    # print(item)
    print(item['k'], "-----", item['v'])

下接:Python3网络爬虫教程3——urllib.error的使用

  • 3
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值