Python爬虫1.1 — urllib基础用法教程

综述

本系列文档用于对Python爬虫技术进行简单的教程讲解,巩固自己技术知识的同时,万一一不小心又正好对你有用那就更好了。
Python 版本是3.7.4

urllib库介绍

它是 Python 内置的HTTP请求库,也就是说我们不需要额外安装即可使用,它包含四个模块(主要对前三个模块进行学习):

  • request : 它是最基本的 HTTP 请求模块,我们可以用它来模拟发送一请求,就像在浏览器里输入网址然后敲击回车一样,只需要给库方法传入 URL 还有额外的参数,就可以模拟实现这个过程了。
  • error : 异常处理模块,如果出现请求错误,我们可以捕获这些异常,然后进行重试或其他操作保证程序不会意外终止。
  • parse : 用于解析URL,提供了许多URL处理方法,比如拆分、解析、合并等等的方法,以及对参数的拼接等待。
  • robotparser : 主要是用来识别网站的robots.txt协议文件,然后判断网站的那些数据可以爬,哪些数据不可以爬的,其实用的比较少。

urllib.request 介绍

urlopen()

  1. 参数说明(仅写了四个最常用的参数)

    • url : 爬取目标的URL;
    • data : 请求参数,如果设置该参数,则请求默认为post请求;没有默认为get请求;
    • timeout : 用于设置超时时间,单位为秒;
    • context : 必须是一个ssl.SSLContext类型,用来指定SSL设置,忽略未认证的CA证书;
  2. 具体用法

    • GET 请求方式
        # 导入urllib库
        import urllib.request
        
        # 向指定的url发送请求,并返回服务器响应的类文件对象
        url = "http://www.baidu.com"
        response = urllib.request.urlopen(url=url)
        print(type(response))
        
        # 类文件对象支持文件对象的操作方法,如read()方法读取文件全部内容,返回字符串
        html = response.read()
        # html = response.readline() # 读取一行
        # html = response.readlines() # 读取多行,返回列表
        # 打印响应结果(byte类型)
        print(html)
        # 打印响应结果(utf-8类型)
        # 二进制和字符串之间的相互转码使用 encode() 和 decode() 函数
        # encode() 和 decode() 可带参数,不写默认utf-8,其他不再特别说明
        print(html.decode())
        # 打印状态码
        # print(response.get_code())
        print(response.status)
        # 获取响应头
        print(response.getheaders())
        # 获取响应头Server信息
        print(response.getheader('Server'))
        # 获取响应结果原因
        print(response.reason)
    
    • POST 请求方式
        # 导入urllib库
        import urllib.parse
        import urllib.request
        
        # 向指定的url发送请求,并返回
        post_url = 'https://fanyi.baidu.com/sug'
        # 传入参数
        form_data = {
            'kw': 'honey'
        }
        # 格式化参数
        form_data = urllib.parse.urlencode(form_data).encode()
        
        response = urllib.request.urlopen(url=post_url, data=form_data)
        # 打印服务器响应的类文件对象
        print(type(response))
        
        # 类文件对象支持文件对象的操作方法,如read()方法读取文件全部内容,返回字符串
        html = response.read()
        # 打印响应结果(byte类型)
        print(html)
        # 打印响应结果(utf-8类型)
        print(html.decode())
        # 打印状态码
        print(response.status)
        # print(response.getcode())
        # 获取响应头
        print(response.getheaders())
        # 获取响应头Server信息
        print(response.getheader('Server'))
        # 获取响应结果原因
        print(response.reason)
    

urlretrleve()

  1. 参数说明

    • url : 下载链接地址;
    • filename : 指定保存本地路径(如果参数未指定,urllib会生成一个临时文件保存数据);
    • reporthook : 是一个回调函数,当连接上服务器、以及相应的数据块传输完毕时会触发该回调,我们可以利用这个回调函数来显示当前的下载进度;
    • data : 指post导服务器的数据,该方法返回一个包含两个元素的(filename, headers) 元组,filename 表示保存到本地的路径,header表示服务器的响应头;
  2. 具体用法

        # 引入所需要的库
        import os
        import urllib.request
        
        
        # 定义回调函数
        def call_back(a, b, c):
            """
            图片下载回调
            :param a: 已经下载的数据块
            :param b: 数据块的大小
            :param c: 远程文件的大小
            :return: 
            """
            per = 100.0 * a * b / c
            if per > 100:
                per = 100
            print('%.2f%%' % per)
        
        
        # 定义下下载的地址
        url = 'http://www.baidu.com'
        # 构造文件保存路径
        path = os.path.abspath('.')
        file_path = os.path.join(path, 'baidu.html')
        # 进行下载
        urllib.request.urlretrieve(url, file_path, call_back)
    
    

urllib.parse 介绍

urlencode()

  1. 参数说明

    • query : url参数,可以是字符串,也可以是字典;
    • encoding : 编码方式;
  2. 具体用法

        # 引入所需要的库
        import urllib.parse
        # 参数数据
        data = {
            'name': '张三',
            'age': 26
        }
        # 进行编码
        ret = urllib.parse.urlencode(data)
        print(ret)
    

parse_s()

  1. 参数说明

    • qs : url参数,编码后的字符串;
    • encoding : 字符方式;
  2. 具体用法

        # 引入所需要的库
        import urllib.parse
        # 参数数据
        data = {
            'name': '张三',
            'age': 26
        }
        # 进行编码
        ret1 = urllib.parse.urlencode(data)
        print(ret1)
        # 进行解码
        ret2 = urllib.parse.parse_qs(ret1)
        print(ret2)
    

urlparse()

  1. 参数说明

    • url : url地址字符串;
  2. 具体用法

        # 引入所需要的库
        import urllib.parse
        # 声明url
        url = "https://www.baidu.com/s?wd=urlparse&rsv_spt=1&rsv_iqid=0x921f00fe005646ef&issp=1&f=8"
        # 进行url解析
        ret = urllib.parse.urlparse(url)
        print(ret)
        print('scheme:', ret.scheme)  # 协议
        print('netloc:', ret.netloc)  # 域名服务器
        print('path:', ret.path)  # 相对路径
        print('params:', ret.params)  # 路径端参数
        print('fragment:', ret.fragment)  # 片段
        print('query:', ret.query)  # 查询
        
        # urlunparse() 与 urlparse() 对应相反函数
        # 使用urlparse的格式组合成一个url,可以直接将urlparse的返回传递组合
        ret1 = urllib.parse.urlunparse(ret)
        print(ret1)
    

urlsplit()

  1. 参数说明

    • url : url地址字符串;
  2. 具体用法

        # 引入所需要的库
        import urllib.parse
        # 声明url
        url = "https://www.baidu.com/s?wd=urlparse&rsv_spt=1&rsv_iqid=0x921f00fe005646ef&issp=1&f=8"
        # 进行url解析
        ret = urllib.parse.urlsplit(url)
        print(ret)
        print('scheme:', ret.scheme)  # 协议
        print('netloc:', ret.netloc)  # 域名服务器
        print('path:', ret.path)  # 相对路径
        print('fragment:', ret.fragment)  # 片段
        print('query:', ret.query)  # 查询
        
        # urlunsplit() 与 urlsplit() 对应相反函数
        # 使用urlsplit的格式组合成一个url,可以直接将urlsplit的返回传递组合
        ret1 = urllib.parse.urlunsplit(ret)
        print(ret1)
        
        # 此函数和urlparse函数的区别在于此函数没有params
    

urljoin()

  1. 参数说明

    • qs : url参数,编码后的字符串;
    • encoding : 字符方式;
  2. 具体用法

        # 引入所需要的库
        import urllib.parse
        
        # 声明url
        url = "https://www.baidu.com/"
        # 参数数据
        data = {
            'name': '张三',
            'age': 26
        }
        # 格式化参数
        data = urllib.parse.urlencode(data)
        # 进行url拼接
        ret = urllib.parse.urljoin(url, data)
        print(ret)
    

urllib.error 介绍

我们在爬虫的时候发请求的时候难免出现错误,如访问不到服务器或者访问被禁止等等,error分为URLError和HTTPError两类:

  1. URLError

    • 没有网
    • 服务器链接失败
    • 找不大指定服务器
  2. HTTPError

    • 是URLError的子类
  3. 两者区别和联系

    • URLError封装的错误信息一般是由网络引起的,包括url错误
    • HTTPError封装的错误信息一般是服务器返回了错误状态码
    • URLError是OSERROR的子类,HTTPError是URLError的子类
    • 【注意】两个同时捕获的时候需要将子类放在上面,父类放在下面
  4. 用法

        # 引入所需要的库
        import urllib.error
        import urllib.request
        
        # 一个访问异常的url
        url = 'https://www.mz.com/156427/100'
        # 捕获异常
        try:
            ret = urllib.request.urlopen(url)
            print(ret)
        except urllib.error.HTTPError as e:
            print(e.getcode())
        except urllib.error.URLError as e:
            print(e)
    
  • 11
    点赞
  • 65
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Python爬虫教程urllib主要是介绍了Python爬虫技术中的urllib基础用法。该教程详细讲解了urllib的各种功能和方法,包括发送请求、处理响应、设置请求头、处理异常等。这个教程对于想要学习和使用Python进行网络爬虫的人来说具有很大的参考价值。 同时,该教程也提到了一些常见的问题和解决方法,例如模拟超时的处理方法。在网络爬虫中,有时候我们长时间无法访问一个页面,可能是因为网速有限或者被发现我们是一个爬虫。针对这种情况,可以使用timeout参数来设置超时时间,如果超过了设定的时间仍无法获取响应,则会抛出URLError异常,我们可以在异常处理中对超时进行相应的处理。 总的来说,Python爬虫教程urllib是一个很好的学习资源,适合想要入门或深入学习Python爬虫技术的人使用。它提供了详细的教程和实例,可以让你快速上手和掌握使用urllib进行网络爬虫的基本知识和技巧。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* [Python爬虫urllib基础用法教程](https://download.csdn.net/download/weixin_38656741/12858843)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_1"}}] [.reference_item style="max-width: 33.333333333333336%"] - *2* [Python爬虫 —— urllib的使用(get/post请求+模拟超时/浏览器)](https://blog.csdn.net/qq_50587771/article/details/123840479)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_1"}}] [.reference_item style="max-width: 33.333333333333336%"] - *3* [python爬虫urllib3的使用示例](https://download.csdn.net/download/weixin_38681147/12867742)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_1"}}] [.reference_item style="max-width: 33.333333333333336%"] [ .reference_list ]
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值