URLLIB库之函数介绍-爬虫

URLLIB库的urlretrieve函数用法
urlretrievel函数:
这个面数可以方便的将网页上的一个文件保存到本地。以下代码可少非常方便的将百度的首页下载到本地:

from urllib import request
request.urlretrdeve("http://www.baidu.com/,"baidu.html")


5 urllib库之参数编码和解码函
urlencode函数:
用浏览器发送请求的时,如果url中包含了中文或者其他特殊字符,那么浏览器器会自动的给我们进行编码。而如果使用发送请求,那么就必须手动的进行编码。,这时就应该使用urlencode函数实现。urlencode可以把字曲数据转换为URL编码的数据。
示例代码如下:

    from urllib import parse
    data = {'name':'爬虫基础','greet':'hello world','age':100}
    qs = parse.urlencode(data)
    print(ps)


parse_qs函数:
    可以将经过编码后的url参数进行解码。示例代码如下:
    

from urllib import parse
    qs ="ie=UTF-8&wd=%E7%AD%BE%E5%AD%97%E7%AC%94%E6%9B%BF%E8%8A%AF"
    print(parse.parse_qs(qs))


urlparse和URLsplit:
    有时候拿到URL,想要对这个URL中的各个组成部分进行分割,那么这时候就可以使用urlparse或是urlsplit来进行分割。示例代码如下:
  

 from urllib import request,parse
    url = 'https://www.baidu.com/s?username=tmall'
    result = parse.urlsplit(url)
    #result = parse.urlparse(url)

    print('scheme',result.scheme)
    print('netloc',result.netloc)
    print('path',result.path)
    print('query',result.query)

 

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值