爬虫基础------urllib基础与超时设置

1.urllib的几个相关函数,各个函数的具体功能如案例代码所示:


import urllib.request
# urlretrieve(网址,本地文件的存储地址)直接下载网页到本地
urllib.request.urlretrieve("http://www.baidu.com","E:\\Pythondemo\\Python-test\\PythonLX\\dld.html")

# 清除数据缓冲,减少内存浪费
urllib.request.urlcleanup()
# info-----得到当前爬取相应的情况
file = urllib.request.urlopen("http://read.douban.com/provider/all")
print(file.info())
# getcode----返回网页爬取当期的状态码(200正确状态码 ^200则获取失败)
print("-----------")
print(file.getcode())
# 获取当前访问的网页url,geturl()
print("===========")
print(file.geturl)
案例运行结果:

 

 

 

备注:本博客如有疑问,欢迎大家在评论区留言-------本博客的博主觉得他就是查找爬虫过程中你想获取的有用信息以及查找错误,实际没个啥可标注的!!!

 

 

 

 

 

 

2.超时设置 案例代码:

# 超时设置
import urllib.request
for i in range(0,100):
    try:
        file = urllib.request.urlopen("http://yum.iqianyue.com", timeout=0.25)
        #不输出len也行,直接file.read()也是OK的
        print(len(file.read()))
    except Exception as err:
        print("出现异常"+str(err))
超时设置的运行结果:

 

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值