环境:win7 、pycharm、python2、
所用到的库:urllib2
#coding:utf-8
import urllib2
def down(url):
response = urllib2.urlopen(url)
print type(response) #打印类型 <class 'http.client.HTTPResponse'>
print response.info()#包含网站请求详细信息
print response.read()#读取网页全部信息
try:
url = "https://www.google.com"
down(url)
except urllib2.URLError as e:
print "web error",e
环境:win7 、pycharm、python3、
所用到的库:urllib.request
import urllib.request
import urllib.error
def down(url):
response = urllib.request.urlopen(url,timeout=10)#超时10秒就退出
print(type(response)) #打印类型 <class 'http.client.HTTPResponse'>
print(response.info())#打印包含网站请求详细信息
print(response.read(11)) #read()读取全部, read(100)读取100个字符
try:
url = "https://www.renren.com"
down(url)
except urllib.error.URLError as e:
print("web error",e) #返回错误原因
#写爬虫的时候经常要加try except 有时候不是代码的原因而是网站的原因
以上python2与python3的区别:
python2中需要#coding:utf-8 而python3中不需要
python2中用到urllib2,若与网页建立连接urllib2.urlopen(url) ;
python3中需要urllib 若与网页建立连接需要urllib.urlopen(url)
以上内容若有错误或用词不当,请留言指正,谢谢。