python根据url获取网页内容

#! /usr/bin/python
# -*- coding:utf-8 -*-
'''
Created on 2013-11-5

@author: Java
'''
import urllib2
import time
import socket
from sgmllib import SGMLParser

class WebUtil():
    def __init__(self):
        self.trytims = 3
        pass

#读取Url 内容
#     timeout=10
#     socket.setdefaulttimeout(timeout)#这里对整个socket层设置超时时间。后续文件中如果再使用到socket,不必再设置
#     sleep_download_tine=10
#     time.sleep(sleep_download_tine)
    def readUrl(self,url):
        try:
            request = urllib2.Request(url,headers = {'User-Agent':'Magic Browser'})
            webpage = urllib2.urlopen(url)
            content = webpage.read()
            
            return content
            request.close()
        except Exception,errmg:
            print '读取失败:%s'%errmg
            return None
        
if __name__=='__main__':
    web = WebUtil()
    content = web.readUrl('http://www.haodf.com/doctor/DE4rO-XCoLUOzseHcTieBvzKOb.htm')
    print content
    

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值