[《Twisted网络编程必备》翻译] 第3章

3.0 WEB客户端

大部分上网活动都是通过WEB浏览器来访问WEB的。所以通过HTTP协议制作客户端来访问WEB是很有意义的。这一章讲解如何使用twisted.web.client模块来操作互联网资源,包括下载页面,使用HTTP认证,上传文件,使用HTTP字段等。





3.1 下载网页

最简单和常用的任务莫过于通过WEB客户端来下载网页了。客户端连接服务器,发送HTTP的GET请求,接收包含网页的HTTP响应。

3.1.1 下面如何做?

可以依靠Twisted内置的协议来快速进入工作。twisted.web包包含了完整的HTTP实现,免去自行开发Protocol和ClientFactory的工作。在未来,它还将包括建立HTTP请求的工具函数。获取一个网页,使用twisted.web.client.getPage。例子3-1是webcat.py脚本,用于通过URL获得网页。
from twisted.web import client
from twisted.internet import reactor
import sys
def printPage(data):
    print data
    reactor.stop()
def printError(failure):
    print >> sys.stderr, "Error: ", failure.getErrorMessage()
    reactor.stop()
if len(sys.argv)==2:
    url=sys.argv[1]
    client.getPage(url).addCallback(printPage).addErrback(printError)
    reactor.run()
else:
    print "Usage: webcat.py <URL>"
给webcat.py脚本一个URL,将会显示网页代码:
$ python webcat.py http://www.oreilly.com/
<!DOCTYPE HTML PUBLIC "-//....

3.1.2 它们如何工作?

函数printPage和printError是简单的事件(by gashero)处理器,用于打印下载的网页和错误信息。最重要的一行是client.getPage(url)。这个函数返回了Deferred对象,用于非同步状态下通知下载完成事件。
注意如何在一行中添加Deferred的回调函数。这是可能的,因为addCallback和addErrback都返回Deferred对象的引用。因此语句:
d=deferredFunction()
d.addCallback(resultHandler)
d.addCallback(errorHandler)
等同于:
deferredFunction().addCallback(resultHandler).addErrback(errorHandler)
这两种方式都可以用,下面那种方式在Twisted代码中更加常见。

3.1.3 关于

是否有需要将网页写入磁盘上呢?这个高级功能在使用3-1例子脚本下载巨大文件时可能会出问题。一个更好的解决方法是在下载时将数据写入临时文件,而在下载完成时在从临时文件中全部读出。
twisted.web.client包含了downloadPage函数,类似于getPage,但是将文件写入文件。调用downloadPage并传入URL做首参数,文件名或文件对象做第二个参数。如下例3-2:
from twisted.web import client
import tempfile
def downloadToTempFile(url):
    """
    传递一个URL,并返回一个Deferred对象用于下载完成时的回调
    """
    tmpfd,tempfilename=tempfile.mkstemp()
    os.close(tmpfd)
    return client.downloadPage(url,tempfilename).addCallback(returnFilename,tempfilename)
def returnFilename(result,filename):
    return filename
if __name__=='__main__':
    import sys,os
    from twisted.internet import reactor
    def printFile(filename):
        for line in file(filename,'r+b'):
            sys.stdout.write(line)
        os.unlink(filename) #删除文件
        reactor.stop()
    def printError(failure):
        print >> sys.stderr, "Error: ",failure.getErrorMessage()
        reactor.stop()
    if len(sys.argv)==2:
        url=sys.argv[1]
        downloadToTempFile(url).addCallback(printFile).addErrback(printError)
        reactor.run()
    else:
        print "Usage: %s <URL>"%sys.argv[0]
函数downloadToTempFile在调用twisted.web.client.downloadPage时返回Deferred对象。downloadToTempFile还添加了returnFilename作为Deferred的回调,将临时文件名作为附加参数。这意味着当downloadToTempFile返回时,reactor将会调用returnFileName作为downloadToTempFile的首个参数,而(by gashero)文件名作为第二个参数。
例子3-2注册了另外两个回调函数到downloadToTempFile。记住downloadToTempFile返回的Deferred已经包含了returnFilename作为回调处理器。因此,在结果返回时,returnFilename将会首先被调用。这个函数的结果被用于调用printFile。






3.2 存取受到密码保护的页面

有些网页需要认证。如果你正在开发HTTP客户端应用,那么最好准备好处理这些,并在需要时给出用户名和密码。

3.2.1 下面如何做?

如果一个HTTP请求以401的状态码执行失败,则是需要认证的。这时传递用户提供的登录用户名和密码到Authorization字段,有如例子3-3中那样:
from twisted.web import client,error as weberror
from twisted.internet import reactor
import sys,getpass,base64
def printPage(data):
    print data
    reactor.stop()
def checkHTTPError(failure,url):
    failure.trap(weberror.Error)
    if failure.value.status=='401':
        print >> sys.stderr,failure.getErrorMessage()
        #要求用户名和密码by gashero
        username=raw_input("User name: ")
        password=getpass.getpass("Password: ")
        basicAuth=base64.encodestring("%s:%s"%(username,password))
        authHeader="Basic "+basicAuth.strip()
        #尝试再次获取页面,已经加入验证信息
        return client.getPage(url,headers={"Authorization":authHeader})
    else:
        return failure
def printError(failure):
    print >> sys.stderr, 'Error: ',failure.getErrorMessage()
    reactor.stop()
if len(sys.argv)==2:
    url=sys.argv[1]
    client.getPage(url).addErrback(
        checkHTTPError,url).addCallback(
        printPage).addErrback(
        printError)
    reactor.run()
else:
    print "Usage: %s <URL>"%sys.argv[0]
运行webcat3.py并传递URL作为附加参数,将会尝试下载页面。如果收到了401错误,则会询问用户名和密码之后自动重试:
$ python webcat3.py http://example.com/protected/page
401 Authorization Required
User name: User
Password: <输入密码>
<html>
... ...

3.2.2 它们如何工作?

这个例子使用了扩展的错误处理器。它首先给client.getPage添加了Deferred,在添加printPage和printError之前。这样做给了checkHTTPError以机会在其他处理器之前来处理client.getPage的错误。
作为一个errback的错误处理器,checkHTTPError将被twisted.python.failure.Failure对象调用。Failure对象封装了跑出的异常,记录了异常时的traceback,并添加了几个有用的方法。checkHTTPError开始使用了Failure.trap方法来证实异常是twisted.web.error.Error类型的。如果不是,trap将会重新抛出异常,退出当前函数并允许错误传递到下一个errback处理器,printError。
然后,checkHTTPError检查HTTP响应状态码.failure.value是一个Exception对象,并且是twisted.web.error.Error的对象,已知的status属性包含了HTTP响应状态码。如果状态码不是401,则返回原始错误,通过把错误传递给printError。
如果状态码是401,checkHTTPError会执行。它会提示输入用户名和密码,并编码成HTTP的Authorization头字段。然后调用client.getPage,返回Deferred对象。这将导致一些很cool的事情发生,反应器等待第二次调用结果,然后调用printPage或者printError来处理结果。实际上,checkHTTPError将会提示"通过另外一个Deferred来处理错误,等待Deferred的结果,并且在另外一行中进行事件处理"。这个技术是很强大的,并且可以在Twisted程序中多次使用。
最终的结果有如前面的例子:使用printPage或者printError来输出结果。当然,如果初始化请求成功了,则不需要认证,checkHTTPError将不会被调用,返回的结果也将直接调用printPage。






3.3 上传文件

以用户的观点来说,没有什么简单的方法使得上传文件到网页。使用HTML表单选择文件并按下提交按钮才可以上传。正因为如此很多站点提供了难用的上传方式。有时当你需要上传文件而又不能使用浏览器时。可能需要自己开发程序来上传照片、基于WEB的文件管理系统等等。下面的例子展示了使用Twisted开发HTTP客户端来上传文件的方法。

3.3.1 下面如何做?

首先,对键值对编码,并将上传文件编入multipart/form-data的MIME文件。Python和Twisted都无法提供简便的方法来实现,但你可以也可以不需要太大努力的自己实现一个。然后传递已编码的表单数据到formdata键,并传递给client.getPage或client.downloadPage,并使用HTTP的POST方法。然后就可以执行getPage或downloadPage来获得HTTP响应了。例子3-4(validate.py)展示了如何按照W3C标准上传文件,并保存响应到本地文件,然后显示在用户浏览器中。
from twisted.web import client
import os,tempfile,webbrowser,random
def encodeForm(inputs):
    """
    传递一个字典参数inputs并返回multipart/form-data字符串,包含了utf-8编码的
    数据。键名必须为字符串,值可以是字符串或文件对象。
    """
    getRandomChar=lambda:chr(random.choice(range(97,123)))
    randomChars=[getRandomChar() for x in range(20)]
    boundary="---%s---"%''.join(randomChars)
    lines=[boundary]
    for key,val in inputs.items():
        header='Content-Disposition: form-data; name="%s"'%key
        if hasattr(val,'name'):
            header+=';filename="%s"'%os.path.split(val.name)[1]
        lines.append(header)
        if hasattr(val,'read'):
            lines.append(val.read())
        else:
            lines.append(val.encode('utf-8'))
        lines.append('')
        lines.append(boundary)
    return "/r/n".join(lines)
def showPage(pageData):
    #将数据写入临时文件并在浏览器中显示
    tmpfd,tmp=tempfile.mkstemp('.html')
    os.close(tmpfd)
    file(tmp,'w+b').write(pageData)
    webbrowser.open('file://'+tmp)
    reactor.stop()
def handleError(failure):
    print "Error: ",failure.getErrorMessage()
    reactor.stop()
if __name__=='__main__':
    import sys
    from twisted.internet import reactor
    filename=sys.argv[1]
    fileToCheck=file(filename)
    form=encodeForm({'uploaded_file':fileToCheck})
    postRequest=client.getPage(
        'http://validator.w3.org/check',
        method="POST",
        headers={'Content-Type':'multipart/form-data; charset=utf-8',
                 'Content-Length':str(len(form))},
        postdata=form)
    postRequest.addCallback(showPage).addErrback(handleError)
    reactor.run()
运行validate.py脚本并在第一个参数给出HTML文件名:
$ python validate.py test.html
一旦发生了错误,必须获得validation的在浏览器中的错误报告。

3.3.2 它们是如何做的?

按照W3C标准页面,例如http://validator.w3.org包含表单如下:
<form method="POST" enctype="multipart/form-data" action="check">
    <label title="Choose a Local file to Upload and Validate"
        for="uploaded_file">Local File:
    <input type="file" name="uploaded_file" size="30" /></label>
    <label title="Submit file for validation">
    <input type="submit" value="Check" /></label>
</form>
这样可以建立一个HTTP客户端发送与浏览器相同的数据。函数encodeForm输入一个字典包含了以键值对方式引入的上(by gashero)传文件对象,并返回已经按照multipart/form-data的MIME编码文档的字符串。当validate.py运行时,打开特定文件作为第一个参数并传递encodeForm作为'uploaded_file'的值。这将会返回待提交的有效数据。
validate.py然后使用client.getPage来提交表单数据,传递头部字段包括Content-Length和Content-Type。showPage回调处理器得到返回的数据并写入临时文件。然后使用Python的webbrowser模块调用默认浏览器来打开这个文件。







3.4 检测网页更新

当使用流行的HTTP应用打开一个RSS收集时,将会自动下载最新的RSS(或者是Atom)的blog更新。RSS收集定期下载最新的更新,典型值是一个小时。这个机制可以减少浪费大量的带宽。因为内容很少更新,所以客户端常常重复下载相同数据。
为了减少浪费网络资源,RSS收集(或者其他请求页面的方式)推荐使用条件HTTP GET请求。通过在HTTP请求的头部字段添加条件,客户端可以告知服务器仅仅返回已经看过的时间之后的更新。当然,一种条件是在上次下载后是否修改过。

3.4.1 下面如何做?

首次下载网页时保持跟踪头部字段。查找ETag头部字段,这定义了网页的修正版本,或者是Last-Modified字段,给出了网页修改时间。下次请求网页时,发送头部If-None-Match加上ETag值,或者If-Modified-Since加上Last-Modified值。如果服务器支持条件GET请求,如果网页没有修改过则返回304 Unchanged响应。
getPage和downloadPage函数是很方便的,不过对于控制条件请求是不可用的。可以使用稍微低层次的HTTPClientFactory接口来实现。例子3-5演示了HTTPClientFactory测试网页是否更新。
from twisted.web import client
class HTTPStatusChecker(client.HTTPClientFactory):
    def __init__(self,url,headers=None):
        client.HTTPClientFactory.__init__(self,url,headers=headers)
        self.status=None
        self.deferred.addCallback(
            lambda data: (data,self.status,self.response_headers))
    def noPage(self,reason): #当返回非200响应时
        if self.status=='304' #页面未曾改变
            client.HTTPClientFactory.page(self,'')
        else:
            client.HTTPClientFactory.noPage(self,reason)
def checkStatus(url,contextFactory=None,*args,**kwargs):
    scheme,host,port,path=client._parse(url)
    factory=HTTPStatusChecker(url,*args,**kwargs)
    if scheme=='https':
        from twisted.internet import ssl
        if contextFactory is None:
            contextFactory=ssl.ClientContextFactory()
        reactor.connectSSL(host,port,factory,contextFactory)
    else:
        reactor.connectTCP(host,port,factory)
    return factory.deferred
def handleFirstResult(result,url):
    data,status,headers=result
    nextRequestHeaders={}
    eTag=headers.get('etag')
    if eTag:
        nextRequestHeaders['If-None-Match']=eTag[0]
    modified=headers.get('last-modified')
    if modified:
        nextRequestHeaders['If-Modified-Since']=modified[0]
    return checkStatus(url,headers=nextRequestHeaders).addCallback(
        handleSecondResult)
def handleSecondResult(result):
    data,status,headers=result
    print 'Second request returned status %s:'%status,
    if status=='200':
        print 'Page changed (or server does not support conditional request).'
    elif status=='304':
        print 'Page is unchanged.'
    else:
        print 'Unexcepted Response.'
    reactor.stop()
def handleError(failure):
    print 'Error',failure.getErrorMessage()
    reactor.stop()
if __name__=='__main__':
    import sys
    from twisted.internet import reactor
    url=sys.argv[1]
    checkStatus(url).addCallback(
        handleFirstResult,url).addErrback(
        handleError)
    reactor.run()
运行updatecheck.py脚本并传入URL作为首参数。它首先尝试下载WEB页面,使用条件GET。如果返回了304错误,则表示服务器未更新网页。常见的条件GET适用于静态文件,如RSS种子,但不可以是动态生成页面,如主页。
$ python updatecheck.py http://slashdot.org/slashdot.rss
Second request returned status 304: Page is unchanged
$ python updatecheck.py http://slashdot.org/
Second request returned status 200: Page changed
(or server does not support conditional requests).

3.4.2 它们如何做?

HTTPStatusChecker类是client.HTTPClientFactory的子类。它负责两件重要的事情。在初始化时使用lambda添加回调函数到self.deferred。这个匿名函数将会在结果传递到其他处理器之前截获self.deferred。这将会替换结果(已下载数据)为包含更多信息的元组:数据、HTTP状态码、self.response_headers,这是一个响应字段的字典。
HTTPStatusChecker也重载了noPage方法,就是由HTTPClientFactory调用的成功的响应码。如果响应码是304(未改变状态码),则noPage方法调用HTTPClientFactory.page替换原来的noPage方法,表示成功的响应。如果执行成功了,HTTPStatusChecker的noPage同样返回重载的HTTPClientFactory中的noPage方法。在这个时候,它提供了304响应来替换错误。
checkStatus函数需要一个被twisted.web.client._parse转换过的URL参数。它看起来像是URL的一部分,可以从中获取主机地址和使用HTTP/HTTPS协议(TCP/SSL)。下一步,checkStatus创建一个HTTPStatusChecker工厂对象,并打开连接。所有这些代码对twisted.web.client.getPage都是很简单的,(by gashero)并推荐使用修改过的HTTPStatusChecker工厂来代替HTTPClientFactory。
当updatecheck.py运行时,会调用checkStatus,设置handleFirstResult作为回调事件处理器,按照循序,第二次请求会使用If-None-Match或If-Modified-Since条件头字段,设置handleSecondResult作为回调函数处理器。handleSecondResult函数报告服务器是否返回304错误,然后停止反应器。
handleFirstResult实际上返回的是handleSecondResult的deferred结果。这允许printError,就是被指定给checkStatus的错误事件处理器,用于所有在第二次请求中调用checkStatus的其他错误。







3.5 监视下载进度

以上的例子暂时还没有办法监视下载进度。当然,Deferred可以在下载完成时返回结果,但有时你需要监视下载进度。

3.5.1 下面如何做?

再次,twisted.web.client没能提供足够的实用函数来控制进度。所以定义一个client.HTTPDownloader的子类,这个工厂类常用于下载网页到文件。通过重载一对方法,你可以保持对下载进度的跟踪。webdownload.py脚本是3-6例子,展示了如何使用:
from twisted.web import client
class HTTPProgressDownloader(client.HTTPDownloader):
    def gotHeaders(self,headers):
        if self.status=='200':
            if headers.has_key('content-length'):
                self.totalLength=int(headers['content-length'][0])
            else:
                self.totalLength=0
            self.currentLength=0.0
            print ''
        return client.HTTPDownloader.gotHeaders(self,headers)
    def pagePart(self,data):
        if self.status=='200':
            self.currentLength+=len(data)
            if self.totalLength:
                percent="%i%%"%(
                    (self.currentLength/self.totalLength)*100)
            else:
                percent="%dK"%(self.currentLength/1000)
                print "/033[1FProgress: "+percent
        return client.HTTPDownloader.pagePart(self,data)
def downloadWithProgress(url,file,contextFactory=None,*args,**kwargs):
    scheme,host,port,path=client._parse(url)
    factory=HTTPProgressDownloader(url,file,*args,**kwargs)
    if scheme=='https':
        from twisted.internet import ssl
        if contextFactory is None:
            contextFactory=ssl.ClientContextFactory()
        reactor.connectSSL(host,port,factory,contextFactory)
    else:
        reactor.connectTCP(host,port,factory)
    return factory.deferred
if __name__=='__main__':
    import sys
    from twisted.internet import reactor
    def downloadComplete(result):
        print "Download Complete."
        reactor.stop()
    def downloadError(failure):
        print "Error: ",failure.getErrorMessage()
        reactor.stop()
    url,outputFile=sys.argv[1:]
    downloadWithProgress(url,outputFile).addCallback(
        downloadComplete).addErrback(
        downloadError)
    reactor.run()
运行webdownload.py脚本并加上URL和存储文件名这两个参数。作为命令工作会打印出下载进度的更新。
$ python webdownload.py http://www.oreilly.com/ oreilly.html
Progress: 100% <- 下载过程中的更新
Download Complete.
如果WEB服务器并不返回Content-Length头字段,则无法计算下载进度。在这种情况下,webdownload.py打印已经下载的KB数量。
$ python webdownload.py http://www.slashdot.org/ slashdot.html
Progress: 60K <- 下载过程中更新
Download Complete.

3.5.2 它们如何工作?

HTTPProgressDownloader是client.HTTPDownloader的子类。重载了gotHeaders方法并检查Content-Length头字段用于计算下载总量。它还同时提供重载了pagePart方法,在每次接收到一块数据时发生,用来保持对下载量的跟踪。
每次有数据到达时,HTTPProgressDownloader打印进度报告。字符串/033[1F是一个终端控制序列,可以确保每次替换掉当前行。这个效果看起来可以在原位置更新。
downloadWithProgress函数包含了例子3-5中相同的代码用来转换URL,创建HTTPProgressDownloader工厂对象,并初始化连接。downloadComplete和downloadError是用于打印消息和停止反应器的简单回调函数。


 
  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值