网页下载器

概    念:可以将URL指定的网页下载下来,存储城一个字符串,这个字符串 会传给网页解析器。

网页下载器需要实现的函数:

 #传进来一个要下载的URl
    def download(self,url):
        if url is None:
            return None;
        response=urllib2.urlopen(url);
        # 获取请求值
        if response.getcode()!=200:
            return None;
        else:
            #返回html字符串
            return response.read() 

问题
1.什么是网页下载器。
2.编写网页下载器需要注意什么。
3.自己编写一个网页下载器。


答案
1.网页下载器概念:可以将URL指定的网页下载下来,存储城一个字符串,这个字符串会传给网页解析器
2.需要判断传递过来的URL是否为空,如果为空,则返回node
3.
#!/user/bin/env python
# _*_ coding:utf-8 _*_
#HTML下载器
import urllib2
class HtmlDownloader():


    #传进来一个要下载的URl
    def download(self,url):
        #如果url为空,则返回空
        if url is None:
            return None;
        response=urllib2.urlopen(url);
        # 获取请求值
        if response.getcode()!=200:
            return None;
        else:
            #返回html字符串
            return response.read()





  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
一款可以复制别人开区网站的软件,输入地址即可下载整个网站源码程序,php asp 之类的动态程序无法下载。只能下载html htm 的静态页面文件! Teleport Ultra 所能做的,不仅仅是离线浏览某个网页,它可以从 Internet 的任何地方抓回你想要的任何文件。 它可以在你指定的时间自动登录到你指定的网站下载你指定的内容,你还可以用它来创建某个网站的完整的镜象,作为创建你自己的网站的参考。 可以简单快速保存你所喜欢的网页,是仿制网站的利! 如果遇到屏蔽了浏览保存网页,那么用网页整站下载是一种很理想的办法。 使用网页整站下载保存网页就简单多了,软件会自动保存所有的页面,但有时候由于软件功能过于强大,会导致很多不必要的代码、图片、js文件都一并保存到网页中 eleport Ultra 支持计划任务,定时到指定网站下载指定的内容,经由其保存的网站,保持源站点了的 CSS 样式、脚本功能,超链接也都替换为本地链接以方便浏览。 Teleport Ultra 实际就是一个网络蜘蛛(网络机人),自动从网络撷取特定的资料。使用它可以在本地创建完整的网站镜像或副本,共有6种工作模式: 1) 在硬盘中创建一个可浏览的网站副本; 2) 复制一个网站,包括网站的目录结构; 3) 在一个网站中搜索指定的文件类型; 4) 从一个中心站点探测每一个链接的站点; 5) 在已知地址下载一个或多个文件; 6) 在一个网站中搜索指定的关键字。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

飞飞翼

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值