python编写下载器可暂停_python多进程断点续传分片下载器

python多进程断点续传分片下载器

标签:python 下载器 多进程

因为爬虫要用到下载器,但是直接用urllib下载很慢,所以找了很久终于找到一个让我欣喜的下载器。他能够断点续传分片下载,极大提高下载速度。

#! /usr/bin/env python

# encoding=utf-8

from __future__ import unicode_literals

from multiprocessing.dummy import Pool as ThreadPool

import threading

import os

import sys

import cPickle

from collections import namedtuple

import urllib2

from urlparse import urlsplit

import time

# global lock

lock = threading.Lock()

# default parameters

defaults = dict(

thread_count=10,

buffer_size=500 * 1024,

block_size=1000 * 1024)

def progress(percent, width=50):

print "%s %d%%\r" % (('%%-%ds' % width) % (width * percent / 100 * '='), percent),

if percent >= 100:

print

sys.stdout.flush()

def write_data(filepath, data):

with open(filepath, 'wb') as output:

cPickle.dump(data, output)

def read_data(filepath):

with open(filepath, 'rb') as output:

return cPickle.load(output)

FileInfo = namedtuple('FileInfo', 'url name size lastmodified')

def get_file_info(url):

class HeadRequest(urllib2.Request):

def get_method(self):

return "HEAD"

res = urllib2.urlopen(HeadRequest(url))

res.read()

headers = dict(res.headers)

size = int(headers.get('content-length', 0))

lastmodified = headers.get('last-modified', '')

name = None

if headers.has_key('content-disposition'):

name = headers['content-disposition'].split('filename=')[1]

if name[0] == '"' or name[0] == "'":

name = name[1:-1]

else:

name = os.path.basename(urlsplit(url)[2])

return FileInfo(url, name, size, lastmodified)

def download(url, output,

thread_count=defaults['thread_count'],

buffer_size=defaults['buffer_size'],

block_size=defaults['block_size']):

# get latest file info

file_info = get_file_info(url)

# init path

if output is None:

output = file_info.name

workpath = '%s.ing' % output

infopath = '%s.inf' % output

# split file to blocks. every block is a array [start, offset, end],

# then each greenlet download filepart according to a block, and

# update the block' offset.

blocks = []

if os.path.exists(infopath):

# load blocks

_x, blocks = read_data(infopath)

if (_x.url != url or

_x.name != file_info.name or

_x.lastmodified != file_info.lastmodified):

blocks = []

if len(blocks) == 0:

# set blocks

if block_size > file_info.size:

blocks = [[0, 0, file_info.size]]

else:

block_count, remain = divmod(file_info.size, block_size)

blocks = [[i * block_size, i * block_size,

(i + 1) * block_size - 1] for i in range(block_count)]

blocks[-1][-1] += remain

# create new blank workpath

with open(workpath, 'wb') as fobj:

fobj.write('')

print 'Downloading %s' % url

# start monitor

threading.Thread(target=_monitor, args=(

infopath, file_info, blocks)).start()

# start downloading

with open(workpath, 'rb+') as fobj:

args = [(url, blocks[i], fobj, buffer_size)

for i in range(len(blocks)) if blocks[i][1] < blocks[i][2]]

if thread_count > len(args):

thread_count = len(args)

pool = ThreadPool(thread_count)

pool.map(_worker, args)

pool.close()

pool.join()

# rename workpath to output

if os.path.exists(output):

os.remove(output)

os.rename(workpath, output)

# delete infopath

if os.path.exists(infopath):

os.remove(infopath)

assert all([block[1] >= block[2] for block in blocks]) is True

def _worker((url, block, fobj, buffer_size)):

req = urllib2.Request(url)

req.headers['Range'] = 'bytes=%s-%s' % (block[1], block[2])

res = urllib2.urlopen(req)

while 1:

chunk = res.read(buffer_size)

if not chunk:

break

with lock:

fobj.seek(block[1])

fobj.write(chunk)

block[1] += len(chunk)

def _monitor(infopath, file_info, blocks):

while 1:

with lock:

percent = sum([block[1] - block[0]

for block in blocks]) * 100 / file_info.size

progress(percent)

if percent >= 100:

break

write_data(infopath, (file_info, blocks))

time.sleep(2)

if __name__ == '__main__':

import argparse

parser = argparse.ArgumentParser(description='多线程文件下载器.')

parser.add_argument('url', type=str, help='下载连接')

parser.add_argument('-o', type=str, default=None,

dest="output", help='输出文件')

parser.add_argument(

'-t', type=int, default=defaults['thread_count'], dest="thread_count", help='下载的线程数量')

parser.add_argument(

'-b', type=int, default=defaults['buffer_size'], dest="buffer_size", help='缓存大小')

parser.add_argument(

'-s', type=int, default=defaults['block_size'], dest="block_size", help='字区大小')

argv = sys.argv[1:]

if len(argv) == 0:

argv = ['https://eyes.nasa.gov/eyesproduct/EYES/os/win']

args = parser.parse_args(argv)

start_time = time.time()

download(args.url, args.output, args.thread_count,

args.buffer_size, args.block_size)

print '下载时间: %ds' % int(time.time() - start_time)

Python实现多线程HTTP下载器

本文将介绍使用Python编写多线程HTTP下载器,并生成.exe可执行文件. 环境:windows/Linux + Python2.7.x 单线程 在介绍多线程之前首先介绍单线程.编写单线程的思路为 ...

python的内置下载器

python有个内置下载器,有时候在内部提供文件下载很好用. 进入提供下载的目录 # ls abc.aaa chpw.py finance.py lsdir.py ping.py u2d-partia ...

Python 多进程 一分钟下载二百张图片 是什么样子的体验

需要爬取国内某个网站,但是这个网站封ip,没办法,只能用代理了,然后构建自己的代理池,代理池维护了20条进程, 所用的网络是20M带宽,实际的网速能达到2.5M,考虑到其他原因,网速未必能达到那么多. ...

Android通用简洁的下载器

下载逻辑在android开发中可谓很常见,那么封装一个通用简洁的下载器时很有必要的.如果不想给工程引入一个很重的jar包那么可以直接复用下面的代码即可. 主要对外接口 构造函数 :     publi ...

基于iOS 10、realm封装的下载器

代码地址如下:http://www.demodashi.com/demo/11653.html 概要 在决定自己封装一个下载器前,我本以为没有那么复杂,可在实际开发过程中困难重重,再加上iOS10和X ...

用python实现的百度音乐下载器-python-pyqt-改进版

之前写过一个用python实现的百度新歌榜.热歌榜下载器的博文,实现了百度新歌.热门歌曲的爬取与下载.但那个采用的是单线程,网络状况一般的情况下,扫描前100首歌的时间大概得到40来秒.而且用Pyqt ...

用 python 实现一个多线程网页下载器

今天上来分享一下昨天实现的一个多线程网页下载器. 这是一个有着真实需求的实现,我的用途是拿它来通过 HTTP 方式向服务器提交游戏数据.把它放上来也是想大家帮忙挑刺,找找 bug,让它工作得更好. k ...

【图文详解】python爬虫实战——5分钟做个图片自动下载器

python爬虫实战——图片自动下载器 之前介绍了那么多基本知识[Python爬虫]入门知识,(没看的先去看!!)大家也估计手痒了.想要实际做个小东西来看看,毕竟: talk is cheap sho ...

Python实战:美女图片下载器,海量图片任你下载

Python应用现在如火如荼,应用范围很广.因其效率高开发迅速的优势,快速进入编程语言排行榜前几名.本系列文章致力于可以全面系统的介绍Python语言开发知识和相关知识总结.希望大家能够快速入门并学习 ...

随机推荐

VS2013编译google protobuf 出现问题error C3861&colon; &OpenCurlyDoubleQuote;min”&colon;

问题描述: 今天用vs2013编译protobuf 2.4.1 报错: 错误 3 error C3861: "max": 找不到标识符 f:\google\protobuf\pro ...

ubuntu 下安装 cx&lowbar;Oracle库

1.下载3个zip包: 下载地址:http://www.oracle.com/technetwork/database/features/instant-client/index-097480.htm ...

I&sol;O Directory类

Directory类 Directory类位于System.IO 命名空间.Directory类提供了在目录和子目录中进行创建移动和列举操作的静态方法.此外,你还可以访问和操作各种各样的目录属性. 1 ...

PHP&period;5-DIV&plus;CSS布局网站首页实例

DIV+CSS布局网站首页实例 网站页面布局 http://www.sj33.cn/digital/wyll/201501/42379.html[页头.页脚.侧边栏和内容区域] #避免各浏览器对CSS ...

mongo db安装和php,python插件安装

安装mongodb 1.下载,解压mongodb(下载解压目录为/opt) 在/opt目录下执行命令 wget fastdl.mongodb.org/linux/mongodb-linux-x86_6 ...

同一时候使用windows和linux系统

相信非常多人又想使用方便的windows,可是在开发中必须使用linux,怎样选择呢? 没关系,这里教你怎样制作双系统. 下载wubi,仅仅有几兆大,直接在windows下安装,安装好以后,双系统就制 ...

postgresql 在linux上的源码安装

http://my.oschina.net/hippora/blog/375292 下载源码并解压 [root@fnddb ~]# wget https://ftp.postgresql.org/pu ...

机器学习:Python中如何使用支持向量机&lpar;SVM&rpar;算法

(简单介绍一下支持向量机,详细介绍尤其是算法过程可以查阅其他资) 在机器学习领域,支持向量机SVM(Support Vector Machine)是一个有监督的学习模型,通常用来进行模式识别.分类(异 ...

UGUI的text赋值问题-速度

仅是简单的给一个ugui.text组件不断的赋值字符串,就会带来很高的CPU消耗,约0.5MS左右. 这个过程主要是消耗在字体的MESH顶点重建. 在游戏中变化的字体一般不多,聊天面板虽然变化,刷新率 ...

转&colon;解决windows下eclipse中android项目关联android library project失败问题

近日,在做一个人人的第三方小项目.打算直接使用renren 的sdk 进行开发.因为renren的sdk是以android library project 形式发布的(关于这种project的内容可以 ...

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值