python 多进程共享变量

原创 2015年11月19日 11:31:05

现在要读取多个数据文件从中抽取数据将结果合并(相当于word count)


方法一是常规的分多线程分别处理数据输出,最后定义一个字典遍历输出文件将结果集合并

方法二是先定义结果集字典,然后多线程处理数据,放入字典的时候加上同步锁


以为方法二会比方法一快的多 因为省去了大量的IO,只在合并结果的时候加锁

然而测试之后发现同步锁反而是最大的瓶颈


测试20W数据,抽取某个字段开16线程跑,方法一用了10s,方法二用了55s

这差距也太大了……天


所以还是老老实实放弃多线程同步共享变量把 性能太差


python 多线程 加锁同步 共享变量的代码如下

#!/usr/bin/env python
#-*- coding: utf-8 -*-

import sys
reload(sys)
sys.setdefaultencoding('utf-8')

import MySQLdb
import re
import multiprocessing
import os
import traceback

import jieba
import ConfigParser
import datetime
import json
import logging

def myprocess(num,indir,titles,lock):
		
	try:
		fin = open(indir + os.sep + str(num),'r')
		cnt0 = 0
		for line in fin:
			cnt0 += 1
			if cnt0 %100 == 0:
				print num,cnt0
			if cnt0 == 10000:
				break
			data = eval(line.strip())
			us_id = int(data[21])
			title = data[8]
			if title.strip() == '':
				continue
			with lock:
				if title in titles:
					titles[title].append(us_id) 
				else:
					titles[title]=[us_id]
		print num,'END'
				
	except Exception,e:
		traceback.print_exc()

def func():
	indir = '/root/data/bids/data_all'
	outdir = './titles1119'
	#if not os.path.exists(outdir):
	#	os.mkdir(outdir)
	start,end,add = 0,20,1
	manager = multiprocessing.Manager()
	lock = manager.Lock()
	titles = manager.dict()
	#开启进程池
	pool = multiprocessing.Pool(processes = 16)	
	for num in range(start,end,add):
		pool.apply_async(myprocess,[num,indir,titles,lock])
	pool.close()
	pool.join()
	titles = dict(titles)
	with open(outdir,'w') as fout:
		for title in titles:
			print >> fout,'%s\t%s'%(title,titles[title])
			if len(titles[title])>1:
				print titles[title]

if __name__ == '__main__':
	program = os.path.basename(sys.argv[0])
	logger = logging.getLogger(program)
	logging.basicConfig(format='%(asctime)s: %(levelname)s: %(message)s',filename = program+'.log',filemode='a')
	logging.root.setLevel(level=logging.INFO)
	logger.info("start running %s" % ' '.join(sys.argv))
	func()
	logger.info("end\t running %s" % ' '.join(sys.argv))




相关文章推荐

Python中多进程之间的数据共享

Python中多进程之间的数据共享 发表于 2016-07-24 | 分类于 Python | 0 | 阅读次数 387 多进程中,每个进程都是独立的,各自持有一份数...

Python多线程下的全局变量、局部变量

Python多线程下的全局变量、局部变量 最近开发一个新功能遇到一个问题,就是在一个A.py文件生成2个线程,调用B.py里的函数,B.py里面有若干global定义全局变量,导致程序得不到想要的结果...

python:线程的使用、线程共享全局变量、列表作为参数(全局变量)、避免全局变量被修改

进程是资源分布的单元 线程是进程中真正执行代码的 进程运行起来,会有一个主线程进行运行  父子线程:相互独立运行,当所有的子线程执行完后,主线程才执行完 下面这个程序就是一个线程 #...

Python中使用多进程来实现并行处理

进程和线程是计算机软件领域里很重要的概念,进程和线程有区别,也有着密切的联系,先来辨析一下这两个概念: 1.定义 进程是具有一定独立功能的程序关于某个数据集合上的一次运...
  • yishui99
  • yishui99
  • 2016年11月14日 14:16
  • 11135

python 进程间共享数据 (二)

Python中进程间共享数据,除了基本的queue,pipe和value+array外,还提供了更高层次的封装。使用multiprocessing.Manager可以简单地使用这些高级接口。  ...

Python 学习笔记 多进程 multiprocessing

Python 解释器有一个全局解释器锁(PIL),导致每个 Python 进程中最多同时运行一个线程,因此 Python 多线程程序并不能改善程序性能,不能发挥多核系统的优势,可以通过这篇文章了解。 ...

python多进程共享变量Value使用tips

前言:   在使用tornado的多进程时,需要多个进程共享一个状态变量,于是考虑使用multiprocessing.Value(对于该变量的具体细节请查阅相关资料)。在根据网上资料使用Valu...

multiprocessing在python中的高级应用-共享数据与同步

通常,进程之间彼此是完全孤立的,唯一的通信方式是队列或管道。但可以使用两个对象来表示共享数据。其实,这些对象使用了共享内存(通过mmap模块)使访问多个进程成为可能。Value( typecode, ...

Android Volley完全解析(三),定制自己的Request

转载请注明出处:http://blog.csdn.net/guolin_blog/article/details/17612763 经过前面两篇文章的学习,我们已经掌握了Volley各种Request...

dll和exe的共享节------多进程共享dll/exe全局变量

dll和exe的共享节------多进程共享dll/exe全局变量 分类: windows编程 C++2013-08-25 22:45 379人阅读 评论(0) 收藏 举报 exe...
  • pi9nc
  • pi9nc
  • 2014年04月08日 09:47
  • 3731
内容举报
返回顶部
收藏助手
不良信息举报
您举报文章:python 多进程共享变量
举报原因:
原因补充:

(最多只允许输入30个字)