python爬虫用多线程还是多进程_爬虫进阶Python多线程和多进程

Python多线程,thread标准库。都说Python的多线程是鸡肋,推荐使用多进程。

Python为了安全考虑有一个GIL。每个CPU在同一时间只能执行一个线程

GIL的全称是Global Interpreter Lock(全局解释器锁),就相当于通行证,每一次线程会先要去申请通行证,通行证申请下来了,才能进入CPU执行。

每个线程的执行方式:1、获取GIL

2、执行代码直到sleep或者是python虚拟机将其挂起。

3、释放GIL

每次释放GIL锁,线程进行锁竞争、切换线程,会消耗资源。并且由于GIL锁存在,python里一个进程永远只能同时执行一个线程(拿到GIL的线程才能执行),这就是为什么在多核CPU上,python的多线程效率并不高。

下面使用多线程加队列做的一个demo。爬取的是笔趣阁的小说,只是做了一个打印,没有做具体的保存。爬取用的selenium。Chrome的无头模式。有点慢,可以直接用库,或者跑整站的话用scrapy.

使用Threading模块创建线程,直接从threading.Thread继承,然后重写init方法和run方法:

线程同步

如果多个线程共同对某个数据修改,则可能出现不可预料的结果,为了保证数据的正确性,需要对多个线程进行同步。

使用Thread对象的Lock和Rlock可以实现简单的线程同步,这两个对象都有acquire方法和release方法,对于那些需要每次只允许一个线程操作的数据,可以将其操作放到acquire和release方法之间。如下:

多线程的优势在于可以同时运行多个任务(至少感觉起来是这样)。但是当线程需要共享数据时,可能存在数据不同步的问题。

考虑这样一种情况:一个列表里所有元素都是0,线程”set”从后向前把所有元素改成1,而线程”print”负责从前往后读取列表并打印。

那么,可能线程”set”开始改的时候,线程”print”便来打印列表了,输出就成了一半0一半1,这就是数据的不同步。为了避免这种情况,引入了锁的概念。

锁有两种状态——锁定和未锁定。每当一个线程比如”set”要访问共享数据时,必须先获得锁定;如果已经有别的线程比如”print”获得锁定了,那么就让线程”set”暂停,也就是同步阻塞;等到线程”print”访问完毕,释放锁以后,再让线程”set”继续。

经过这样的处理,打印列表时要么全部输出0,要么全部输出1,不会再出现一半0一半1的尴尬场面。

线程优先级队列

Python的Queue模块中提供了同步的、线程安全的队列类,包括FIFO(先入先出)队列Queue,LIFO(后入先出)队列LifoQueue,和优先级队列PriorityQueue。这些队列都实现了锁原语,能够在多线程中直接使用。可以使用队列来实现线程间的同步。

Queue模块中的常用方法:Queue.qsize() 返回队列的大小

Queue.empty() 如果队列为空,返回True,反之False

Queue.full() 如果队列满了,返回True,反之False

Queue.full 与 maxsize 大小对应

Queue.get([block[, timeout]])获取队列,timeout等待时间

Queue.get_nowait() 相当Queue.get(False)

Queue.put(item) 写入队列,timeout等待时间

Queue.put_nowait(item) 相当Queue.put(item, False)

Queue.task_done() 在完成一项工作之后,Queue.task_done()函数向任务已经完成的队列发送一个信号

Queue.join() 实际上意味着等到队列为空,再执行别的操作import queue

import threading

from selenium import webdriver

from selenium.webdriver.chrome.options import Options

exitFlag = 0

q = queue.Queue()

chrome_options = Options()

chrome_options.add_argument('--headless')

class scrapy_biquge():

def get_url(self):

browser = webdriver.Chrome(chrome_options=chrome_options)

browser.get('http://www.xbiquge.la/xuanhuanxiaoshuo/')

content = browser.find_element_by_class_name("r")

content = content.find_elements_by_xpath('//ul/li/span[@class="s2"]/a')

for i in content:

title = i.text

href = i.get_attribute('href')

print(title+'+'+href)

q.put(title+'+'+href)

browser.close()

browser.quit()

class myThread (threading.Thread): # 继承父类threading.Thread

def __init__(self, threadID, name, counter):

threading.Thread.__init__(self)

self.threadID = threadID

self.name = name

self.counter = counter

def run(self): #把要执行的代码写到run函数里面 线程在创建后会直接运行run函数

print(self.name)

while not exitFlag:

queueLock.acquire()

if not q.empty():

item = q.get()

queueLock.release()

title = item.split('+')[0]

href = item.split('+')[1]

get_content(title, href)

else:

print('数据全部结束')

queueLock.release()

def get_content(title, href):

browser = webdriver.Chrome(chrome_options=chrome_options)

browser.get(href)

browser.find_element_by_id('list')

novel_content = browser.find_elements_by_xpath('//dl/dd/a')

for novel in novel_content:

novel_dir = novel.text

novel_dir_href = novel.get_attribute('href')

print(title, novel_dir, novel_dir_href)

browser.close()

browser.quit()

if __name__ == '__main__':

# 所有url进队列以后,启动线程

scrapy_biquge().get_url()

threadList = ["Thread-1", "Thread-2", "Thread-3"]

queueLock = threading.Lock()

threads = []

threadID = 1

# 创建新线程

for tName in threadList:

thread = myThread(threadID, tName, q)

thread.start()

threads.append(thread)

threadID += 1

# 等待队列清空

while not q.empty():

pass

# 通知线程是时候退出

exitFlag = 1

# 等待所有线程完成

for t in threads:

t.join()

print("Exiting Main Thread")

上面的例子用了FIFO队列。当然你也可以换成其他类型的队列.

LifoQueue后进先出

Priority Queue优先队列

Python多进程,multiprocessing,下次使用多进程跑这个代码。

参考: https://cuiqingcai.com/3325.html

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值