进程池&线程池原理及应用


一般我们是通过动态创建子进程(或子线程)来实现并发服务器的,但是会存在这样一些缺点:
1、动态创建进程(或线程)比较耗费时间,这将导致较慢的服务器响应。
2、动态创建的子进程通常只用来为一个客户服务,这样导致了系统上产生大量的细微进程(或线程)。进程和线程间的切换将消耗大量CPU时间。
3、动态创建的子进程是当前进程的完整映像,当前进程必须谨慎的管理其分配的文件描述符和堆内存等系统资源,否则子进程可能复制这些资源,从而使系统的可用资源急剧下降,进而影响服务器的性能。
所以呢,就引入了进程池与线程池的概念。
————————————————————————————————————————————————–
进程池与线程池原理相似,以线程池为例来说明
线程池的作用:有效的降低频繁创建销毁线程所带来的额外开销。
线程池的原理:线程池都是采用预创建的技术,在应用启动之初便预先创建一定数目的线程。应用在运行的过程中,需要时可以从这些线程所组成的线程池里申请分配一个空闲的线程,来执行一定的任务,任务完成后,并不是将线程销毁,而是将它返还给线程池,由线程池自行管理。如果线程池中预先分配的线程已经全部分配完毕,但此时又有新的任务请求,则线程池会动态的创建新的线程去适应这个请求。当然,有可能,某些时段应用并不需要执行很多的任务,导致了线程池中的线程大多处于空闲的状态,为了节省系统资源,线程池就需要动态的销毁其中的一部分空闲线程。因此,线程池都需要一个管理者,按照一定的要求去动态的维护其中线程的数目。
选择子线程为新客户服务的方式:
1、主线程使用某种算法来主动选择子线程。最简单、最常用的算法是随机算法和Round Robin(轮流算法);
2、主线程和所有子线程通过一个共享的工作队列来实现同步:子线程都睡眠在该工作队列上,当有新的任务到来时,主线程将任务添加到工作队列中。这将唤醒正在等待任务的子线程,不过只有一个子线程将获得新任务的“接管权”,它可以从工作队列中取出任务并执行之,而其他子线程将继续睡眠在工作队列上。
3、当选择好子线程后,主线程程还需要使用某种通知机制来告诉目标子线程有新任务需要处理,并传递必要的数据。我们可以把这些数据定义为全局,那么它们本身就是被所有线程共享的。对于进程池而言,最简单的方式是,在父进程和子进程之间预先建立好一条管道,然后通过管道来实现所有的进程间通信。
线程池主要用于:
1、需要大量的线程来完成任务,且完成任务的时间比较短。 Web服务器完成网页请求这样的任务,使用线程池技术是非常合适的。因为单个任务小,而任务数量巨大,一个热门网站的点击次数会很多。
但对于长时间的任务,比如一个Telnet连接请求,线程池的优点就不明显了。因为Telnet会话时间比线程的创建时间大多了。
2、对性能要求苛刻的应用,比如要求服务器迅速响应客户请求。
3、接受突发性的大量请求,但不至于使服务器因此产生大量线程的应用。
————————————————————————————————————————————————–
通过一个线程池的例子来进一步理解:

//线程池里所有运行和等待的任务都是一个CThread_worker *由于所有任务都在链表里,所以是一个链表结构  
typedef struct worker  
{  
    void *(*process) (void *arg);//回调函数,任务运行时会调用此函数,注意也可声明成其它形式
    void *arg;//回调函数的参数 
    struct worker *next;  
} CThread_worker;    
//线程池结构
typedef struct  
{  
    pthread_mutex_t queue_lock;  
    pthread_cond_t queue_ready;  
    CThread_worker *queue_head;//链表结构,线程池中所有等待任务  
    int shutdown; //是否销毁线程池 
    pthread_t *threadid;    
    int max_thread_num; //线程池中允许的活动线程数目 
    int cur_queue_size;//当前等待队列的任务数目   
} CThread_pool;  
int pool_add_worker (void *(*process) (void *arg), void *arg);  
void *thread_routine (void *arg);  
//share resource  
static CThread_pool *pool = NULL;  
void  pool_init (int max_thread_num)  
{  
    pool = (CThread_pool *) malloc (sizeof (CThread_pool));  
    pthread_mutex_init (&(pool->queue_lock), NULL);  
    pthread_cond_init (&(pool->queue_ready), NULL);  
    pool->queue_head = NULL;  
    pool->max_thread_num = max_thread_num;  
    pool->cur_queue_size = 0;  
    pool->shutdown = 0;  
    pool->threadid = (pthread_t *) malloc (max_thread_num * sizeof (pthread_t));  
    int i = 0;  
    for (i = 0; i < max_thread_num; i++)  
    {   
        pthread_create (&(pool->threadid[i]), NULL, thread_routine,NULL);  
    }  
}  
//向线程池中加入任务 
int  pool_add_worker (void *(*process) (void *arg), void *arg)  
{  
    CThread_worker *newworker = (CThread_worker *) malloc (sizeof (CThread_worker));   //构造一个新任务  
    newworker->process = process;  
    newworker->arg = arg;  
    newworker->next = NULL;
    pthread_mutex_lock (&(pool->queue_lock));  
    CThread_worker *member = pool->queue_head;//将任务加入到等待队列中
    if (member != NULL)  
    {  
        while (member->next != NULL)  
        member = member->next;  
        member->next = newworker;  
    }  
    else  
    {  
        pool->queue_head = newworker;  
    }  
    assert (pool->queue_head != NULL);  
    pool->cur_queue_size++;  
    pthread_mutex_unlock (&(pool->queue_lock));  
    //等待队列中有任务了,唤醒一个等待线程;注意如果所有线程都在忙碌,这句没有任何作用  
    pthread_cond_signal (&(pool->queue_ready));  
    return 0;  
}  
//销毁线程池,等待队列中的任务不会再被执行,但是正在运行的线程会一直 
把任务运行完后再退出
int  pool_destroy ()  
{  
    if (pool->shutdown)  
        return -1;//防止两次调用
    pool->shutdown = 1;  
    //唤醒所有等待线程,线程池要销毁了
    pthread_cond_broadcast (&(pool->queue_ready));  
    //阻塞等待线程退出,否则就成僵尸了
    int i;  
    for (i = 0; i < pool->max_thread_num; i++)  
        pthread_join (pool->threadid[i], NULL);  
    free (pool->threadid);  
    //销毁等待队列 
    CThread_worker *head = NULL;  
    while (pool->queue_head != NULL)  
    {  
        head = pool->queue_head;  
        pool->queue_head = pool->queue_head->next;  
        free (head);  
    }  
    //条件变量和互斥量也别忘了销毁 
    pthread_mutex_destroy(&(pool->queue_lock));  
    pthread_cond_destroy(&(pool->queue_ready));     
    free (pool);  
    pool=NULL;  //销毁后指针置空  
    return 0;  
}  
void *  thread_routine (void *arg)  
{  
    printf ("starting thread 0x%x\n", pthread_self ());  
    while (1)  
    {  
        pthread_mutex_lock (&(pool->queue_lock));  
        //如果等待队列为0并且不销毁线程池,则处于阻塞状态; 注意pthread_cond_wait是一个原子操作,等待前会解锁,唤醒后会加锁 
        while (pool->cur_queue_size == 0 && !pool->shutdown)  
        {  
            printf ("thread 0x%x is waiting\n", pthread_self ());  
            pthread_cond_wait (&(pool->queue_ready), &(pool->queue_lock));  
        }  
        //线程池要销毁了
        if (pool->shutdown)  
        {  
            //遇到break,continue,return等跳转语句,千万不要忘记先解锁  
            pthread_mutex_unlock (&(pool->queue_lock));  
            printf ("thread 0x%x will exit\n", pthread_self ());  
            pthread_exit (NULL);  
        }  
        printf ("thread 0x%x is starting to work\n", pthread_self ());  
        assert (pool->cur_queue_size != 0);  
        assert (pool->queue_head != NULL);  
        //等待队列长度减去1,并取出链表中的头元素
        pool->cur_queue_size--;  
        CThread_worker *worker = pool->queue_head;  
        pool->queue_head = worker->next;  
        pthread_mutex_unlock (&(pool->queue_lock));  
        //调用回调函数,执行任务 
        (*(worker->process)) (worker->arg);  
        free (worker);  
        worker = NULL;  
    }  
    //这一句应该是不可达的 
    pthread_exit (NULL);  
}  

//测试   
void *  myprocess (void *arg)  
{  
    printf ("threadid is 0x%x, working on task %d\n", pthread_self (),*(int *) arg);  
    sleep (1);//休息一秒,延长任务的执行时间 
    return NULL;  
} 
int  main (int argc, char **argv)  
{  
    pool_init (3);//线程池中最多三个活动线程    
    //连续向池中投入10个任务
    int *workingnum = (int *) malloc (sizeof (int) * 10);  
    int i;  
    for (i = 0; i < 10; i++)  
    {  
        workingnum[i] = i;  
        pool_add_worker (myprocess, &workingnum[i]);  
    }  
    //等待所有任务完成  
    sleep (5);  
    //销毁线程池  
    pool_destroy ();   
    free (workingnum);  
    return 0;  
}  

这里写图片描述

  • 1
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
龙果 java并发编程原理实战 第2节理解多线程与并发的之间的联系与区别 [免费观看] 00:11:59分钟 | 第3节解析多线程与多进程的联系以及上下文切换所导致资源浪费问题 [免费观看] 00:13:03分钟 | 第4节学习并发的四个阶段并推荐学习并发的资料 [免费观看] 00:09:13分钟 | 第5节线程的状态以及各状态之间的转换详解00:21:56分钟 | 第6节线程的初始化,中断以及其源码讲解00:21:26分钟 | 第7节多种创建线程的方式案例演示(一)带返回值的方式00:17:12分钟 | 第8节多种创建线程的方式案例演示(二)使用线程池00:15:40分钟 | 第9节Spring对并发的支持:Spring的异步任务00:11:10分钟 | 第10节使用jdk8提供的lambda进行并行计算00:14:22分钟 | 第11节了解多线程所带来的安全风险00:13:16分钟 | 第12节从线程的优先级看饥饿问题00:18:42分钟 | 第13节从Java字节码的角度看线程安全性问题00:25:43分钟 | 第14节synchronized保证线程安全的原理(理论层面)00:13:59分钟 | 第15节synchronized保证线程安全的原理(jvm层面)00:25:03分钟 | 第16节单例问题与线程安全性深入解析00:27:15分钟 | 第17节理解自旋锁,死锁与重入锁00:24:58分钟 | 第18节深入理解volatile原理与使用00:28:30分钟 | 第19节JDK5提供的原子类的操作以及实现原理00:27:10分钟 | 第20节Lock接口认识与使用00:19:54分钟 | 第21节手动实现一个可重入锁00:26:31分钟 | 第22节AbstractQueuedSynchronizer(AQS)详解00:49:04分钟 | 第23节使用AQS重写自己的锁00:31:04分钟 | 第24节重入锁原理与演示00:12:24分钟 | 第25节读写锁认识与原理00:18:04分钟 | 第26节细读ReentrantReadWriteLock源码00:30:38分钟 | 第27节ReentrantReadWriteLock锁降级详解00:13:32分钟 | 第28节线程安全性问题简单总结00:15:34分钟 | 第29节线程之间的通信之wait/notify00:32:12分钟 | 第30节通过生产者消费者模型理解等待唤醒机制00:20:50分钟 | 第31节Condition的使用及原理解析00:17:40分钟 | 第32节使用Condition重写wait/notify案例并实现一个有界队列00:22:05分钟 | 第33节深入解析Condition源码00:21:15分钟 | 第34节实战:简易数据连接00:24:53分钟 | 第35节线程之间通信之join应用与实现原理剖析00:10:17分钟 | 第36节ThreadLocal 使用及实现原理00:17:41分钟 | 第37节并发工具类CountDownLatch详解00:22:04分钟 | 第38节并发工具类CyclicBarrier 详解00:11:52分钟 | 第39节并发工具类Semaphore详解00:17:27分钟 | 第40节并发工具类Exchanger详解00:13:47分钟 | 第41节CountDownLatch,CyclicBarrier,Semaphore源码解析00:29:57分钟 | 第42节提前完成任务之FutureTask使用00:11:43分钟 | 第43节Future设计模式实现(实现类似于JDK提供的Future)00:19:20分钟 | 第44节Future源码解读00:29:22分钟 | 第45节Fork/Join框架详解00:28:09分钟 | 第46节同步容器与并发容器00:18:44分钟 | 第47节并发容器CopyOnWriteArrayList原理与使用00:15:52分钟 | 第48节并发容器ConcurrentLinkedQueue原理与使用00:31:03分钟 | 第49节Java中的阻塞队列原理与使用00:26:18分钟 | 第50节实战:简单实现消息队列00:11:07分钟 | 第51节并发容器ConcurrentHashMap原理与使用00:38:22分钟 | 第52节线程池原理与使用00:42:49分钟 | 第53节Executor框架详解00:36:54分钟 | 第54节实战:简易web服务器(一)00:55:34分钟 | 第55节实战:简易web服务器(二)00:24:36分钟 | 第56节JDK8的新增原子操作类LongAddr原理与使用00:17:45分钟 | 第57节JDK8新增锁StampedLock详解00:29:37分钟 | 第58节重排序问题00:23:19分钟 | 第59节happens-before简单概述00:15:17分钟 | 第60节锁的内存语义00:13:54分钟 | 第61节volatile内存语义00:12:04分钟 | 第62节final域的内存语义00:34:07分钟 | 第63节实战:问题定位00:07:48分钟
Python中的进程线程池是用来进行并发处理任务的工具。进程是在一个子中放入固定数量的进程,当有任务到达时,就从子中拿一个进程来处理任务,处理完毕后再放回子中等待任务。进程的数量是固定的,因此同一时间最多有固定数量的进程在运行。这样可以避免增加操作系统的调度难度,并节省开闭进程的时间,实现并发效果。 在Python中,可以使用`concurrent.futures`模块中的`ProcessPoolExecutor`类来创建进程。通过实例化`ProcessPoolExecutor`类,可以获得一个指定大小的进程。例如,可以使用以下代码实例化一个进程并指定大小为整数`n`: ``` from concurrent.futures import ProcessPoolExecutor pool = ProcessPoolExecutor(n) ``` 其中`n`是进程的大小,即进程的数量。 线程池进程原理类似,不同之处在于线程池是在一个子中放入固定数量的线程来处理任务。线程池的使用方式也类似,可以使用`concurrent.futures`模块中的`ThreadPoolExecutor`类来创建线程池,并指定大小。线程池的使用和进程类似,都是从子中获取线程或进程来处理任务。&lt;span class=&quot;em&quot;&gt;1&lt;/span&gt;&lt;span class=&quot;em&quot;&gt;2&lt;/span&gt;&lt;span class=&quot;em&quot;&gt;3&lt;/span&gt; #### 引用[.reference_title] - *1* *2* *3* [Python--进程线程池](https://blog.csdn.net/weixin_43988680/article/details/124284555)[target=&quot;_blank&quot; data-report-click={&quot;spm&quot;:&quot;1018.2226.3001.9630&quot;,&quot;extra&quot;:{&quot;utm_source&quot;:&quot;vip_chatgpt_common_search_pc_result&quot;,&quot;utm_medium&quot;:&quot;distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_1&quot;}}] [.reference_item style=&quot;max-width: 100%&quot;] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值