Linux线程安全

Linux线程互斥

进程线程间的互斥相关背景概念

  • 临界资源: 多线程执行流共享的资源就叫做临界资源
  • 临界区: 每个线程内部,访问临界资源的代码,就叫做临界区
  • 互斥: 任何时刻,互斥保证有且只有一个执行流进入临界区,访问临界资源,通常对临界资源起保护作用
  • 原子性: 不会被任何调度机制打断的操作,该操作只有两态,要么完成,要么未完成

下面模拟一个抢票系统,将总票数设计为全局变量,同时创建五个线程,让其抢票,当票被抢完后线程退出。

#include<stdio.h>
#include<unistd.h>
#include<pthread.h>

// 模拟抢票逻辑
int tickets=1000;// 临界资源

// tickets--,抢到了一张票
void* Route(void* args)
{
        while(1){
        		// 临界区
                if(tickets>0){
                        usleep(10000);// usleep来模拟抢票时间                        
                        printf("0x%x: get a ticket : %d\n",pthread_self(),tickets);
                        tickets--;
                }
                else{   
                        break;
                }
        }
        printf("0x%x:quit,tickets: %d\n",(int)pthread_self(),tickets);
        
        return NULL;
}

int main()
{
#define NUM 5
        pthread_t nums[NUM];
        for(int i=0;i<NUM;i++){
                pthread_create(nums+i,NULL,Route,NULL);
        }
        for(int i=0;i<NUM;i++){
                pthread_join(nums[i],NULL);
        }
        return 0;
 }

运行后我们发现竟然出现了负数

在这里插入图片描述
代码中记录剩余票数的变量tickets就是临界资源,因为它被多个执行流同时访问,而判断tickets是否大于0、打印剩余票数以及–tickets这些代码就是临界区,因为这些代码对临界资源进行了访问。

为什么票数会出现负数的情况呢?

当if语句判断条件为真以后,代码可以并发的切换到其他线程。在一个线程进入休眠状态(unsleep)时可能会有其他线程进入该代码段。还有一点就是 - - tickets操作不是原子操作。

为什么–ticket不是原子操作?

我们对一个变量进行–,我们实际需要进行以下三个步骤:

  1. 将共享变量tickets从内存加载到CPU相关寄存器中。
  2. 在CPU内存中执行 - - (或++)操作。
  3. 将递减/递增完毕的值写会内存。

在这里插入图片描述
当执行- - 操作时,可能thread1刚把tickets的值读进CPU进行 - - 操作即刚完成步骤二,就被切走了,相当于从CPU上剥离下来,此时数据999被保存在上下文中。

在这里插入图片描述

与此同时hread2被调度了,由于thread1只进行了前两步操作,因此thread2此时看到tickets的值还是1000,而系统给thread2的时间片可能较多,导致thread2一次性执行了100次–才被切走,最终tickets由1000减到了900。

在这里插入图片描述

此时系统再把thread1恢复上来,执行最后一步操作,将数据999写回内存。剩余票数从900变为了1000。

在这里插入图片描述

互斥量mutex

  • 大部分情况,线程使用的数据都是局部变量,变量的地址空间在线程栈空间内,这种情况,变量归属单个线程,其他线程无法获得这种变量。
  • 但有时候,很多变量都需要在线程间共享,这样的变量称为共享变量,可以通过数据的共享,完成线程之间的交互.
  • 当多个线程并发的操作共享变量,可能会带来一些问题。

要解决操作共享变量带来的问题,需要做到三点:

  1. 代码必须要有互斥行为:当代码进入临界区执行时,不允许其他线程进入该临界区。
  2. 如果多个线程同时要求执行临界区的代码,并且临界区没有线程在执行,那么只能允许一个线程进入该临界区。
  3. 如果线程不在临界区中执行,那么该线程不能阻止其他线程进入临界区。

要做到这三点,本质上就是需要一把锁。Linux上提供的这把锁叫互斥量。

在这里插入图片描述

互斥量的接口

初始化互斥量有两种方法:

方法1,静态分配:

pthread_mutex_t mutex = PTHREAD_MUTEX_INITIALIZER

方法2,动态分配:

int pthread_mutex_init(pthread_mutex_t *restrict mutex, const pthread_mutexattr_t *restrictattr);

参数:

  • mutex:需要初始化的互斥量。
  • attr:初始化互斥量的属性,一般设置为NULL即可。

返回值: 互斥量初始化成功返回0,失败返回错误码。

销毁互斥量

函数

int pthread_mutex_destroy(pthread_mutex_t *mutex);

参数: mutex:需要销毁的互斥量。
返回值: 互斥量销毁成功返回0,失败返回错误码。

注意点:

  • 使用PTHREAD_MUTEX_INITIALIZER初始化的互斥量不需要销毁。
  • 不要销毁一个已经加锁的互斥量。
  • 已经销毁的互斥量,要确保后面不会有线程再尝试加锁。

互斥量加锁和解锁

int pthread_mutex_lock(pthread_mutex_t *mutex);
int pthread_mutex_unlock(pthread_mutex_t *mutex);

返回值: 成功返回0,失败返回错误号

调用pthread_mutex_lock时,可能会遇到以下情况:

  • 互斥量处于未锁状态,该函数会将互斥量锁定,同时返回成功
  • 发起函数调用时,其他线程已经锁定互斥量,或者存在其他线程同时申请互斥量,但没有竞争到互斥量,那么pthread_mutex_lock调用会陷入阻塞(执行流被挂起),等待互斥量解锁。

上文模拟抢票的代码可以通过加锁解决总票数出现负数的情况

#include<stdio.h>
#include<unistd.h>
#include<pthread.h>

// 模拟抢票逻辑
int tickets=1000;// 临界资源

pthread_mutex_t lock; // lock需要被所有线程先看到,本质也是一种临界资源,只需要保证lock,unlock是原子性

// tickets--,抢到了一张票
void* Route(void* args)
{
        while(1){
        		pthread_mutex_lock(&lock);// 下面代码,只能有我一个人运行
        		// 临界区
                if(tickets>0){
                        usleep(10000);// usleep来模拟抢票时间                        
                        printf("0x%x: get a ticket : %d\n",pthread_self(),tickets);
                        tickets--;
                        pthread_mutex_unlock(&lock);
                }
                else{   
		                pthread_mutex_unlock(&lock);
                        break;
                }
        }
        printf("0x%x:quit,tickets: %d\n",(int)pthread_self(),tickets);
        
        return NULL;
}

int main()
{
		pthread_mutex_init(&lock,NULL);// 初始化锁
#define NUM 5
        pthread_t nums[NUM];
        for(int i=0;i<NUM;i++){
                pthread_create(nums+i,NULL,Route,NULL);
        }
        for(int i=0;i<NUM;i++){
                pthread_join(nums[i],NULL);
        }
        pthread_mutex_destroy(&lock);// 释放锁
        return 0;
 }

在这里插入图片描述

互斥量实现原理探究

经过上面的例子,大家已经意识到单纯的 i++ 或者 ++i 都不是原子的,有可能会有数据一致性问题

为了实现互斥锁操作,大多数体系结构都提供了swap或exchange指令,该指令的作用是把寄存器和内存单元的数据相交换,由于只有一条指令,保证了原子性,即使是多处理器平台,访问内存的总线周期也有先后,一个处理器上的交换指令执行时另一个处理器的交换指令只能等待总线周期。

下面是lock和unlock的伪代码:

在这里插入图片描述

可重入VS线程安全

概念

  • 线程安全: 多个线程并发同一段代码时,不会出现不同的结果。常见对全局变量或者静态变量进行操作,并且没有锁保护的情况下,会出现该问题。
  • 重入: 同一个函数被不同的执行流调用,当前一个流程还没有执行完,就有其他的执行流再次进入,我们称之为重入。一个函数在重入的情况下,运行结果不会出现任何不同或者任何问题,则该函数被称为可重入函数,否则,是不可重入函数。

注意: 线程安全讨论的是线程执行代码时是否安全,重入讨论的是函数被重入进入。

常见的线程不安全的情况

  • 不保护共享变量的函数
  • 函数状态随着被调用,状态发生变化的函数
  • 返回指向静态变量指针的函数
  • 调用线程不安全函数的函数。

常见的线程安全的情况

  • 每个线程对全局变量或者静态变量只有读取的权限,而没有写入的权限,一般来说这些线程是安全的。
  • 类或者接口对于线程来说都是原子操作。
  • 多个线程之间的切换不会导致该接口的执行结果存在二义性。

常见的不可重入的情况

  • 调用了malloc/free函数,因为malloc函数是用全局链表来管理堆的。
  • 调用了标准I/O库函数,标准I/O可以的很多实现都是以不可重入的方式使用全局数据结构。
  • 可重入函数体内使用了静态的数据结构。

常见的可重入的情况

  • 不使用全局变量或静态变量。
  • 不使用malloc或者new开辟出的空间。
  • 不调用不可重入函数。
  • 不返回静态或全局数据,所有数据都由函数的调用者提供。
  • 使用本地数据,或者通过制作全局数据的本地拷贝来保护全局数据。

可重入与线程安全联系

  • 函数是可重入的,那就是线程安全的。
  • 函数是不可重入的,那就不能由多个线程使用,有可能引发线程安全问题。
  • 如果一个函数中有全局变量,那么这个函数既不是线程安全也不是可重入的。

可重入与线程安全区别

  • 可重入函数是线程安全函数的一种。
  • 线程安全不一定是可重入的,而可重入函数则一定是线程安全的。
  • 如果对临界资源的访问加上锁,则这个函数是线程安全的,但如果这个重入函数的锁还未释放则会产生死锁,因此是不可重入的。

死锁

概念

死锁是指在一组进程中的各个进程均占有不会释放的资源,但因互相申请被其他进程所站用不会释放的资源而处于的一种永久等待状态。

死锁四个必要条件

  • 互斥条件:一个资源每次只能被一个执行流使用
  • 请求与保持条件:一个执行流因请求资源而阻塞时,对已获得的资源保持不放
  • 不剥夺条件:一个执行流已获得的资源,在末使用完之前,不能强行剥夺
  • 循环等待条件:若干执行流之间形成一种头尾相接的循环等待资源的关系

避免死锁

  • 破坏死锁的四个必要条件
  • 加锁顺序一致
  • 避免锁未释放的场景
  • 资源一次性分配

Linux线程同步

当一个线程互斥地访问某个变量时,它可能发现在其它线程改变状态之前,它什么也做不了。例如一个线程访问队列时,发现队列为空,它只能等待,只到其它线程将一个节点添加到队列中。这种情况就需要用到条件变量。

同步概念与竞态条件

同步: 在保证数据安全的前提下,让线程能够按照某种特定的顺序访问临界资源,从而有效避免饥饿问题,叫做同步。
竞态条件: 因为时序问题,而导致程序异常,我们称之为竞态条件。

条件变量函数

初始化

int pthread_cond_init(pthread_cond_t *restrict cond,const pthread_condattr_t *restrict attr);

参数:

  • cond:要初始化的条件变
  • attr:初始化条件变量的属性,一般设置为NULL即可。

返回值: 条件变量初始化成功返回0,失败返回错误码。

销毁

int pthread_cond_destroy(pthread_cond_t *cond)

参数: cond:需要销毁的条件变量。
返回值: 条件变量销毁成功返回0,失败返回错误码。

等待

int pthread_cond_wait(pthread_cond_t *restrict cond,pthread_mutex_t *restrict mutex);

参数:

  • cond:要在这个条件变量上等待
  • mutex:互斥量,后面详细解释

返回值: 函数调用成功返回0,失败返回错误码。

唤醒

int pthread_cond_broadcast(pthread_cond_t *cond);
int pthread_cond_signal(pthread_cond_t *cond);
  • pthread_cond_signal函数用于唤醒等待队列中首个线程。
  • pthread_cond_broadcast函数用于唤醒等待队列中的全部线程。

参数: cond:在cond条件变量下等待的线程。
返回值: 函数调用成功返回0,失败返回错误码。

使用

让主线程创建三个新线程,用第三个线程控制前两个线程。利用条件变量让前两个线程循环打印。

#include<stdio.h>
#include<pthread.h>
#include<unistd.h>

pthread_cond_t cond;
pthread_mutex_t mutex;

void* r1(void* args){
        while(1){
                pthread_cond_wait(&cond,&mutex);
                printf("%s\n",(char*)args);
        }
        return NULL;
}

// 用线程2控制线程1
void* r2(void* args){
        while(1){
                pthread_cond_signal(&cond);
                sleep(1);
        }
}

int main()
{
        pthread_cond_init(&cond,NULL);
        pthread_mutex_init(&mutex,NULL);

        pthread_t tid1,tid2,tid3;
        pthread_create(&tid1,NULL,r1,(void*)"我是线程A");
        pthread_create(&tid2,NULL,r1,(void*)"我是线程B");
        pthread_create(&tid3,NULL,r2,(void*)"我是控制");

        pthread_join(tid1,NULL);
        pthread_join(tid2,NULL);
        pthread_join(tid3,NULL);
        return 0;
}

线程一和线程二循环打印

在这里插入图片描述

我们也可以将代码中的pthread_cond_signal函数改为pthread_cond_broadcast,让线程每次同时唤醒线程一和线程二。

生产者消费者模型

为何要使用生产者消费者模型

生产者消费者模式就是通过一个容器来解决生产者和消费者的强耦合问题。生产者和消费者彼此之间不直接通讯,而通过阻塞队列来进行通讯,所以生产者生产完数据之后不用等待消费者处理,直接扔给阻塞队列,消费者不找生产者要数据,而是直接从阻塞队列里取,阻塞队列就相当于一个缓冲区,平衡了生产者和消费者的处理能力。这个阻塞队列就是用来给生产者和消费者解耦的。

生产者消费者模型的特点

生产者消费者模型是多线程同步与互斥的一个经典场景,其特点如下:

  • 三种关系: 生产者和生产者(互斥关系)、消费者和消费者(互斥关系)、生产者和消费者(互斥关系、同步关系)。
  • 两种角色: 生产者和消费者。
  • 一个交易场所: 通常指的是内存中的一段缓冲区。

生产者消费者模型优点

  • 解耦
  • 支持并发
  • 支持忙闲不均

在这里插入图片描述

基于BlockingQueue的生产者消费者模型

在多线程编程中阻塞队列(Blocking Queue)是一种常用于实现生产者和消费者模型的数据结构。其与普通的队列区别在于,当队列为空时,从队列获取元素的操作将会被阻塞,直到队列中被放入了元素;当队列满时,往队列里存放元素的操作也会被阻塞,直到有元素被从队列中取出(以上的操作都是基于不同的线程来说的,线程在对阻塞队列进程操作时会被阻塞)。

在这里插入图片描述

用C++的queue模拟阻塞队列的生产消费模型

测试文件cp.cc

#include"block_queue.hpp"
#include<unistd.h>

#define NUM 10

void* consumer(void* c)
{
        BlockQueue<int> *bq=(BlockQueue<int>*)c;

        int out=0;
        while(true){
                bq->Get(&out);

                std::cout<<"consumer: "<<out<<std::endl;
        }
        return nullptr;
}

void* producter(void* p)
{
        BlockQueue<int> *bq=(BlockQueue<int>*)p;

        int in=1;
        while(true){
                sleep(1);
                bq->Put(in);
                in++;
                in%=100;
                std::cout<<"producter: "<<in<<std::endl;
        }
        return nullptr;
}

int main()
{
        BlockQueue<int>* bq=new BlockQueue<int>(NUM);
        pthread_t c,p;
        pthread_create(&c,nullptr,consumer,bq);
        pthread_create(&p,nullptr,producter,bq);

        pthread_join(p,nullptr);
        pthread_join(c,nullptr);

        delete bq;

        return 0;
}

头文件block_queue.hpp

#pragma once

#include<iostream>
#include<queue>
#include<pthread.h>

template<class T>
class BlockQueue{
        private:
                int cap;
                std::queue<T> bq;
                pthread_mutex_t lock;
                pthread_cond_t have_space;// 生产者
                pthread_cond_t have_data;// 消费者
                bool IsFull()
                {
                        return bq.size()==cap;
                }
                bool IsEmpty()
                {
                        return bq.size()==0;
                }
        public:
                BlockQueue(int _cap):cap(_cap)
                {
                        pthread_cond_init(&have_space,nullptr);
                        pthread_cond_init(&have_data,nullptr);
                        pthread_mutex_init(&lock,nullptr);
                }
                void Put(const T &in)// const type&: 输入型参数
                {
                        // 生产过程
                        pthread_mutex_lock(&lock);
                        while(IsFull()){
                                // 生产者不应该再声产,应该等待
                                pthread_cond_wait(&have_space,&lock);// wait最后带一个锁,当程序挂起时,自动释放锁,当唤醒时,自动获取锁
                        }

                        bq.push(in);
                        if(bq.size()>=cap/2){
                                pthread_cond_signal(&have_data);
                        }
                        pthread_mutex_unlock(&lock);
                }
                void Get(T* out)// Type*:输出型参数,type & :输入输出型参数
                {
                        // 消费过程
                        pthread_mutex_lock(&lock);
                        while(IsEmpty()){
                                pthread_cond_wait(&have_data,&lock);
                        }
                        *out=bq.front();
                        bq.pop();
                        /*
                        if(!IsEmpty()){
                                *out=bq.front();
                                bq.pop();
                        }
                        else{
                                std::cout<<"queue is empty! get() should block<<std::endl;
                        }*/
                        pthread_mutex_unlock(&lock);
                        pthread_cond_signal(&have_space);
                }
                ~BlockQueue()
                {
                        pthread_mutex_destroy(&lock);
                        pthread_cond_destroy(&have_space);
                        pthread_cond_destroy(&have_data);
                }
};

运行结果

在这里插入图片描述

POSIX信号量

POSIX信号量和SystemV信号量作用相同,都是用于同步操作,达到无冲突的访问共享资源目的。 但POSIX可以用于线程间同步。

什么是信号量

信号量本质是描述临界资源数目的计数器。

什么时候使用信号量

当我们的临界资源是可以看作多份的情况下,是可以做到多个线程同时访问的,只要访问的区域不是同一个即可。

如果需要申请信号量资源,前提是所有的线程,都必须看到信号量,信号量本身也是临界资源。即申请释放PV操作必须是原子性的。

信号量的PV操作:

P操作:我们将申请信号量称为P操作,申请信号量的本质就是申请获得临界资源中某块资源的使用权限,当申请成功时临界资源中资源的数目应该减一,因此P操作的本质就是让计数器减一。

伪代码如下

lock(&lock);
if(sum>0) sem--;
else 释放锁并挂起
unlock(&lock);

V操作:我们将释放信号量称为V操作,释放信号量的本质就是归还临界资源中某块资源的使用权限,当释放成功时临界资源中资源的数目就应该加一,因此V操作的本质就是让计数器加一。

伪代码如下

lock(&lock);
sem++;
unlock(&lock);

信号量函数

sem_init

功能: 初始化信号量
函数原型:

int sem_init(sem_t *sem, int pshared, unsigned int value);

参数

  • sem:需要初始化的信号量。
  • pshared:传入0值表示线程间共享,传入非零值表示进程间共享。
  • value:信号量的初始值(计数器的初始值)。

返回值: 初始化信号量成功返回0,失败返回-1。

sem_destroy

功能: 销毁信号量

函数原型:

int sem_destroy(sem_t *sem);

参数: sem:需要销毁的信号量。
返回值: 销毁信号量成功返回0,失败返回-1。

sem_wait

功能: 等待信号量,会将信号量的值减1
函数原型:

int sem_wait(sem_t *sem);

参数: sem:需要等待的信号量。
返回值:

  • 等待信号量成功返回0,信号量的值减1。
  • 等待信号量失败返回-1,信号量的值保持不变。

sem_post

功能: 发布信号量,表示资源使用完毕,可以归还资源了。将信号量值加1
函数原型:

int sem_post(sem_t *sem);

参数: sem:需要发布的信号量。
返回值:

  • 发布信号量成功返回0,信号量的值加1。
  • 发布信号量失败返回-1,信号量的值保持不变。

基于环形队列的生产消费模型

环形队列采用数组模拟,用模运算来模拟环状特性

在这里插入图片描述环形结构起始状态和结束状态都是一样的,不好判断为空或者为满,所以可以通过加计数器或者标记位来判断满或者空。另外也可以预留一个空的位置,作为满的状态

在这里插入图片描述

实现代码

我们申请10个空间,让生产者生产10个资源后进入等待并唤醒消费者,消费者每消费一个资源进入等待并唤醒生产者,生产者再重复消费者的操作。这样就形成了生产生产一个资源,消费者消费一个资源的循环。

RingQueue.hpp文件

#pragma once

#include<iostream>
#include<vector>
#include<semaphore.h>
#include<pthread.h>

template<class T>
class RingQueue{
        private:
                int cap;
                std::vector<int> ring;
                //生产和消费必须有自己的位置下标
                int c_index;
                int p_index;

                sem_t sem_space;
                sem_t sem_data;
        public:
                RingQueue(int _cap):cap(_cap),ring(_cap),c_index(0),p_index(0)
                {   
                		//开始时全为空格子
                        sem_init(&sem_space,0,_cap);
                        sem_init(&sem_data,0,0);
                }   
                void Put(const T &in)
                {   
                        // 生产者
                        sem_wait(&sem_space);
                        ring[p_index]=in;
                        sem_post(&sem_data);

                        p_index++;
                        p_index%=cap;
                }   
                void Get(T *out)
                {   
                        // 消费者
                        sem_wait(&sem_data);
                        *out=ring[c_index];
                        sem_post(&sem_space);

                        c_index++;
                        c_index%=cap;
                }
                ~RingQueue()
                {
                        sem_destroy(&sem_space);
                        sem_destroy(&sem_data);
                }
};

main.cc文件

#include"RingQueue.hpp"
#include<pthread.h>
#include<ctime>
#include<cstdlib>
#include<unistd.h>

void* consumer(void* ring_queue)
{
        RingQueue<int> *rq=(RingQueue<int>*)ring_queue;
        while(true){
                // 消费
                int out=0;
                rq->Get(&out);

                std::cout<<"Consumer data:"<<out<<std::endl;
                sleep(1);
        }   
}

void* producter(void* ring_queue)
{
        RingQueue<int> *rq=(RingQueue<int>*)ring_queue;
        while(true){
                // 生产
                int data=rand()%20+1;
                rq->Put(data);

                std::cout<<"Producter data: "<<data<<std::endl;
        }   
}

int main()
{
        srand((unsigned long)time(nullptr));
        RingQueue<int> *rq=new RingQueue<int>(10);
        pthread_t c,p;
        pthread_create(&c,nullptr,consumer,rq);
        pthread_create(&p,nullptr,producter,rq);

        pthread_join(c,nullptr);
        pthread_join(p,nullptr);
        return 0;
}

运行结果如下

在这里插入图片描述

我们还可以让生产者和消费者执行不同的任务

这里让生产者生产累加的任务,让消费者完成该任务。

Task文件

class Task{
        private:
                int top;
        public:
                Task():top(1){}
                Task(int _top):top(_top)
                {}  
                int Handler()
                {   
                        int sum=0;
                        for(auto i=0;i<=top;i++){
                                sum+=i;
                        }   
                        return sum;
                }   
                void Show()
                {   
                        std::cout << "生产者: 这个任务是,累加数据从1~" << top << std::endl;
                }   
                ~Task()
                {}  
};

我们还要对main.cc文件稍作修改

#include"RingQueue.hpp"
#include"Task.hpp"
#include<pthread.h>
#include<ctime>
#include<cstdlib>
#include<unistd.h>


void* consumer(void* ring_queue)
{
        RingQueue<Task> *rq=(RingQueue<Task>*)ring_queue;
        while(true){
                // 消费任务
                Task t;
                rq->Get(&t);
    
                sleep(1)
                // 处理任务
                int result=t.Handler();
                std::cout << "消费者: hander Task Done , result: " << result << std::endl;
        }   
}

void* producter(void* ring_queue)
{
        RingQueue<Task> *rq=(RingQueue<Task>*)ring_queue;
        while(true){
                // 制造任务
                int top =rand()%5+1;
                Task t(top);
                t.Show();

                // 生产任务
                rq->Put(t);
                //std::cout<<"Producter data: "<<data<<std::endl;
        }   
}
int main()
{
        srand((unsigned long)time(nullptr));
        RingQueue<Task> *rq=new RingQueue<Task>(10);
        pthread_t c,p;
        pthread_create(&c,nullptr,consumer,rq);
        pthread_create(&p,nullptr,producter,rq);

        pthread_join(c,nullptr);
        pthread_join(p,nullptr);
        return 0;
}

运行结果如下

在这里插入图片描述

线程池

概念

次预先创建一大批线程,让这些线程出于”待机“状态,一旦有数据或者任务,直接可以交给线程取处理!

线程池的优点

  • 线程池避免了在处理短时间任务时创建与销毁线程的代价
  • 线程池不仅能够保证内核充分利用,还能防止过分调度。

注意: 线程池中可用线程的数量应该取决于可用的并发处理器、处理器内核、内存、网络sockets等的数量。

线程池的应用场景

  1. 需要大量的线程来完成任务,且完成任务的时间比较短。 WEB服务器完成网页请求这样的任务,使用线程池技术是非常合适的。因为单个任务小,而任务数量巨大,你可以想象一个热门网站的点击次数。 但对于长时间的任务,比如一个Telnet连接请求,线程池的优点就不明显了。因为Telnet会话时间比线程的创建时间大多了。
  2. 对性能要求苛刻的应用,比如要求服务器迅速响应客户请求。
  3. 接受突发性的大量请求,但不至于使服务器因此产生大量线程的应用。突发性大量客户请求,在没有线程池情况下,将产生大量线程,虽然理论上大部分操作系统线程数目最大值不是问题,短时间内产生大量线程可能使内存到达极限,出现错误.

线程池的实现

下面模拟实现一个简单的线程池,线程池中提供了一个任务队列。

thread_pool.hpp文件

#pragma once

#include<iostream>
#include<queue>
#include<pthread.h>

template<class T>
class ThreadPool{
        private:
                std::queue<T> q;//给线程池派发任务的地点
                pthread_mutex_t lock;
                pthread_cond_t cond;
        private:
                ThreadPool()
                {
                        pthread_mutex_init(&lock,nullptr);
                        pthread_cond_init(&cond,nullptr);
                }
                // 防拷贝
                ThreadPool(const ThreadPool<T>&)=delete;
                ThreadPool<T>& operator=(const ThreadPool<T>&)=delete;
                static ThreadPool<T>* instance;
        public:
        		// 单例模式
                static ThreadPool<T> *get_instance()
                {
                        static pthread_mutex_t mtx = PTHREAD_MUTEX_INITIALIZER;
                        if(nullptr==instance){
                                pthread_mutex_lock(&mtx);
                                if(nullptr==instance){
                                        instance=new ThreadPool<T>();
                                }
                                pthread_mutex_unlock(&mtx);
                        }
                        return instance;
                }
                void LockQueue()
                {
                        pthread_mutex_lock(&lock);
               }
                void UnlockQueue()
                {
                        pthread_mutex_unlock(&lock);
                }
                bool IsEmpty()
                {
                        return q.size()==0;
                }
                void ThreadWait()
                {
                        pthread_cond_wait(&cond,&lock);
                }
                void ThreadWakeup()
                {
                        pthread_cond_signal(&cond);
                }
                void PopTask(T* out)
                {
                        *out=q.front();
                        q.pop();
                }
				// 线程池中线程的执行例程
                static void* Routinue(void* args)
                {
                        pthread_detach(pthread_self());//线程分离
                        ThreadPool* tp=(ThreadPool*)args;

                        while(true)
                        {
                                tp->LockQueue();
                                //1. 检测是否有任务
                                while(tp->IsEmpty()){
                                        //thread 应该等待,等待有任务
                                        tp->ThreadWait();
                                }
                                }
                                //2.取任务的过程
                                T t;
                                tp->PopTask(&t);
                                tp->UnlockQueue();
                                //3. 处理任务
                                t();
                        }
                }
                void InitThreadPool(int num)
                {
                        for(auto i=0;i<num;i++){
                                pthread_t tid;
                                pthread_create(&tid,nullptr,Routinue,this);
                        }
                }
                // 往任务队列中添加任务
                void PushTask(const T &in)
                {
                        //放任务
                        LockQueue();
                        q.push(in);
                        ThreadWakeup();
                        UnlockQueue();
                }
                ~ThreadPool()
                {
                        pthread_mutex_destroy(&lock);
                        pthread_cond_destroy(&cond);
                }
};

template<class T>
ThreadPool<T>* ThreadPool<T>::instance=nullptr;

task.hpp文件

假设任务队列中的任务是执行简单的运算

#pragma once

#include<iostream>
#include<pthread.h>

class Task{
        private:
                int x;
                int y;
                char op;

        public:
                Task()// 无参构造
                {}
                Task(int _x,int _y,char _op):x(_x),y(_y),op(_op)
                {}  
                void operator()()
                {   
                        return run();
                }   
                void run()
                {   
                        int z=-1;
                        switch(op){
                                case '+':
                                        z=x+y;
                                        break;
                                case '-':
                                        z=x-y;
                                        break;
                                case '*':
                                        z=x*y;
                                        break;
                                case '/':
                                        if(0!=y) z=x/y;
                                        else std::cout<< "Warning: div zero!" <<std::endl;
                                        break;
                                case '%':
                                        if(0!=y) z=x%y;
                                        else std::cout<< "Warning: div zero!" <<std::endl;
                                        break;
                                default:
                                        std::cout << "unknow operator!" << std::endl;
                                        break;
                        }
                        std::cout <<"thread "<< "[" << pthread_self() << "] handler task done : "<< x << op << y << "=" << z << std::endl;
                }
                ~Task(){}
};

main.cc文件

#include"thread_pool.hpp"
#include"task.hpp"
#include<time.h>
#include<unistd.h>

#define NUM 5

int main()
{
        srand((unsigned)time(nullptr));
        ThreadPool<Task>*tp=ThreadPool<Task>::get_instance();
        tp->InitThreadPool(5);
        sleep(3);

        const std::string ops="+-*/%";
        while(true){
                int x=rand()%50+1;
                int y=rand()%50+1;
                char op=ops[rand()%5];

                Task t(x,y,op);
                tp->PushTask(t);
                sleep(1);
        }   
        return 0;
}

运行结果
在这里插入图片描述

STL,智能指针和线程安全

STL中的容器是否是线程安全的?

不是.

原因如下
STL 的设计初衷是将性能挖掘到极致, 而一旦涉及到加锁保证线程安全, 会对性能造成巨大的影响.
而且对于不同的容器, 加锁方式的不同, 性能可能也不同(例如hash表的锁表和锁桶).
因此 STL 默认不是线程安全. 如果需要在多线程环境下使用, 往往需要调用者自行保证线程安全.

智能指针是否是线程安全的?

对于 unique_ptr, 由于只是在当前代码块范围内生效, 因此不涉及线程安全问题.

对于 shared_ptr, 多个对象需要共用一个引用计数变量, 所以会存在线程安全问题. 但是标准库实现的时候考虑到了这个问题, 基于原子操作(CAS)的方式保证 shared_ptr 能够高效, 原子的操作引用计数.

其他常见的各种锁

悲观锁: 在每次取数据时,总是担心数据会被其他线程修改,所以会在取数据前先加锁(读锁,写锁,行锁等),当其他线程想要访问数据时,被阻塞挂起。

乐观锁: 每次取数据时候,总是乐观的认为数据不会被其他线程修改,因此不上锁。但是在更新数据前,会判断其他数据在更新前有没有对数据进行修改。主要采用两种方式:版本号机制和CAS操作。

CAS操作: 当需要更新数据时,判断当前内存值和之前取得的值是否相等。如果相等则用新值更新。若不等则失败,失败则重试,一般是一个自旋的过程,即不断重试。

读者写者问题

在编写多线程的时候,有一种情况是十分常见的。那就是,有些公共数据修改的机会比较少。相比较改写,它们读的机会反而高的多。通常而言,在读的过程中,往往伴随着查找的操作,中间耗时很长。给这种代码段加锁,会极大地降低我们程序的效率。那么有没有一种方法,可以专门处理这种多读少写的情况呢? 有,那就是读写锁。

读者和写者也存在三种关系

  1. 读者和读者,它们间没有关系,因为读者不会把数据取走
  2. 写者和写者,它们间存在互斥关系
  3. 读者和写者,它们间即存在互斥关系,又存在同步关系

两种角色:读者和写者(本质上是线程)

交易场所:一段缓冲区

在这里插入图片描述

读写锁接口

设置读写优先

int pthread_rwlockattr_setkind_np(pthread_rwlockattr_t *attr, int pref);

pref 共有 3 种选择

  1. PTHREAD_RWLOCK_PREFER_READER_NP (默认设置) 读者优先,可能会导致写者饥饿情况
  2. PTHREAD_RWLOCK_PREFER_WRITER_NP(默认设置) 写者优先,可能会导致写者饥饿情况
  3. PTHREAD_RWLOCK_PREFER_WRITER_NONRECURSIVE_NP 写者优先,但写者不能递归加锁

初始化

int pthread_rwlock_init(pthread_rwlock_t *restrict rwlock,const pthread_rwlockattr_t *restrict attr);

销毁

int pthread_rwlock_destroy(pthread_rwlock_t *rwlock);

加锁

int pthread_rwlock_rdlock(pthread_rwlock_t *rwlock);// 对读加锁
int pthread_rwlock_wrlock(pthread_rwlock_t *rwlock);// 对写加锁

解锁

int pthread_rwlock_unlock(pthread_rwlock_t *rwlock);// 对读写解锁都用这个

读者优先:读者和写者一起到来时,让读者优先进入

写者优先:当写者到来的时候,后续读者就暂时不能进入临界资源进行读取了,所有的正在读取的线程执行完毕,写者再进入。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值