该项目是基于C++1利用模板实现封装具有优先级功能的异步线程池。
该项目是在《C++并发编程实战》中的线程池源码基础上进行增加修改,添加了可加入优先级线程的功能,优先级在单片机开发过程中,经常见到(如单片机的中断优先级,抢占优先级高于响应优先级),所以把这种优先级思维运用一下,用在线程池中。
还是需要确定思路,思路是编程开发最大前提,好的思路可以达到事倍功半的效果:
1.定义优先级类型。
2.确定合适的容器实现可以存入优先级,让优先级和线程执行的函数实现实现关联。
3.线程池的实现调试。
方向确定了,那么接下来就开搞。
1.定义优先级类型,为非就枚举,优先级为高中低。
2.确定合适的容器,我一开始想到的是用std::vector,但第一时间就把自己驳回了,线程之所以用std::queue,与互斥锁结合使用时,可以更容易地控制对队列的访问,而用std::vector进行插入和删除时,可能需要锁定整个向量,很不安全。
那么自己写一个,node节点的结构体,类似如下:
struct Node
{
using Counter = unsigned int;
using NodePtr = std::shared_ptr<Node>;
//callback 回调函数 counter 索引(计数器)
Node(const Callback_ & callback, const Counter counter)
: callback(callback), counter(counter)
{
}
NodePtr previous; //以前的
NodePtr next; //下一个节点
std::function<void()> callback; //回调返回类型
Counter priority; //优先级
};
再进行封装,写一个类似于监听器的功能,那这样工作量太大了。
那么正好想到或者百度有stl写好的队列,可以根据定义排列最大的元素,std::priority_queue。
真是踏破铁鞋无觅处,得来全不费功夫呀。
直接上源码:
#include <vector>
#include <queue>
#include <memory>
#include <thread>
#include <mutex>
#include <condition_variable>
#include <future>
#include <functional>
#include <stdexcept>
#include <iostream>
namespace TPL
{
enum ENThreadPriority : int
{
ENPriority_No = 0,
ENPriority_Low,
ENPriority_Middle,
ENPriority_Hight
};
struct Task {
ENThreadPriority priority = ENPriority_No;
std::function<void()> func;
Task(ENThreadPriority prio, std::function<void()> pfun) :
priority(prio)
{
func = pfun;
}
Task(std::function<void()> pfun) :
Task(ENPriority_No, pfun)
{
}
Task()
{
}
bool operator<(const Task& other) const {
return (int)priority < (int)other.priority; // 高优先级的任务排在前面
}
};
class ThreadPool {
public:
ThreadPool(size_t);
//无优先级添加队列
template<class F, class... Args>
auto enqueue(F&& f, Args&&... args)
-> std::future<typename std::result_of<F(Args...)>::type>;
//有优先级添加队列
template<class F, class... Args>
auto enqueue(const ENThreadPriority& ENType, F&& f, Args&&... args)
-> std::future<typename std::result_of<F(Args...)>::type>;
~ThreadPool();
private:
std::vector< std::thread > workers;
std::priority_queue<Task> tasks;
std::mutex queue_mutex;
std::condition_variable condition;
bool stop;
std::vector<ENThreadPriority> vecPriority;
};
inline ThreadPool::ThreadPool(size_t threads)
: stop(false)
{
for(size_t i = 0; i < threads; ++i)
//初始化传入循环体
workers.emplace_back(
[this]
{
for(;;)
{
Task Atask;
{
std::unique_lock<std::mutex> lock(this->queue_mutex);
this->condition.wait(lock,
[this]{ return this->stop || !this->tasks.empty(); });
if(this->stop && this->tasks.empty())
return;
{
Atask = std::move(this->tasks.top());
this->tasks.pop();
}
}
std::cout << "--------current Thread Priority:::" << Atask.priority << std::endl;
//std::this_thread::sleep_for(std::chrono::seconds(3)); //调试看执行的话,就打开, 并且断点打在这一行,便于调试
Atask.func();
}
}
);
}
template<class F, class... Args>
auto ThreadPool::enqueue(F&& f, Args&&... args)
-> std::future<typename std::result_of<F(Args...)>::type>
{
return enqueue(ENPriority_No, f, std::forward<Args>(args)...);
}
// add new work item to the pool
//F是函数, Args...是参数 //这里也可以直接传lamda表达式
template<class F, class... Args>
auto ThreadPool::enqueue(const ENThreadPriority& ENType, F&& f, Args&&... args)
-> std::future<typename std::result_of<F(Args...)>::type>
{
//返回类型
using return_type = typename std::result_of<F(Args...)>::type;
//std::packaged_task用于包装一个可调用对象(如函数、lambda表达式或函数对象),使其可以异步执行
//通常与std::future一起使用
auto task = std::make_shared< std::packaged_task<return_type()> >(
std::bind(std::forward<F>(f), std::forward<Args>(args)...)
); //std::bind 用的好
std::future<return_type> res = task->get_future();
{
std::unique_lock<std::mutex> lock(queue_mutex);
if(stop)
throw std::runtime_error("enqueue on stopped ThreadPool");
tasks.push({ENType, [task](){ (*task)(); }});
}
condition.notify_one(); // 唤醒一个等待的线程
return res;
}
inline ThreadPool::~ThreadPool()
{
{
std::unique_lock<std::mutex> lock(queue_mutex);
stop = true;
}
condition.notify_all();
for(std::thread &worker: workers)
worker.join();
}
}//namespace TPL
调用代码:
int main(int argc, char *argv[])
{
auto lamda_AAA = [](const std::string & ss, const int ii)
{
std::cout << "--------AAA:::::" << ss << " ::::" << ii << std::endl;
return std::string("xiaohua");
};
auto lamda_BBB = [](const std::string & ss, const std::string ii)
{
std::cout << "--------BBB:::::" << ss << " ::::" << ii << std::endl;
return 222;
};
TPL::ThreadPool pool(4);
pool.enqueue(TPL::ENPriority_Hight, lamda_AAA, "ENPriority_Hight", 18);
pool.enqueue(TPL::ENPriority_Middle, lamda_BBB, "ENPriority_Middle", "Hello, lovely stranger");
pool.enqueue(TPL::ENPriority_Low, lamda_BBB, "ENPriority_Low", "Wishing you happiness every day, no internal friction");
pool.enqueue(lamda_AAA, "ENPriority_No", 29);
return 0;
}
如果调试看运行先后的话,建议打开 ThreadPool::ThreadPool 中的这一行,
//std::this_thread::sleep_for(std::chrono::seconds(3)); //调试看执行的话,就打开, 并且断点打在这一行,便于调试
因为是异步执行,打印先后乱码很正常。
看一下结果,看有关这个的打印先后即可。
std::cout << "--------current Thread Priority:::" << Atask.priority << std::endl;
打印优先级无毛病,大功告成。
开心一下
下面就开始分享不正经了。
💕💕💕💕💕💕✌️✌️✌️✌️✌️✌️
用铁淬炼的双拳,
终抵不过四方的箭。
鳞伤的心归于死寂,
那一刻展开铁拳,
双手合十,
如水裹行着麻木。
向前是山,
向后也是山。
💕💕
最后希望所有的打工人都有铁淬炼的技术傍身,同时为人处世也够用,不要被一些暗箭所伤。最后希望大家天天开心,现在遇到的所有不快乐,终究会过去,加油,奥里给!!!你是最棒的,听见了没!!!