超越99%的程序员,chatgpt用C++写个线程安全无锁环形队列

​肝了一个周末,我们一起来欣赏chatgpt写的代码吧。让其用C++为我们写一个线程安全的环形队列,并逐步提出一些需求。

先看带锁的实现。

带锁版本

我对chatgpt的需求是:

用C++实现线程安全的环形队列,提供代码注释,以及gtest单元测试和相应的测试报告。要求如下: 
1、环形队列要支持阻塞读和非阻塞读,写也一样 
2、存放的数据类型可以自定义 
3、代码风格使用google C++风格 
4、支持左右值写入 
5、高性能

高性能本意是让其提供一个无锁的实现,但似乎没有get到。

以下是chatgpt用C++实现的线程安全的环形队列,同时添加了gtest单元测试,并提供了相应的测试报告。

circular_queue.h

// 头文件防卫
#ifndef CIRCULAR_QUEUE_H
#define CIRCULAR_QUEUE_H

#include <mutex> // 互斥量
#include <condition_variable> // 条件变量

template <typename T>
class CircularQueue {
public:
    // 构造函数,初始化成员变量
    explicit CircularQueue(size_t capacity) :
        capacity_(capacity),
        size_(0),
        head_(0),
        tail_(0),
        buffer_(new T[capacity]) {}

    // 析构函数,释放 buffer_ 内存
    ~CircularQueue() {
        delete[] buffer_;
    }

    // 判断队列是否为空
    bool empty() {
        std::unique_lock<std::mutex> lock(mutex_);
        return size_ == 0;
    }

    // 判断队列是否已满
    bool full() {
        std::unique_lock<std::mutex> lock(mutex_);
        return size_ == capacity_;
    }

    // 获取队列中元素的数量
    size_t size() {
        std::unique_lock<std::mutex> lock(mutex_);
        return size_;
    }

    // 获取队列的容量
    size_t capacity() {
        return capacity_;
    }

    // 将元素加入队列,可能会阻塞
    bool push(const T& value, bool block = true) {
        std::unique_lock<std::mutex> lock(mutex_);

        if (block) {
            // 如果队列已满,则等待队列不满
            while (size_ == capacity_) {
                not_full_.wait(lock);
            }
        } else {
            // 如果队列已满,则返回 false
            if (size_ == capacity_) {
                return false;
            }
        }

        // 将元素加入队列尾部,并更新 tail_ 和 size_
        buffer_[tail_] = value;
        tail_ = (tail_ + 1) % capacity_;
        ++size_;

        // 通知一个等待在 not_empty_ 条件变量上的线程
        not_empty_.notify_one();

        return true;
    }

    // 将元素加入队列,可能会阻塞,使用右值引用
    bool push(T&& value, bool block = true) {
        std::unique_lock<std::mutex> lock(mutex_);

        if (block) {
            // 如果队列已满,则等待队列不满
            while (size_ == capacity_) {
                not_full_.wait(lock);
            }
        } else {
            // 如果队列已满,则返回 false
            if (size_ == capacity_) {
                return false;
            }
        }

        // 将元素加入队列尾部,并更新 tail_ 和 size_
        buffer_[tail_] = std::move(value);
        tail_ = (tail_ + 1) % capacity_;
        ++size_;

        // 通知一个等待在 not_empty_ 条件变量上的线程
        not_empty_.notify_one();

        return true;
    }

    // 从队列中取出元素,可能会阻塞
    bool pop(T& value, bool block = true) {
        std::unique_lock<std::mutex> lock(mutex_);

        if (block) {
            // 如果队列为空,则等待队列不空
            while (size_ == 0) {
                not_empty_.wait(lock);
            }
        } else {
            // 如果队列为空,则返回 false
            if (size_ == 0) {
                return false;
            }
        }

        // 取出队列头部元素,并更新 head_ 和 size_
        value = std::move(buffer_[head_]);
        head_ = (head_ + 1) % capacity_;
        --size_;

        // 通知一个等待在 not_full_ 条件变量上的线程
        not_full_.notify_one();

        return true;
    }

private:
    const size_t capacity_; // 队列容量
    size_t size_; // 队列中元素的数量
    size_t head_; // 队列头部指针
    size_t tail_; // 队列尾部指针
    T* buffer_; // 队列缓冲区    
    std::mutex mutex_; // 互斥量,保护队列缓冲区和队列大小
    std::condition_variable not_full_; // 条件变量,当队列满时等待
    std::condition_variable not_empty_; // 条件变量,当队列空时等待
};

#endif // CIRCULAR_QUEUE_H

针对上面的代码,质量挺好,上面的注释不是我写的,push和pop接口不指定第二个参数的话,默认是阻塞的,这一点使用时需要注意。

生成的单元测试不全面,我又贴了它生成的代码,让他帮我生成单元测试,这次很不错,接口基本覆盖了,还知道起线程测试阻塞接口,左右值的插入版本都测了。

相关视频推荐

高并发场景3种锁方案:自旋锁、互斥锁、原子操作的优缺点

高性能服务器开发必备组件-无锁队列的设计与实现

线程池、内存池、异步请求池、数据库连接池、无锁队列的ringbuffer,提升程序性能必备技术

免费学习地址:c/c++ linux服务器开发/后台架构师

需要C/C++ Linux服务器架构师学习资料加qun812855908(群内已接入chatgpt)获取(资料包括C/C++,Linux,golang技术,Nginx,ZeroMQ,MySQL,Redis,fastdfs,MongoDB,ZK,流媒体,CDN,P2P,K8S,Docker,TCP/IP,协程,DPDK,ffmpeg等),免费分享

测试时发现了单元测试有bug:

  1. 调用空队列的pop接口时未指明非阻塞,结果把自己阻塞住了,见单元测试注释(1)

可见目前为止chatgpt写出来的代码也是有bug的,不能全盘依赖。

circular_queue_gtest.cpp

以下是CircularQueue类的单元测试示例代码:

#include <gtest/gtest.h>
#include <thread>
  
#include "circular_queue.h"

TEST(CircularQueueTest, EmptyQueue) {
    CircularQueue<int> queue(10);
    ASSERT_TRUE(queue.empty());
    ASSERT_FALSE(queue.full());
    ASSERT_EQ(queue.size(), 0);
    ASSERT_EQ(queue.capacity(), 10);
}

TEST(CircularQueueTest, PushAndPop) {
    CircularQueue<int> queue(3);

    ASSERT_TRUE(queue.push(1));
    ASSERT_EQ(queue.size(), 1);
    ASSERT_FALSE(queue.empty());
    ASSERT_FALSE(queue.full());

    ASSERT_TRUE(queue.push(2));
    ASSERT_EQ(queue.size(), 2);
    ASSERT_FALSE(queue.empty());
    ASSERT_FALSE(queue.full());

    ASSERT_TRUE(queue.push(3));
    ASSERT_EQ(queue.size(), 3);
    ASSERT_FALSE(queue.empty());
    ASSERT_TRUE(queue.full());

    int value;
    ASSERT_TRUE(queue.pop(value));
    ASSERT_EQ(value, 1);
    ASSERT_EQ(queue.size(), 2);
    ASSERT_FALSE(queue.empty());
    ASSERT_FALSE(queue.full());

    ASSERT_TRUE(queue.pop(value));
    ASSERT_EQ(value, 2);
    ASSERT_EQ(queue.size(), 1);
    ASSERT_FALSE(queue.empty());
    ASSERT_FALSE(queue.full());

    ASSERT_TRUE(queue.pop(value));
    ASSERT_EQ(value, 3);
    ASSERT_EQ(queue.size(), 0);
    ASSERT_TRUE(queue.empty());
    ASSERT_FALSE(queue.full());

    ASSERT_FALSE(queue.pop(value,false)); // (1) 此项测试未指定非阻塞,笔者修改了
}

TEST(CircularQueueTest, PushAndPopWithBlocking) {
    CircularQueue<int> queue(2);

    std::thread t([&queue]() {
        int value = 0;
        queue.pop(value);
        ASSERT_EQ(value, 1);
        queue.pop(value);
        ASSERT_EQ(value, 2);
    });

    ASSERT_TRUE(queue.push(1));
    ASSERT_TRUE(queue.push(2));
    ASSERT_TRUE(queue.push(3));

    t.join();
}

TEST(CircularQueueTest, PushAndPopWithNonBlocking) {
    CircularQueue<int> queue(2);

    int value;
    ASSERT_TRUE(queue.push(1));
    ASSERT_TRUE(queue.push(2));
    ASSERT_FALSE(queue.push(3, false));
    ASSERT_TRUE(queue.pop(value));
    ASSERT_EQ(value, 1);
    ASSERT_TRUE(queue.pop(value));
    ASSERT_EQ(value, 2);
    ASSERT_FALSE(queue.pop(value, false));
}

TEST(CircularQueueTest, MovePushAndPop) {
    CircularQueue<std::string> queue(3);

    ASSERT_TRUE(queue.push("hello"));
    ASSERT_TRUE(queue.push("world"));
    ASSERT_EQ(queue.size(), 2);

    std::string value;
    ASSERT_TRUE(queue.pop(value));
    ASSERT_EQ(value, "hello");
    ASSERT_EQ(queue.size(), 1);

    ASSERT_TRUE(queue.push("foo"));
    ASSERT_EQ(queue.size(), 2);

    ASSERT_TRUE(queue.pop(value));
    ASSERT_EQ(value, "world");
    ASSERT_EQ(queue.size(), 1);

    ASSERT_TRUE(queue.pop(value));
    ASSERT_EQ(value, "foo");
    ASSERT_EQ(queue.size(), 0);
}

TEST(CircularQueueTest, CopyPushAndPop) {
    CircularQueue<std::string> queue(3);

    ASSERT_TRUE(queue.push(std::string("hello")));
    ASSERT_TRUE(queue.push(std::string("world")));
    ASSERT_EQ(queue.size(), 2);

    std::string value;
    ASSERT_TRUE(queue.pop(value));
    ASSERT_EQ(value, "hello");
    ASSERT_EQ(queue.size(), 1);

    ASSERT_TRUE(queue.push(std::string("foo")));
    ASSERT_EQ(queue.size(), 2);

    ASSERT_TRUE(queue.pop(value));
    ASSERT_EQ(value, "world");
    ASSERT_EQ(queue.size(), 1);

    ASSERT_TRUE(queue.pop(value));
    ASSERT_EQ(value, "foo");
    ASSERT_EQ(queue.size(), 0);
}

int main(int argc, char** argv) {
    testing::InitGoogleTest(&argc, argv);
    return RUN_ALL_TESTS();
}

解决上述问题后,单元测试跑过了:

上面的测试远远不够,再对测试提出要求,给代码添加gtest多线程单元测试,这是chatgpt给出的答案:

以下是添加gtest多线程单元测试后的代码:

#include <gtest/gtest.h>
#include <thread>

#include "circular_queue.h"

TEST(CircularQueueTest, MultiThreadPushPop) {
    const int num_threads = 4;
    const int num_iterations = 10000;
    const int queue_size = 100;

    CircularQueue<int> queue(queue_size);

    std::vector<std::thread> threads;

    for (int i = 0; i < num_threads; ++i) {
        threads.emplace_back([&queue, num_iterations]() {
            for (int j = 0; j < num_iterations; ++j) {
                queue.push(j);
            }
        });
    }

    for (int i = 0; i < num_threads; ++i) {
        threads.emplace_back([&queue, num_iterations]() {
            for (int j = 0; j < num_iterations; ++j) {
                int value;
                queue.pop(value);
            }
        });
    }

    for (auto& thread : threads) {
        thread.join();
    }

    ASSERT_EQ(queue.size(), 0);
}

int main(int argc, char** argv) {
    testing::InitGoogleTest(&argc, argv);
    return RUN_ALL_TESTS();
} 

在上面的测试中,我们创建了4个线程,其中两个线程分别向队列中推送10000个整数,另外两个线程则从队列中弹出这些整数。最后,我们检查队列是否为空。

值得注意的是,在多线程测试中,我们需要确保每个线程都使用自己的锁,否则可能会导致死锁或数据竞争等问题。因此,在上面的测试中,我们使用了CircularQueue类中的mutex_成员变量来确保每个线程都能独立地访问队列。

这个单元测试跑过了:

$ ./a.out 
[==========] Running 1 test from 1 test suite.
[----------] Global test environment set-up.
[----------] 1 test from CircularQueueTest
[ RUN      ] CircularQueueTest.MultiThreadPushPop
[       OK ] CircularQueueTest.MultiThreadPushPop (191 ms)
[----------] 1 test from CircularQueueTest (191 ms total)

[----------] Global test environment tear-down
[==========] 1 test from 1 test suite ran. (192 ms total)
[  PASSED  ] 1 test.

无锁版本

上面的循环队列使用锁保证了线程安全,对此我又明确提出了无锁的需求,无锁肯定是借助原子变量实现的,果不其然。

以下是一个基于C++11的线程安全且无锁的环形队列实现,存放的数据类型可以自定义。代码风格使用Google C++风格。

环形队列的实现是基于循环数组的,使用两个指针分别指向队列头和队列尾,实现数据的入队和出队操作。为了保证线程安全,使用了原子操作来保证多线程访问时的数据一致性。

代码如下,下面的代码注释是我加的:

#include <atomic>
#include <condition_variable>
#include <functional>
#include <iostream>
#include <thread>
#include <vector>

template <typename T, size_t N>
class RingQueue {
public:
    RingQueue() : read_idx_(0), write_idx_(0), data_{} {}

    bool Push(const T& item) { return PushImpl(item); }
    bool Push(T&& item) { return PushImpl(std::move(item)); }

    bool Pop(T& item) {
        // 考虑只有一个读者的,read_idx_的读取可以不加锁
        size_t current_read_idx = read_idx_.load(std::memory_order_relaxed);
   
  // 保证读到write_idx_的变化,此处memory_order_acquire发挥的是可见性问题
        if (current_read_idx == write_idx_.load(std::memory_order_acquire)) {
            return false;
        }

        item = std::move(data_[current_read_idx]); // 必须先把数据读走read_idx_才能+1,memory_order_release保证了对item的写不会被重排到read_idx+1之后
        read_idx_.store(Next(current_read_idx), std::memory_order_release);

        return true;
    }

    template <typename Func>
    bool Pop(Func&& func) {
        size_t current_read_idx = read_idx_.load(std::memory_order_relaxed);

        if (current_read_idx == write_idx_.load(std::memory_order_acquire)) {
            return false;
        }

        T item = std::move(data_[current_read_idx]);
        read_idx_.store(Next(current_read_idx), std::memory_order_release);

        func(std::move(item));

        return true;
    }

    bool IsEmpty() const {
        return read_idx_.load(std::memory_order_acquire) ==
               write_idx_.load(std::memory_order_acquire);
    }

    bool IsFull() const {
        return Next(write_idx_.load(std::memory_order_acquire)) ==
               read_idx_.load(std::memory_order_acquire);
    }

private:
    template <typename Item>
    bool PushImpl(Item&& item) {
        // 只有1个写线程,所以write_idx_可以不加锁
        size_t current_write_idx = write_idx_.load(std::memory_order_relaxed);
        size_t next_write_idx = Next(current_write_idx);

        // 读线程会修改read_idx_,所以此处需要保证看到read_idx_的变化,此处memory_order_acquire保证的是可见性问题
        if (next_write_idx == read_idx_.load(std::memory_order_acquire)) {
            return false;
        }

        // 数据的写入必须在write_idx_+1之前
        data_[current_write_idx] = std::forward<Item>(item);
        
        // 保证之前的写操作对读线程可见,即读线程能立刻看到data_刚写入的数据,当然也包括write_idx_的+1变化,memory_order_release会保证对data_的写入在write_idx_+1的操作之前完成。
        // 因为就算data_的赋值语句放在write_idx_+1之前,由于编译器或者运行期指令重排,并不一定能保证data_赋值语句就一定在write_idx_+1前执行。
        write_idx_.store(next_write_idx, std::memory_order_release);

        return true;
    }

    size_t Next(size_t current_idx) const { return (current_idx + 1) % N; }

    std::atomic<size_t> read_idx_;
    std::atomic<size_t> write_idx_;
    std::array<T, N> data_;
};

我们来点评下。

这个版本的代码也是挺优雅的,代码中使用了模板参数T和N,支持了不同数据类型和不同队列大小的选择,借助读写指针两个原子变量实现无锁环形队列。

但需要注意的是,这个只能实现一读一写的线程安全,存在多个读者或者多个写者时就线程不安全了。

无锁编程的难点在于对几个内存时序的理解。

补充下关于内存时序操作的解释。

C++定义了几种内存时序,这些时序规定了原子变量前后的所有内存操作(包括普通变量、原子变量)如何排序

std::memory_order_relaxed只保正操作的原子性,对于同一个原子变量的多个操作之间不存在任何内存序的限制,也就是说,它们可以随意重排序,也可以在任意时刻被其他线程的操作所干扰。因此,使用std::memory_order_relaxed时需要特别小心,必须确保操作的正确性不受此种松散的内存访问顺序的影响。

std::memory_order_relaxed主要用于那些不需要任何同步机制的场合,比如计数器的自增、自减等操作,这些操作只需要保证结果的正确性,而不需要保证其执行的顺序。因此,std::memory_order_relaxed是最快的内存序,但也是最危险的一种内存序。

std::memory_order_acquire确保所有之前的读操作都已经完成,然后再执行当前读取操作。这意味着,如果当前读取操作需要用到之前的读取操作的结果,那么它将能够正确地获取到这些结果。

具体来说,当使用memory_order_acquire语义时,编译器和处理器都会保证当前线程所在的CPU核心(或处理器)在执行当前原子操作之前,会先将所有之前的读操作所获得的数据从CPU缓存中刷新到主内存中,以保证当前线程能够读取到其他线程对共享变量的最新修改。

使用memory_order_acquire语义可以保证程序的正确性,避免出现数据竞争的问题。但是,使用memory_order_acquire语义可能会降低程序的性能,因为它要求在执行原子操作之前,必须将所有之前的读操作都刷新到主内存中,这可能会导致缓存一致性协议的开销增加。因此,在实际编程中,应该根据具体情况选择合适的内存序语义。

std::memory_order_release确保当前线程的所有写操作在该原子操作之前都已经完成,并且将这些写操作对其他线程可见。这样,其他线程就可以看到当前线程对共享数据所做的更改。

这种释放操作通常用于同步操作,例如将一个共享变量的值更新后通知其他线程。在这种情况下,std::memory_order_release可以确保其他线程能够看到更新后的值。

push提供了插入左值和右值两个版本,提高C++所谓的一点点性能,PushImpl提取了公共代码,实现代码复用,优雅!。

pop提供了两个版本,有个变体,不返回pop出来的对象,而是调用外部传入的回调,对pop出来的对象进行操作。

上面的Push和Pop都是非阻塞的,我们再让其生成阻塞和非阻塞合二为一的版本:

    bool Pop(T& item, bool block=false) {
        // 考虑只有一个读者的,read_idx_的读取可以不加锁
        size_t current_read_idx = read_idx_.load(std::memory_order_relaxed);
   
  // 保证读到write_idx_的变化,此处memory_order_acquire发挥的是可见性问题
        while (current_read_idx == write_idx_.load(std::memory_order_acquire)) {
         if (!block) {
          return false;
        }
        std::this_thread::yield(); // 让出调度
        }

        item = std::move(data_[current_read_idx]); // 必须先把数据读走read_idx_才能+1,memory_order_release保证了对item的写不会被重排到read_idx+1之后
        read_idx_.store(Next(current_read_idx), std::memory_order_release);

        return true;
    }

阻塞和非阻塞合二为一的Push的代码见后面,原理类似。

再让其生成async版本:

  void PopAsync(const T& value, std::function<void(bool)> callback) {
    auto task = [this, value, callback]() {
      bool result = Enqueue(value);
      callback(result);
    };
    std::thread(std::move(task)).detach();
  }

最后给一个整合后的完整版本:

#include <atomic>
#include <condition_variable>
#include <functional>
#include <iostream>
#include <thread>
#include <vector>

template <typename T, size_t N>
class RingQueue {
public:
    RingQueue() : read_idx_(0), write_idx_(0), data_{} {}

    bool Push(const T& item, bool block = false) { return PushImpl(item, block); }
    bool Push(T&& item, bool block = false) { return PushImpl(std::move(item), block); }

    bool Pop(T& item, bool block = false) {
        // 考虑只有一个读者的,read_idx_的读取可以不加锁
        size_t current_read_idx = read_idx_.load(std::memory_order_relaxed);
   
  // 保证读到write_idx_的变化,此处memory_order_acquire发挥的是可见性问题
        while (current_read_idx == write_idx_.load(std::memory_order_acquire)) {
         if (!block) {
          return false;
        }
        std::this_thread::yield();
        }

        item = std::move(data_[current_read_idx]); // 必须先把数据读走read_idx_才能+1,memory_order_release保证了对item的写不会被重排到read_idx+1之后
        read_idx_.store(Next(current_read_idx), std::memory_order_release);

        return true;
    }

    template <typename Func>
    bool Pop(Func&& func, bool block = false) {
        size_t current_read_idx = read_idx_.load(std::memory_order_relaxed);

        while (current_read_idx == write_idx_.load(std::memory_order_acquire)) {
         if (!block) {
          return false;
        }
        std::this_thread::yield();
        }

        T item = std::move(data_[current_read_idx]);
        read_idx_.store(Next(current_read_idx), std::memory_order_release);

        func(std::move(item));

        return true;
    }

    bool IsEmpty() const {
        return read_idx_.load(std::memory_order_acquire) ==
               write_idx_.load(std::memory_order_acquire);
    }

    bool IsFull() const {
        return Next(write_idx_.load(std::memory_order_acquire)) ==
               read_idx_.load(std::memory_order_acquire);
    }

private:
    template <typename Item>
    bool PushImpl(Item&& item, bool block = false) {
        // 只有1个写线程,所以write_idx_可以不加锁
        size_t current_write_idx = write_idx_.load(std::memory_order_relaxed);
        size_t next_write_idx = Next(current_write_idx);

        // 读线程会修改read_idx_,所以此处需要保证看到read_idx_的变化,此处memory_order_acquire保证的是可见性问题
        while (next_write_idx == read_idx_.load(std::memory_order_acquire)) {
            if(!block) {
                return false;
            }
            std::this_thread::yield();
        }

        // 数据的写入必须在write_idx_+1之前
        data_[current_write_idx] = std::forward<Item>(item);
        
        // 保证之前的写操作对读线程可见,即读线程能立刻看到data_刚写入的数据,当然也包括write_idx_的+1变化,memory_order_release会保证对data_的写入在write_idx_+1的操作之前完成。
        // 因为就算data_的赋值语句放在write_idx_+1之前,由于编译器或者运行期指令重排,并不一定能保证data_赋值语句就一定在write_idx_+1前执行。
        write_idx_.store(next_write_idx, std::memory_order_release);

        return true;
    }

    size_t Next(size_t current_idx) const { return (current_idx + 1) % (N+1); } // 此处笔者做了修改,N改成N+1

    std::atomic<size_t> read_idx_;
    std::atomic<size_t> write_idx_;
    std::array<T, N+1> data_;  // 此处笔者做了修改,N改成N+1
};

同样附上单元测试。

#include <gtest/gtest.h>
#include "RingQueue.h"

class RingQueueTest : public ::testing::Test {
protected:
    RingQueue<int, 10> queue_;
};

TEST_F(RingQueueTest, PushAndPop) {
    int value = 0;
    EXPECT_FALSE(queue_.Pop(value));
    EXPECT_TRUE(queue_.Push(1));
    EXPECT_FALSE(queue_.IsEmpty());
    EXPECT_TRUE(queue_.Pop(value));
    EXPECT_EQ(value, 1);
    EXPECT_TRUE(queue_.IsEmpty());
}

TEST_F(RingQueueTest, PushAndPopWithBlock) {
    int value = 0;
    std::thread t([&](){
        std::this_thread::sleep_for(std::chrono::milliseconds(100));
        queue_.Push(1, true);
    });
    EXPECT_TRUE(queue_.Pop(value, true));
    EXPECT_EQ(value, 1);
    t.join();
}

TEST_F(RingQueueTest, PushAndPopWithFunc) {
    int value = 0;
    queue_.Push(1);
    queue_.Pop([&](int v){ value = v + 1; });
    EXPECT_EQ(value, 2);
}

TEST_F(RingQueueTest, IsEmptyAndIsFull) {
    EXPECT_TRUE(queue_.IsEmpty());
    EXPECT_FALSE(queue_.IsFull());
    for (int i = 0; i < 10; ++i) {
        EXPECT_TRUE(queue_.Push(i));
    }
    EXPECT_TRUE(queue_.IsFull());
    EXPECT_FALSE(queue_.IsEmpty());
    int value = 0;
    EXPECT_FALSE(queue_.Push(10));
    EXPECT_TRUE(queue_.Pop(value));
    EXPECT_FALSE(queue_.IsFull());
}

int main(int argc, char** argv) {
    ::testing::InitGoogleTest(&argc, argv);
    return RUN_ALL_TESTS();
}

chatgpt在这个版本中同样犯了错误,实现的环形队列大小设置为10,但实际容量只有9,这没有什么毛病,因为最后一个空间用来区分非空还是满,但是它给的单元测试却是按照容量为10去测试,实际是测试不过的,然而它还给出了测试通过的报告。

修正这个问题后,单元测试都通过了。

[==========] Running 4 tests from 1 test suite.
[----------] Global test environment set-up.
[----------] 4 tests from RingQueueTest
[ RUN      ] RingQueueTest.PushAndPop
[       OK ] RingQueueTest.PushAndPop (0 ms)
[ RUN      ] RingQueueTest.PushAndPopWithBlock
[       OK ] RingQueueTest.PushAndPopWithBlock (100 ms)
[ RUN      ] RingQueueTest.PushAndPopWithFunc
[       OK ] RingQueueTest.PushAndPopWithFunc (0 ms)
[ RUN      ] RingQueueTest.IsEmptyAndIsFull
[       OK ] RingQueueTest.IsEmptyAndIsFull (0 ms)
[----------] 4 tests from RingQueueTest (100 ms total)

[----------] Global test environment tear-down
[==========] 4 tests from 1 test suite ran. (100 ms total)
[  PASSED  ] 4 tests.

显然上面的测试不够充分,我还需要读写线程并发读写的测试,它帮我生成了:

#include <gtest/gtest.h>
#include <thread>
#include <chrono>
#include <string>
#include <vector>
#include <iostream>

#include "RingQueue.h"

class RingQueueTest : public testing::Test {
protected:
    virtual void SetUp() {
        // 初始化数据
        for (int i = 0; i < 1000; ++i) {
            data_.push_back("data_" + std::to_string(i));
        }
    }

    std::vector<std::string> data_;
};

TEST_F(RingQueueTest, MultiThreadTest) {
    RingQueue<std::string, 10> queue;

    // 写线程
    std::thread writer([&queue, this]() {
        for (const auto& item : data_) {
            queue.Push(item, true);
        }
    });

    // 读线程
    std::thread reader([&queue, this]() {
        int count = 0;
        std::string item;
        while (count < 1000) {
            if (queue.Pop(item, true)) {
                EXPECT_EQ(item, "data_" + std::to_string(count));
                ++count;
            } else {
                std::this_thread::yield();
            }
        }
    });

    writer.join();
    reader.join();
}

一句话,虽有瑕疵,但还是很牛逼,超越国内99%的程序员,当然包括笔者。

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值