前言
工作上需要处理近1000万的数据。所以数据存储管理必须高效,第一时间想到QVector。
追加数据push_back
在大数据下主要关心数据即将溢出时如何分配内存:
可以看到,在数据溢出时,每次只会多分配一个数,即: d->size +1(如上图)。然后在realloc重新分配内存,先申请size+1大小,然后使用memcpy将数据拷贝(如下图)。看到这里我觉得这种方式不适合大数据类型,在数据溢出时会反复进行两个步骤:realloc一块内存,memcpy一段数据。
和链表相比
1.通过上面的对比,链表数据存储效率更高,没有多次申请一大块,然后数据搬运的动作。
2.qvetoer查询效率更高,因为数据是一整块,所以只需首地址 + 偏移值即可找到数据,链表需要循环遍历。
插入效率
源码如下,中间插入,从尾部插入push_back,从头部插入push_front也是调用insert:
void push_front(T &&t) { prepend(std::move(t)); }
inline void QVector<T>::prepend(T &&t)
{ insert(begin(), std::move(t)); }
移除元素效率
源码如下,和插入思想基本一致。
总结
Qvector并不适用于大数据存储,频繁的数据写入速率较低。