别再推荐使用 jsoncpp 了

事件起因

今天刷视频看到一位大佬写的json解析库的性能超群,秒杀了一众 json 解析库,其中包括我比较喜欢的 nlohmann json 库,这个库在他的测试中性能垫底,我曾写过一个 json 解析库,性能的对比对象就是这个库,我记得是略有不如。所以我第一时间想到的是不是测试有问题,nlohmann json 不可能这么慢啊,明明用到了大量模板的魔法😨,然后我就亲自把 nlohmann jsonjsoncpp 以及大佬的库都测了一遍。

为什么不推荐jsoncpp

如果有用过 jsoncpp 的,以及其他语言的json库的,我觉得都会认为 jsoncpp 的api也太难用了吧。。。

但是如果这一切都是为了性能,那么还是有选择余地的,但如果 jsoncpp 的复杂并没有带来实质性的性能提升,那么我们为什么不用更简单好用性能也更佳的 nlohmann json 呢?

以下为测试源码:Timer类用于计时

#include "time.hpp"
#include <iostream>
#include <filesystem>
#include <fstream>
using namespace std;
#include "nlohmann/json.hpp"
using json_nl = nlohmann::json;

#include"json/json.h"
using Value = Json::Value;
using Reader = Json::Reader;

#include "Json.h"

#include "my-json/Parser.h"
using my_parser = json::Parser;

//用于调整测试和验证文件的路径
#define BASE_DIR  "../../"

//输出到valid.json文件方便查看验证是否解析正确
void outPutValidJson(std::string const& src){
  auto ofs = ofstream(BASE_DIR"valid.json");
  ofs<<src;
}

//获取用于测试的json数据
std::string getSourceString(){
  auto ifs = ifstream(BASE_DIR"test.json");
  if(ifs){
    return string{istreambuf_iterator<char>(ifs),istreambuf_iterator<char>()};
  }
  return {};
}

//测试yaziJson的表现
void testYaziJson()
{
  //get src string
  auto data = getSourceString();
  yazi::json::Json json;
  //start bench
  {
    Timer t;
    json.parse(data);
  }
  //valid string
  outPutValidJson(json.str());
}

//测试nlohmannJson的表现
void testNlohmannJson()
{
   //get src string
  auto data = getSourceString();
  json_nl j;
  //start bench
  {
    Timer t;
    j = std::move(json_nl::parse(data));
  }
  //valid string
  outPutValidJson(j.dump());
}

//测试jsoncpp的表现
void testJsonCpp(){
  //get src string
  auto data = getSourceString();
  Value j;
  Reader r;
  //start bench
  {
    Timer t;
    if(!r.parse(data,j)){
      std::cerr<<"jsoncpp 出错";
      return;
    }
  }
  //valid string
  outPutValidJson(j.toStyledString());
}

//测试我的json解析库的表现
void testMyJson(){
    //get src string
  auto data = getSourceString();
  json::JObject j;
  //start bench
  {
    Timer t;
    j = std::move(my_parser::FromString(data));
  }
  //valid string
  outPutValidJson(j.to_string());
}

int main()
{

  for(int i=0;i<10;i++){
    testYaziJson();
    testMyJson();
    testJsonCpp();
    testNlohmannJson();
    std::cout<<"-----------------------"<<std::endl;
  }

}

代码仓库:bench_json4cpp

平均10次结果:

yazi-json: 482 us (0.482000 ms) 

my-json: 518 us (0.518000 ms) 

json-cpp: 1046 us (1.046000 ms) 

nlohmann-json: 884 us (0.884000 ms)

大佬写的那个库确实是最快的,但是最慢的不是 nlohmann json, 而是 jsoncpp。而且差距也没有大佬视频里面那么大,两倍的差距而已,这对于一个浅拷贝和深拷贝的性能差距是很正常的。我估计大佬那里测试的时候没开 release 优化(对应 g++ -o3 优化,看了源码,果然大佬是直接写 makefile 里面的 flag 用的 -o2 优化),那么他视频里的性能差距就很正常了,因为在没开 release 优化的前提下,某个库如果大量用到 STL 以及元模板编程的时候,STL 会拖后腿,而元模板也没法发挥最大效用。所以最终用于生产开 release 是很有必要的。

举个简单的例子:在大家的印象中 make_uniquemake_shared 创建智能指针会优化减少一次拷贝,那么相比直接 new 对象性能肯定会更好,你可以试试,实际测试中如果是 debug 情况下,直接 new 大概率会更快,但是切到 release 模式两者效率都有进步,但 make 系列函数调用的优化会更多。

json解析如何优化性能

C++ json解析的性能瓶颈就在于 std::string 等STL容器默认的拷贝行为,一个简单粗暴的优化方式就是通过传指针的方式而不是传值的方式,但是这样外界就需要来管理内存了,否则会产生内存泄漏等问题。前面那个大佬写的库处理方式就是这样的。

熟悉cpp的朋友,大概率想到避免拷贝的方式就是移动,只要强制对象只能移动不能拷贝就行了。

洞察我之前写的 json 解析库,发现还有一个地方经常需要拷贝,而且还没法避免。string 类型的 substr 方法,所以我换成了string_view。这样在内部使用的内存和外界就一致了,这就需要用户确保这个内存不会被修改或回收。传入字符串进行解析很明显不应该拥有所有权,即便拥有也应该把外界的内存移动进来,所以采取string_view则是不拥有所有权的方式优化。同时还有个好处就是兼容了C-style字符串。

具体实现代码:my-json

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值