1、Hugegraph测试硬件
1.1、本机硬件
本机测试hugeGraph版本:0.10.4
后置存储数据库:rocksdb,1TB的普通硬盘
1.2、测试服务器硬件
测试服务器hugegraph版本:0.9.2,服务器分配16G空间,16核
后置存储数据库cassandra:3.11.0,存储空间未限制,普通硬盘
2、基准测试
2.1、数据加载
加载功能:hugegraph自带的原生的导入工具,其schema定义其数据类型,索引和边标签属性,struct定义边。
加载大量数据时间和速度:主要是测试百万,千万,亿级别的加载速度。
2.2、查询性能
查询响应时间——针对于多度查询
查询响应时间——针对于遍历所有路径查询
查询响应时间——针对于最短路径查询
3、测试报告
3.1、本机和测试flink写入速度
测试
写入速度
硬件情况
本地流程
前期数据量少大概4000条/分钟(数据量大概10多万)后期数据量大的写入未进行测试。
Intel® Core™ i5-9400 CPU @ 2.90GHz × 6,RocksDB后置数据库存储内存1TB
测试flink
前期数据量比较少大概写入2624条/分钟(3h38m-571988)
后期数据量多了大概写入1200/分钟(3d2h-5292999)
hugeGraph的16G,16核,Cassandra后置数据库存储内存未做限制
服务器上的写入速度小于本地写入速度原因:
1、服务器硬件
2、网络不稳定性
3.2、数据快速导入查询
3.2.1、百万级别导入
3.2.2、百万级别数据查询
点:150万
边:75万+新增边1万
查询最多五度,点定义有六个属性值,边只有一个属性值(id)
耗时
查询
g.V()
g.E()
g.V().out()
g.V().outE()或g.V().inE()
g.V().drop()或g.E().drop()
第一次耗时
0.656S
0.315S
报错
报错
报错
第一次查询后均耗时
0.04S
0.04S
报错
报错
报错
原因
g.V()遍历只显示250条数据
g.E()遍历只显示250条数据
错误的请求,已超过最大数值
遍历的最大值不能超过80万
删除的最大值不能超过1万
遍历所有点的g.V().out()报错:请求