**
OGG性能测试 oralce 12c 到kafka 2019-11-18
**
-
**环境:ogg-kafka ogg版本:191004_fbo_ggs_Linux_x64_shiphome
-
ogg-kafka版本:OGG_BigData_Linux_x64_19.1.0.0.1
-
kafka集群:192.168.202.135,136,185 topic:test gourpId:mysteel
-
oracle版本:12c 12.2.0.1.0 服务器内核版本:CentOS release 6.10 (Final)**
JDBC测试:
一:10线程 连续插入10000条数据到表test.DP_INDEX_DATA
之前数据量:22595 插入完成后 kafka内数据量 32595
二:10线程 连续插入100000条数据到表test.DP_INDEX_DATA
之前数据量:32595 插入完成后 kafka内数据量 132595
三:10线程 连续插入1000000条数据到表test.DP_INDEX_DATA
之前数据量:132595 插入完成后 kafka内数据量 1132595
四:20线程 每个线程连续插入500000条数据,总数据量10000000条,到表test.DP_INDEX_DATA
之前数据量:132595 插入完成后 kafka内数据量 5643650
总结:在连续测试10000-110000-1110000-11110000,百万级的数据量插入时,OGG同步到kafka未发现数据库丢失,课件ogg稳定性还是不错的!
对于千万级以上,模拟用户20线程同时insert数据,每线程500000 条数据,通过ogg实际到kafka缺只有5643650-132595 =5,511,055 丢失数据很明显;所以应对平时正常生产,性能足够;也可能受限于单个物理cpu硬件等因素,生产环境性能应该会更好,测试数据仅供参考;