Influxdb和TDengine的写入性能测试(Java)

23 篇文章 0 订阅

Background

  • TDengine提供两种读写方式,这里我们使用JNI方式。
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述
  • 这张图是之前用influxdata公司提供的工具测试的
    在这里插入图片描述

一、最终测试结果

  • 有一点需要注意,从后面我贴出的源码也可以看出,写入Influxdb的数据是在计时前准备好的,并且数据都是已经序列化过的数据;而TDengine的数据是边组织边写入,这在一定程度上也拖慢了写入速度,不过开篇我已经说了,我这里旨在大概了解下,不做科学准确的性能对比测试哈(TDengine官方的测试对比更科学可靠)。
  • 无论是写入还是查询,Influxdb的cpu负载和内存占用会随着数据量的增加而增加,例如一亿条数要5秒左右出结果,而TDengine查询几乎秒出,cpu负载和内存占用都较低且波动不大。

在这里插入图片描述

在这里插入图片描述


在这里插入图片描述

在这里插入图片描述

二、测试基本环境

kv
osCentos7.9
cpu12 Intel® Core™ i7-8700 CPU @ 3.20GHz
osCentos7.9
内存16g
Influxdb1.6.1
TDengine2.4.0.12

三、测试源码

  • maven 依赖
		<dependency>
            <groupId>com.taosdata.jdbc</groupId>
            <artifactId>taos-jdbcdriver</artifactId>
            <version>2.0.37</version>
        </dependency>
package com.cloudansys.test;

import cn.hutool.core.util.NumberUtil;
import cn.hutool.core.util.StrUtil;
import com.taosdata.jdbc.TSDBDriver;
import com.taosdata.jdbc.TSDBPreparedStatement;
import okhttp3.OkHttpClient;
import org.influxdb.InfluxDB;
import org.influxdb.InfluxDBFactory;
import org.influxdb.dto.Point;

import java.sql.*;
import java.util.ArrayList;
import java.util.List;
import java.util.Properties;
import java.util.concurrent.TimeUnit;

public class TestWriteRead {

    public static void main(String[] args) throws Exception {
        int factor = 2000;
        writeToTDengine(factor);
//        writeToInfluxDB(factor);
//        queryTDengine();
    }

    /**
     * 写入 tdengine
     */
    private static void writeToTDengine(int factor) throws Exception {
        Connection conn = getTdConn();
        int numOfTid = 100, ef = factor / 100, numOfRow = ef * 10000;
        int bf = 2000, count = numOfRow / bf, left = factor;
        String sql = "insert into ? using st_wy tags(?) values(?,?,?,?)";
        TSDBPreparedStatement pStmt = conn.prepareStatement(sql).unwrap(TSDBPreparedStatement.class);
        long startTime = System.currentTimeMillis();
        System.out.println("=======================<写入开始>=======================");
        for (int i = 1; i <= numOfTid; i++) {
            long current = System.currentTimeMillis();
            for (int j = 0; j < count; j++) {
                // set table name
                pStmt.setTableName("t_" + i);
                // set tags
                pStmt.setTagInt(0, i);
                // set columns
                ArrayList<Long> tsList = new ArrayList<>();
                for (int k = 0; k < bf; k++) {
                    tsList.add(current++);
                }
                // set timestamp
                pStmt.setTimestamp(0, tsList);
                // set v1 v2 v3
                pStmt.setDouble(1, ranValues(bf));
                pStmt.setDouble(2, ranValues(bf));
                pStmt.setDouble(3, ranValues(bf));
                // add column
                pStmt.columnDataAddBatch();
                // execute column
                pStmt.columnDataExecuteBatch();
            }
            left -= ef;
            System.out.print("\r" + factor + "万条数据写入中:" + left + " 万条");
        }
        System.out.println("\n=======================<写入结束>=======================");
        long endTime = System.currentTimeMillis();
        System.out.println("总共耗时:" + (endTime - startTime) / 1000 + "s");
        conn.close();
    }

    /**
     * 初始化表信息 tdengine
     */
    private static void initSchema(Connection conn) throws Exception {
        Statement stmt = conn.createStatement();
        stmt.execute("create stable st_wy(ts timestamp, v1 double, v2 double, v3 double) tags(tid int);");
    }

    /**
     * 查询 tdengine
     */
    private static void queryTDengine() throws Exception {
        Connection conn = getTdConn();
        Statement stmt = conn.createStatement();
        String sql = "select * from t_1 limit 5;";
        ResultSet resultSet = stmt.executeQuery(sql);
        Timestamp ts;
        double v1, v2, v3;
        System.out.println("ts-v1-v2-v3");
        String template = "{}-{}-{}-{}";
        while (resultSet.next()) {
            ts = resultSet.getTimestamp(1);
            v1 = resultSet.getDouble("v1");
            v2 = resultSet.getDouble(3);
            v3 = resultSet.getDouble(4);
            System.out.println(StrUtil.format(template, ts, v1, v2, v3));
        }
        conn.close();
    }

    /**
     * 获取指定大小的随机数列表
     */
    private static ArrayList<Double> ranValues(int size) {
        ArrayList<Double> resList = new ArrayList<>();
        for (int i = 0; i < size; i++) {
            resList.add(NumberUtil.round(Math.random(), 3).doubleValue());
        }
        return resList;
    }

    /**
     * 写入 inflxudb
     */
    private static void writeToInfluxDB(int factor) {
        List<String> records = getRecords(factor);
        InfluxDB influxDB = getInfluxDB();
        long startTime = System.currentTimeMillis();
        System.out.println("\n=======================<写入开始>=======================");
        writeRecords(influxDB, records);
        System.out.println("\n=======================<写入结束>=======================");
        long endTime = System.currentTimeMillis();
        System.out.println("总共耗时:" + (endTime - startTime) / 1000 + "s");
        influxDB.close();
    }

    /**
     * 批量写入数据
     * 50=39
     * 100=37
     */
    private static void writeRecords(InfluxDB influxDB, List<String> records) {
        List<String> dataList = new ArrayList<>();
        int num = 0, batchFactor = 25, factor = records.size() / 10000;
        for (String record : records) {
            dataList.add(record);
            if (dataList.size() == batchFactor * 10000) {
                influxDB.write(dataList);
                dataList.clear();
                System.out.print("\r" + factor + "万条数据写入中:" + (factor - batchFactor * ++num) + " 万条");
            }
        }
    }

    /**
     * 获取指定条数(万条)的模拟数据
     */
    private static List<String> getRecords(int factor) {
        List<String> records = new ArrayList<>();
        Point.Builder pointBuilder = Point.measurement("wy");
        long curMillis = System.currentTimeMillis();
        int num = factor / 100, count = num * 10000;
        for (int i = 1; i <= 100; i++) {
            System.out.print("\r" + factor + "万条数据准备中:" + i * num + " 万条");
            for (int j = 1; j <= count; j++) {
                pointBuilder
                        .time(curMillis++, TimeUnit.MILLISECONDS)
                        .tag("tid", String.valueOf(i))
                        .addField("v1", NumberUtil.round(Math.random(), 3).doubleValue())
                        .addField("v2", NumberUtil.round(Math.random(), 3).doubleValue())
                        .addField("v3", NumberUtil.round(Math.random(), 3).doubleValue());
                records.add(pointBuilder.build().lineProtocol());
            }
        }
        return records;
    }

    /**
     * 获取 tdengine 连接
     */
    private static Connection getTdConn() throws Exception {
        Class.forName("com.taosdata.jdbc.TSDBDriver");
        // Class.forName("com.taosdata.jdbc.rs.RestfulDriver");
        String jdbcUrl = "jdbc:TAOS://elephant:6030/db_wlf?user=root&password=taosdata";
        // String jdbcUrl = "jdbc:TAOS-RS://elephant:6041/db_wlf?user=root&password=taosdata";
        Properties connProps = new Properties();
        connProps.setProperty(TSDBDriver.PROPERTY_KEY_CHARSET, "UTF-8");
        connProps.setProperty(TSDBDriver.PROPERTY_KEY_LOCALE, "en_US.UTF-8");
        connProps.setProperty(TSDBDriver.PROPERTY_KEY_TIME_ZONE, "UTC-8");
        return DriverManager.getConnection(jdbcUrl, connProps);
    }

    /**
     * 获取 influxdb 连接
     */
    private static InfluxDB getInfluxDB() {
        String serverURL = "http://elephant:8086";
        String username = "wlf";
        String password = "wlf@123";
        String database = "db_wlf";
        OkHttpClient.Builder clientBuilder = new OkHttpClient.Builder().readTimeout(100, TimeUnit.SECONDS);
        // 批大小(万条)
        int batchSize = 20;
        // 写间隔(ms)
        int interval = 1000;
        return InfluxDBFactory
                .connect(serverURL, username, password, clientBuilder)
                .setDatabase(database)
                .enableGzip();
        // 第一个是point的个数,第二个是时间,单位毫秒,第三个时间单位
//                .enableBatch(batchSize * 10000, interval, TimeUnit.MILLISECONDS);
    }
}

四、TDengineGUI

  • TDengineGUI这个工具界面看着挺素的,但是使用起来还是挺方便的。
  • 不过没有提供数据的导入和导出功能(官方命令行提供数据的导入和导出)。

在这里插入图片描述

  • 1
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 2
    评论
InfluxDBTDengine和IoTDB都是流行的时间序列数据库,用于处理和存储大规模时间序列数据。它们在设计理念、功能特性和适用场景上有一些区别。下面是它们之间的对比: 1. InfluxDB: - 设计理念:InfluxDB是一个开源的、分布式的、高性能的时间序列数据库,专门为快速存储和检索时间序列数据而设计。 - 功能特性:支持高并发写入和查询操作,提供SQL-like查询语言(InfluxQL)和基于HTTP的API,支持数据的聚合、降采样和连续查询等功能。 - 适用场景:适用于需要实时监控和分析大量时间序列数据的场景,如监控系统、物联网、传感器数据处理等。 2. TDengine: - 设计理念:TDengine是一个开源的、高性能的时间序列数据库,旨在提供高效的数据存储和实时数据分析能力。 - 功能特性:支持高并发写入和查询操作,提供类似于SQL的查询语言(TAOS SQL)和基于TCP/UDP的API,支持数据的压缩、分区和副本等功能。 - 适用场景:适用于需要高性能和低延迟的实时数据分析场景,如物联网、金融行业的交易数据分析、工业监控等。 3. IoTDB: - 设计理念:IoTDB是一个开源的、分布式的、可扩展的时间序列数据库,专门用于存储和处理物联网设备生成的海量时间序列数据。 - 功能特性:支持高并发写入和查询操作,提供类似于SQL的查询语言(IoTDB SQL)和基于JDBC的API,支持数据的压缩、索引和多维查询等功能。 - 适用场景:适用于大规模物联网设备数据的存储和分析场景,如智能城市、工业自动化、智能交通等。 总体而言,这三个时间序列数据库都具有高性能、高并发的特点,适用于不同规模和类型的时间序列数据处理场景。选择哪个数据库取决于数据规模、性能需求、功能需求以及你的团队对相关技术的熟悉程度。在进行选择时,建议进行详细的评估和性能测试,以确定最适合你的具体需求的数据库。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

WaiSaa

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值