12-TDengine数据迁移:导入与导出

  1. 一个dbs.sql文件,内容为导出的数据库、超级表创建语句;

  2. 若干个XXX_tables.N.sql文件,文件名的规则:XXX是数据库名称,N是数字,从0开始递增,内容为数据表建表语句、插入语句;

2021-09-24-AllContent.jpg

  • 导出指定数据库中指定表的数据,可指定多个表,以空格分隔

./bin/taosdump -o ./dump ok device2 -t 500 -B 100 -T 8

2021-09-24-TableContent.jpg

  • 导出指定数据库的schema

./bin/taosdump -o ./dump -D ok -t 500 -s -T 8

2021-09-24-Schema.jpg

  • 导出所有数据库的schema

./bin/taosdump -o ./dump -A -t 500 -s -T 8

数据导出:导出CSV

select * from ok.power >> data.csv

Note:

  1. 以上是导出所有子表数据到一个csv文件,如果后续需要通过csv文件导入,应按照子表进行查询导出,然后再导入;或者采用taosdump导出。

  2. 未指定路径的导出,默认在当前目录下;下载到本地后,是Windows操作系统,csv格式的文件默认关联Excel打开,打开之后,中文乱码。

2021-09-24-Charset.jpg

这个不是 TDenginebug ,因为通过文本文件打开是正常的,另存为 ANSI 编码后,在 Excel 中打开中文正常显示。

2021-09-24-Excel.jpg

数据导入


数据导入:source

这种方式类似于批量执行 SQL 语句,比如以下 SQL 语句构成的文件:data.sql

create database if not exists ok;

USE ok;

create stable if not exists power(ts timestamp, voltage int, current float, temperature float) tags(sn int, city nchar(64), groupid int);

create table if not exists device1 using power tags(1, “太原”, 1);

create table if not exists device2 using power tags(2, “西安”, 2);

insert into device1 values(“2021-09-04 21:03:38.734”, 1, 1.0, 1.0);

insert into device2 values(“2021-09-04 21:03:40.734”, 2, 2.0, 2.0);

taos> source “/usr/local/taos/data.sql”;

2021-09-24-Source.jpg

数据导入:导入CSV

当导入单个子表数据时可采用这种方式, data.csv 文件内容如下:

‘2021-09-04 21:03:38.734’,1,1.00000,1.00000,1,‘太原’,1

‘2021-09-05 23:05:11.138’,225,9.47500,13.52135,1,‘太原’,1

‘2021-09-05 23:05:41.138’,208,6.44464,0.99233,1,‘太原’,1

taos> insert into ok.device1 file ‘/usr/local/taos/data.csv’;

Query OK, 3 of 3 row(s) in database (0.002303s)

Note:

  1. 此处应按照子表进行导入,即csv文件中的数据应只属于一张表,当然csv数据应与数据表结构一致;

  2. csv文件中应仅包含数据(即要求去掉表头),如果CSV文件首行存在描述信息,请手动删除后再导入。如某列为空,填NULL,无引号。

数据导入:taosdump

实际中更多的采用这种方式完成数据迁移:先导出→压缩→传输至其他主机上→解压→导入→完成。

-i 表示输入文件的目录

[root@hadoop1 taos]# ./bin/taosdump -i ./dump -T 8

====== arguments config ======

host: (null)

user: root

password: taosdata

port: 0

mysqlFlag: 0

outpath:

inpath: ./dump

resultFile: ./dump_result.txt

encode: (null)

all_databases: false

databases: 0

schemaonly: false

with_property: true

avro format: false

start_time: -9223372036854775807

end_time: 9223372036854775807

precision: ms

data_batch: 1

max_sql_len: 65480

table_batch: 1

thread_num: 8

allow_sys: 0

abort: 0

isDumpIn: 1

arg_list_len: 0

debug_print: 0

==============================

start to dispose 3 files in ./dump

Success Open input file: ./dump/dbs.sql

, Success Open input file: ./dump/ok.tables.0.sql

, Success Open input file: ./dump/ok.tables.1.sql

导入完成。

taosdump参数列表

可通过 help 参数,查看 taosdump 主要参数说明;

[root@hadoop1 taos]# ./bin/taosdump --help

Usage: taosdump [OPTION…] dbname [tbname …]

or: taosdump [OPTION…] --databases dbname …

or: taosdump [OPTION…] --all-databases

or: taosdump [OPTION…] -i inpath

or: taosdump [OPTION…] -o outpath

-h, --host=HOST Server host dumping data from. Default is

localhost.

-p, --password User password to connect to server. Default is

taosdata.

-P, --port=PORT Port to connect

-q, --mysqlFlag=MYSQLFLAG mysqlFlag, Default is 0

-u, --user=USER User name used to connect to server. Default is

root.

-c, --config-dir=CONFIG_DIR Configure directory. Default is

/etc/taos/taos.cfg.

-e, --encode=ENCODE Input file encoding.

-i, --inpath=INPATH Input file path.

-o, --outpath=OUTPATH Output file path.

-r, --resultFile=RESULTFILE DumpOut/In Result file path and name.

-a, --allow-sys Allow to dump sys database

-A, --all-databases Dump all databases.

-D, --databases Dump assigned databases

-N, --without-property Dump schema without properties.

-s, --schemaonly Only dump schema.

-v, --avro Dump apache avro format data file. By default,

dump sql command sequence.

-B, --data-batch=DATA_BATCH Number of data point per insert statement. Max

value is 32766. Default is 1.

-L, --max-sql-len=SQL_LEN Max length of one sql. Default is 65480.

-t, --table-batch=TABLE_BATCH Number of table dumpout into one output file.

Default is 1.

-T, --thread_num=THREAD_NUM Number of thread for dump in file. Default is

-S, --start-time=START_TIME Start time to dump. Either epoch or

ISO8601/RFC3339 format is acceptable. ISO8601

format example: 2017-10-01T00:00:00.000+0800 or

2017-10-0100:00:00:000+0800 or '2017-10-01

00:00:00.000+0800’

-E, --end-time=END_TIME End time to dump. Either epoch or ISO8601/RFC3339

format is acceptable. ISO8601 format example:

2017-10-01T00:00:00.000+0800 or

2017-10-0100:00:00.000+0800 or '2017-10-01

00:00:00.000+0800’

-C, --precision=PRECISION Specify precision for converting human-readable

time to epoch. Valid value is one of ms, us, and
自我介绍一下,小编13年上海交大毕业,曾经在小公司待过,也去过华为、OPPO等大厂,18年进入阿里一直到现在。

深知大多数Java工程师,想要提升技能,往往是自己摸索成长或者是报班学习,但对于培训机构动则几千的学费,着实压力不小。自己不成体系的自学效果低效又漫长,而且极易碰到天花板技术停滞不前!

因此收集整理了一份《2024年Java开发全套学习资料》,初衷也很简单,就是希望能够帮助到想自学提升又不知道该从何学起的朋友,同时减轻大家的负担。img

既有适合小白学习的零基础资料,也有适合3年以上经验的小伙伴深入学习提升的进阶课程,基本涵盖了95%以上Java开发知识点,真正体系化!

由于文件比较大,这里只是将部分目录截图出来,每个节点里面都包含大厂面经、学习笔记、源码讲义、实战项目、讲解视频,并且会持续更新!

如果你觉得这些内容对你有帮助,可以扫码获取!!(备注:Java)

总结

对于面试,一定要有良好的心态,这位小伙伴面试美团的时候没有被前面阿里的面试影响到,发挥也很正常,也就能顺利拿下美团的offer。
小编还整理了大厂java程序员面试涉及到的绝大部分面试题及答案,希望能帮助到大家,

在这里插入图片描述

在这里插入图片描述

最后感谢大家的支持,希望小编整理的资料能够帮助到大家!也祝愿大家都能够升职加薪!
《互联网大厂面试真题解析、进阶开发核心学习笔记、全套讲解视频、实战项目源码讲义》点击传送门即可获取!
[外链图片转存中…(img-0GFAMHkD-1713787841011)]

总结

对于面试,一定要有良好的心态,这位小伙伴面试美团的时候没有被前面阿里的面试影响到,发挥也很正常,也就能顺利拿下美团的offer。
小编还整理了大厂java程序员面试涉及到的绝大部分面试题及答案,希望能帮助到大家,

[外链图片转存中…(img-fw3njpwX-1713787841012)]

[外链图片转存中…(img-fFviL9BH-1713787841012)]

最后感谢大家的支持,希望小编整理的资料能够帮助到大家!也祝愿大家都能够升职加薪!
《互联网大厂面试真题解析、进阶开发核心学习笔记、全套讲解视频、实战项目源码讲义》点击传送门即可获取!

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值