先上命令:
import from xxx.txt(文件路径) of del modified by codepage=1208 COLDEL| compound=100 commitcount 10000 MESSAGES xxx.log(打印的日志要存放的路径) insert into table_name(数据表名称)
选项解释:
codepage=1208(这个是关于数据库编码的,要选择和数据库相同的编码格式,不然会中文乱码)
coldel* *表示数据中每一行中数据字段的分割符,如 | , $等等
compound=100(1~100) 一般越大导入速度越快(是否影响其他性能,没有做过测试)
commitcount 10000 多少条提交一次,不做设置的话,import是每一条插入一次提交一次影响速度
MESSAGES 打印日志到日志文件,没有配置的话日志是一条条的打印到控制台,不方便浏览,也不方便差错。
比较数据(测试次数量少,不具有代表性):
100万数据亮导入数据库要大约3分钟
1200万数据大约用了时间9分钟不到
遇到的问题:
当我多次操作导入数据,删除数据操作之后,突然报错:The table cannot be accessed, because it is inactive
执行命令:
reorg table [table] 问题解决
注视:reorg table [table]命令是通过重构行来消除“碎片”数据并压缩信息,对表进行重组的