kettle案例7.2–数据加载–数据的批量加载 通常情况下,对于几千条甚至几十万条记录的数据迁移而言,采取DML(即数据操纵语言)的INSERT语句能够很好地将数据迁移到目标数据库中。然而,当数据迁移量过于庞大时,就不能使用INSERT语句,因为执行INSERT、UPDATE以及DELETE语句的操作都会生成事物日志,事物日志的生成会减慢加载的速度,故需要针对数据采取批量加载操作。 案例介绍 通过Kettle工具将文件weibo_user.csv中的数据批量加载到数据表weibo_user中 数据准备 假设,现有一个CSV格式的微博用户信息文件weibo_user.csv,其中包含了用户id、用户名称、用户性别、用户简介等字段,文件weibo_user.csv的具体内容如图所示(这里只截取了部分数据) 1.打开Kettle工具,创建转换 使用Kettle工具,创建一个转换batch_load,并添加执行CSV文件输入控件、表输出控件以及Hop跳连接线,具体