hdfs上的csv文件导入mysql表_HDFS、Hive、MySQL、Sqoop之间的数据导入导出(强烈建议去看)...

Hive几种数据导出方式 https://www.iteblog.com/archives/955 (强烈建议去看)

把MySQL里的数据导入到HDFS

1、使用MySQL工具手工导入

把MySQL的导出数据导入到HDFS的最简单方法就是,使用命令行工具和MySQL语句。

为了导出整个数据表或整个数据库的内容,MySQL提供了mysqldump工具。

比如

SELECT  col1,col2 FORM TABLE

INTO OUTFILE ‘/tmp/out.csv‘

FIELDS TERMINATED BY ‘,‘ , LINES  TERMINATED  BY ‘\n‘;

这个学格式就好,具体表看自己的。

一旦我们把数据导出到文件中,就可以用hadoop fs -put把该文件,从本地linux移到HDFS上。

2、使用Sqoop把MySQL里的数据导入到HDFS

$ sqoop  import  --connect  jdbc:mysql://192.168.80.128/hive  --username   hive   \ >  --password  hive   --table  employees

注意,这里根据自己的来,元数据库名,用户名和密码

把MySQL里的数据导入到Hive

$ sqoop  import  --connect jdbc:mysql://192.168.80.128/hive   --username  hive   -password  hive  --table employees   --hive-import    --hive-table  employees

更为详细,见

用Sqoop将mysql中的表和数据导入到Hive中

把HDFS里的数据导出到MySQL

$ sqoop  export --connect  jdbc:mysql://192.168.80.128/hive  --username  hive   -password  hive  --table employees   --export-dir  edata  --input-fields-terminated-by  ‘\t‘

更为详细,见

Sqoop1.4.5+hadoop2.2.0进行Mysql到HDFS的数据转换

把HDFS里的数据导出到Hive

$  sqoop  export  --connect jdbc://mysql://192.168.80.128/hive  -username  hive   -password  hive  --table employees  --export-dir  /user/hive/warehouse/employees   --input-fields-terminated-by  ‘\001‘     --input-lines-terminated-by  ‘\n‘

HDFS、Hive、MySQL、Sqoop之间的数据导入导出(强烈建议去看)

标签:导出   .net   size   数据转换   ref   dir   username   nat   tmp

本条技术文章来源于互联网,如果无意侵犯您的权益请点击此处反馈版权投诉

本文系统来源:http://www.cnblogs.com/zlslch/p/6115754.html

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值