一、导入数据库表数据到HDFS
二、导入到HDFS指定目录
/usr/bin/sqoop import \
--connect jdbc:mysql://192.168.88.80:3306/test \
--username root \
--password 123456 \
--delete-target-dir \
--table emp_add \
--target-dir /sqoop/emp \
-m 1
三、导入到hdfs指定目录并指定字段之间的分隔符
/usr/bin.sqoop import \
--connect jdbc:mysql://192.168.88.80:3306/test \
--username root \
--password 123456 \
--delete-target-dir \
--table emp \
--target-dir /sqoop/emp2 \
--m 1 \
--fields-terminated-by '\t'
四、导入关系表到HIVE
/usr/bin/sqoop import \
--connect jdbc:mysql://192.168.88.80:3306/test \
--username root \
--password 123456 \
--table emp \
--fields-terminated-by '\t' \
--hcatalog-database sqooptohive \
--hcatalog-table emp_hive \
--m 1
五、where导入到HDFS
/usr/bin/sqoop import \
--connect jdbc:mysql://192.168.88.80:3306/test \
--username root \
--password 123456 \
--table emp_add \
--target-dir /sqoop/emp_add \
--m 1
--delete-target-dir \
--where "city='sec-bad'"
六、sql语句查找导入hdfs
/usr/bin/sqoop import \
--connect jdbc:mysql://192/168.88.80:3306/test \
--username root \
--password 123456 \
--delete-target-dir \
--m 1 \
--query "select phno from emp_conn where 1=1 and \$CONDITIONS" \
--target-dir /sqoop/emp_conn
七、增量导入数据到Hive表
/usr/bin/sqoop import \
--connect jdbc:mysql://192.168.88.80:3306/test \
--username root \
--password 123456 \
--query "select * from emp where id>1203 and \$CONDITIONS" \
--fields-terminated-by '\t' \
--hcatalog-database sqooptohive \
--hcatalog-database emp_hive \
-m 1
八、Sqoop的数据导出
/usr/bin/sqoop export \
--connect jdbc:mysql://192.168.88.80:3306/test \
--username root \
--password 123456 \
--table emp_out \
--hcatalog-database sqooptohive \
--hcatalog-table emp_hive \
-m 1