1.全量导入mysql表数据到HDFS
bin/sqoop \
--connect jdbc:mysql://node01:3306/userdb \
--username root \
--password hadoop \
--table emp \
--target-dir /sqoop-demo \
--m 1
其中connect、username、password指定要连接的mysql的数据库用户名和密码以及表的名字
target-dir指定到处数据到hdfs的目录,在hdfs上默认使用逗号作为分割表中的数据和字段
2.全量导入mysql表数据到hive中
//将关系型数据库的表结构复制到hive中
//table指定表的名称
//hive-table 指定新建的表
bin/sqoop create-hive-table \
--connect jdbc:mysql://node01:3306/userdb \
--username root \
--password hadoop \
--table emp
--hive-table ittest.sqoop \
//将数据导入到hive中
bin/sqoop import \
--connect jdbc:mysql://node01:3306/userdb \
--username root \
--password hadoop \
--table emp
--hive-table ittest.sqoop \
--hive-import \
--m 1
3.使用where过滤导入mysql表数据到HDFS
bin/sqoop import \
--connect jdbc:mysql://node01:3306/userdb \
--username root \
--password hadoop \
--table emp
--where "id='liming'"
--target-dir /sqoop \
--m 1