以下为我总结出来的可能的错误原因
1.在sqoop安装文件的 sqoop-env.sh中hive_home的地址未指向正确的hive地址
解决方法:修改env.sh文件中的hive_home
2.在sqoop安装文件的 sqoop-env.sh中配置了hbase_home与hive_home,而安装的hbase和hive版本不匹配造成
解决方法:修改hbase_home,使其指向一个不存在的路径(随便写一个不存在的就行),从而使sqoop调用hive时无法通过错误的路径引用hbase。
以下为我使用的导入表数据到hive的代码,通过hdfs作为传输中介:
这个命令不用事先创建hive表
sqoop import –connect jdbc:mysql://localhost:3306/mysqldb --username root --password 123456 --table mysql_table_name --fields-terminated-by '\t' --target-dir /sqoop/hive/data --num-mappers 1 --hive-database default --hive-import --hive-table hive_table_name
其中 ,
mysqldb 为原表所在的mysql数据库名,mysql_table_name为原表名
root 为数据库用户名,123456为数据库密码
/sqoop/hive/data 为建立在hdfs上的一个文件夹,data(不能先前存在)为中转文件夹,如果全过程成功传输的话,data文件夹会自动建立再删除。
default 为传入hive中的数据库名,hive_table_name为传入hive中的表名。
下面为运行成功的报告截图