执行 SQOOP 的 import 到 HDFS 操作时,--hive-import
参数的目的是为了将mysql/oracle
等关系型数据库中的文件导入到HDFS文件系统时,顺便也导入到 hive 中去。
然而,有时我们增加该参数时,可能会报如下的错误:
13/04/21 16:42:50 ERROR tool.ImportTool: Encountered IOException running import job: java.io.IOException: Hive exited with status 1
at org.apache.sqoop.hive.HiveImport.executeExternalHiveScript(HiveImport.java:364)
at org.apache.sqoop.hive.HiveImport.executeScript(HiveImport.java:314)
at org.apache.sqoop.hive.HiveImport.importTable(HiveImport.java:226)
at org.apache.sqoop.tool.ImportTool.importTable(ImportTool.java:415)
at org.apache.sqoop.tool.ImportTool.run(ImportTool.java:476)
at org.apache.sqoop.Sqoop.run(Sqoop.java:145)
at org.apache.hadoop.util.ToolRunner.run(ToolRunner.java:65)
at org.apache.sqoop.Sqoop.runSqoop(Sqoop.java:181)
at org.apache.sqoop.Sqoop.runTool(Sqoop.java:220)
at org.apache.sqoop.Sqoop.runTool(Sqoop.java:229)
at org.apache.sqoop.Sqoop.main(Sqoop.java:238)
StackOverflow 上的一个帖子Sqoop Hive exited with status 1,点明了问题所在(HBase与Hive的版本不兼容所致)以及解决方案。
HBase 与 Hive 可在多种级别上出现不兼容的情况,但sqoop ... --hive-import
出错是因为二者的 thrift versions 版本不一致造成的。
比如我机器上的版本如下:
[root@hadoop0 ~]# ls $HIVE_HOME/lib | grep libthrift
libthrift-0.9.2.jar
[root@hadoop0 ~]# ls $HBASE_HOME/lib | grep libthrift
libthrift-0.8.0.jar
解决方案:
暂时性地将 HBASE_HOME 指向一个别不存在的位置,以使SQOOP不再加载HBase版本的 thrift。