sqoop导入关系表到HIVE报错

第一步:拷贝jar包
将我们mysql表当中的数据直接导入到hive表中的话,我们需要将hive的一个叫做hive-exec-1.1.0-cdh5.14.0.jar的jar包拷贝到sqoop的lib目录下
cp /export/servers/hive-1.1.0-cdh5.14.0/lib/hive-exec-1.1.0-cdh5.14.0.jar /export/servers/sqoop-1.4.6-cdh5.14.0/lib/
在这里插入图片描述

第二步:准备hive数据库与表
将我们mysql当中的数据导入到hive表当中来

hive (default)> create database sqooptohive;
hive (default)> use sqooptohive;
hive (sqooptohive)> create external table emp_hive(id int,name string,deg string,salary int ,dept string) row format delimited fields terminated by ‘\001’;

在这里插入图片描述
第三步:开始导入
bin/sqoop import --connect jdbc:mysql://192.168.2.169/userdb --username root --password 123456 --table emp --fields-terminated-by ‘\001’ --hive-import --hive-table sqooptohive.emp_hive --hive-overwrite --delete-target-dir --m 1

[root@node03 sqoop-1.4.6-cdh5.14.0]# bin/sqoop import --connect jdbc:mysql://192.168.2.169/userdb --username root --password 123456 --table emp --fields-terminated-by '\001' --hive-import --hive-table sqooptohive.emp_hive --hive-overwrite --delete-target-dir --m 1
Warning: /export/servers/sqoop-1.4.6-cdh5.14.0/bin/../../hcatalog does not exist! HCatalog jobs will fail.
Please set $HCAT_HOME to the root of your HCatalog installation.
Warning: /export/servers/sqoop-1.4.6-cdh5.14.0/bin/../../accumulo does not exist! Accumulo imports will fail.
Please set $ACCUMULO_HOME to the root of your Accumulo installation.
Warning: /export/servers/sqoop-1.4.6-cdh5.14.0/bin/../../zookeeper does not exist! Accumulo imports will fail.
Please set $ZOOKEEPER_HOME to the root of your Zookeeper installation.
20/04/24 22:06:50 INFO sqoop.Sqoop: Running Sqoop version: 1.4.6-cdh5.14.0
20/04/24 22:06:50 WARN tool.BaseSqoopTool: Setting your password on the command-line is insecure. Consider using -P instead.
20/04/24 22:06:50 INFO manager.MySQLManager: Preparing to use a MySQL streaming resultset.
20/04/24 22:06:50 INFO tool.CodeGenTool: Beginning code generation
20/04/24 22:06:51 INFO manager.SqlManager: Executing SQL statement: SELECT t.* FROM `emp` AS t LIMIT 1
20/04/24 22:06:51 INFO manager.SqlManager: Executing SQL statement: SELECT t.* FROM `emp` AS t LIMIT 1
20/04/24 22:06:51 INFO orm.CompilationManager: HADOOP_MAPRED_HOME is /export/servers/hadoop-2.6.0-cdh5.14.0
Note: /tmp/sqoop-root/compile/46dba8b72f286bb1019f26093dcdcbda/emp.java uses or overrides a deprecated API.
Note: Recompile with -Xlint:deprecation for details.
20/04/24 22:06:52 INFO orm.CompilationManager: Writing jar file: /tmp/sqoop-root/compile/46dba8b72f286bb1019f26093dcdcbda/emp.jar
20/04/24 22:06:53 INFO tool.ImportTool: Destination directory emp deleted.
20/04/24 22:06:53 WARN manager.MySQLManager: It looks like you are importing from mysql.
20/04/24 22:06:53 WARN manager.MySQLManager: This transfer can be faster! Use the --direct
20/04/24 22:06:53 WARN manager.MySQLManager: option to exercise a MySQL-specific fast path.
20/04/24 22:06:53 INFO manager.MySQLManager: Setting zero DATETIME behavior to convertToNull (mysql)
20/04/24 22:06:53 INFO mapreduce.ImportJobBase: Beginning import of emp
20/04/24 22:06:53 INFO Configuration.deprecation: mapred.jar is deprecated. Instead, use mapreduce.job.jar
20/04/24 22:06:53 INFO Configuration.deprecation: mapred.map.tasks is deprecated. Instead, use mapreduce.job.maps
20/04/24 22:06:53 INFO client.RMProxy: Connecting to ResourceManager at node01/192.168.247.101:8032
20/04/24 22:06:55 INFO db.DBInputFormat: Using read commited transaction isolation
20/04/24 22:06:55 INFO mapreduce.JobSubmitter: number of splits:1
20/04/24 22:06:55 INFO mapreduce.JobSubmitter: Submitting tokens for job: job_1587695816383_0007
20/04/24 22:06:55 INFO impl.YarnClientImpl: Submitted application application_1587695816383_0007
20/04/24 22:06:55 INFO mapreduce.Job: The url to track the job: http://node01:8088/proxy/application_1587695816383_0007/
20/04/24 22:06:55 INFO mapreduce.Job: Running job: job_1587695816383_0007
20/04/24 22:07:02 INFO mapreduce.Job: Job job_1587695816383_0007 running in uber mode : true
20/04/24 22:07:02 INFO mapreduce.Job:  map 0% reduce 0%
20/04/24 22:07:04 INFO mapreduce.Job:  map 100% reduce 0%
20/04/24 22:07:04 INFO mapreduce.Job: Job job_1587695816383_0007 completed successfully
20/04/24 22:07:04 INFO mapreduce.Job: Counters: 32
	File System Counters
		FILE: Number of bytes read=0
		FILE: Number of bytes written=0
		FILE: Number of read operations=0
		FILE: Number of large read operations=0
		FILE: Number of write operations=0
		HDFS: Number of bytes read=100
		HDFS: Number of bytes written=181103
		HDFS: Number of read operations=128
		HDFS: Number of large read operations=0
		HDFS: Number of write operations=6
	Job Counters 
		Launched map tasks=1
		Other local map tasks=1
		Total time spent by all maps in occupied slots (ms)=0
		Total time spent by all reduces in occupied slots (ms)=0
		TOTAL_LAUNCHED_UBERTASKS=1
		NUM_UBER_SUBMAPS=1
		Total time spent by all map tasks (ms)=1570
		Total vcore-milliseconds taken by all map tasks=0
		Total megabyte-milliseconds taken by all map tasks=0
	Map-Reduce Framework
		Map input records=5
		Map output records=5
		Input split bytes=87
		Spilled Records=0
		Failed Shuffles=0
		Merged Map outputs=0
		GC time elapsed (ms)=0
		CPU time spent (ms)=1100
		Physical memory (bytes) snapshot=368181248
		Virtual memory (bytes) snapshot=3088977920
		Total committed heap usage (bytes)=275251200
	File Input Format Counters 
		Bytes Read=0
	File Output Format Counters 
		Bytes Written=396
20/04/24 22:07:04 INFO mapreduce.ImportJobBase: Transferred 176.8584 KB in 11.8624 seconds (14.9091 KB/sec)
20/04/24 22:07:04 INFO mapreduce.ImportJobBase: Retrieved 5 records.
20/04/24 22:07:04 INFO manager.SqlManager: Executing SQL statement: SELECT t.* FROM `emp` AS t LIMIT 1
20/04/24 22:07:04 WARN hive.TableDefWriter: Column create_time had to be cast to a less precise type in Hive
20/04/24 22:07:04 WARN hive.TableDefWriter: Column update_time had to be cast to a less precise type in Hive
20/04/24 22:07:04 INFO hive.HiveImport: Loading uploaded data into Hive
20/04/24 22:07:05 ERROR tool.ImportTool: Import failed: java.io.IOException: Cannot run program "hive": error=2, No such file or directory
	at java.lang.ProcessBuilder.start(ProcessBuilder.java:1048)
	at java.lang.Runtime.exec(Runtime.java:620)
	at java.lang.Runtime.exec(Runtime.java:528)
	at org.apache.sqoop.util.Executor.exec(Executor.java:76)
	at org.apache.sqoop.hive.HiveImport.executeExternalHiveScript(HiveImport.java:382)
	at org.apache.sqoop.hive.HiveImport.executeScript(HiveImport.java:337)
	at org.apache.sqoop.hive.HiveImport.importTable(HiveImport.java:241)
	at org.apache.sqoop.tool.ImportTool.importTable(ImportTool.java:530)
	at org.apache.sqoop.tool.ImportTool.run(ImportTool.java:621)
	at org.apache.sqoop.Sqoop.run(Sqoop.java:147)
	at org.apache.hadoop.util.ToolRunner.run(ToolRunner.java:70)
	at org.apache.sqoop.Sqoop.runSqoop(Sqoop.java:183)
	at org.apache.sqoop.Sqoop.runTool(Sqoop.java:234)
	at org.apache.sqoop.Sqoop.runTool(Sqoop.java:243)
	at org.apache.sqoop.Sqoop.main(Sqoop.java:252)
Caused by: java.io.IOException: error=2, No such file or directory
	at java.lang.UNIXProcess.forkAndExec(Native Method)
	at java.lang.UNIXProcess.<init>(UNIXProcess.java:247)
	at java.lang.ProcessImpl.start(ProcessImpl.java:134)
	at java.lang.ProcessBuilder.start(ProcessBuilder.java:1029)
	... 14 more

You have new mail in /var/spool/mail/root
[root@node03 sqoop-1.4.6-cdh5.14.0]# 

出错点
20/04/24 22:07:05 ERROR tool.ImportTool: Import failed: java.io.IOException: Cannot run program “hive”: error=2, No such file or directory
可是刚才已经创建了emp_hive,为什么会出错?

解决方:
为sqoop配置你使用的hive环境

具体步骤如下:
1、找到/export/servers/sqoop-1.4.6-cdh5.14.0/conf/
的sqoop-env-template.sh 文件,将这个文件重命名为sqoop-env.sh ;
2、编辑sqoop-env.sh 文件,将你的hive的安装目录配上就OK。
在这里插入图片描述
此前hive目录搭配到hbase,所以错了
修改过后,成功运行
在这里插入图片描述

  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: Sqoop是一个用于在Hadoop集群和关系型数据库(如Oracle)之间进行数据传输的工具。使用Sqoop可以实现将Oracle表的数据导入Hive中。 首先,确保Sqoop已经正确安装并配置好了。 1. 查看Oracle连接信息:需要获取Oracle数据库的连接信息,包括数据库的URL,用户名和密码。 2. 创建Hive表:在Hive中创建一个表,用于存储从Oracle导入的数据。可以使用Hive的命令行或者Hive的客户端工具进行创建。 3. 导入数据:使用Sqoopimport命令将Oracle表中的数据导入Hive中。命令示例: ``` sqoop import --connect jdbc:oracle:thin:@servername:port/servicename --username username --password password --table tablename --hive-import --hive-table hivetable ``` 其中,`jdbc:oracle:thin:@servername:port/servicename`为Oracle数据库的连接URL,`username`和`password`是Oracle数据库的用户名和密码,`tablename`是要导入的Oracle表名,`hivetable`是要导入Hive中的表名。 4. 等待导入完成:Sqoop会自动将Oracle表中的数据导入Hive表中。根据数据的大小和网络的速度,导入的时间可能会有所不同。可以通过Sqoop的日志来查看导入的进度和状态。 导入完成后,可以使用Hive命令行或者Hive客户端工具来验证数据是否成功导入Hive表中。通过查询Hive表,可以查看导入的数据是否准确无误。 通过以上步骤,就可以使用Sqoop将Oracle表的数据导入Hive中了。这样,就可以在Hadoop集群上使用Hive进行大数据分析和数据处理了。 ### 回答2: Sqoop是一种用于将数据在关系型数据库和Hadoop之间进行传输的工具。它可以用来将Oracle表中的数据导入Hive中。 在使用Sqoop导入Oracle表到Hive之前,首先需要确保已经安装并配置了SqoopHive。然后,可以使用Sqoopimport命令来执行导入操作。 命令示例: ``` sqoop import \ --connect jdbc:oracle:thin:@//hostname:port/servicename \ --username your_username \ --password your_password \ --table your_table \ --hive-import \ --hive-table your_hive_table \ --hive-overwrite ``` 在这个命令中,需要替换以下参数: - `hostname:port/servicename`:Oracle数据库的主机名、端口号和服务名。 - `your_username`:连接Oracle数据库的用户名。 - `your_password`:连接Oracle数据库的密码。 - `your_table`:要导入的Oracle表名。 - `your_hive_table`:要在Hive中创建的表名。 在执行命令后,Sqoop会连接到Oracle数据库,并将指定的表数据导入Hive中。`--hive-import`参数用于指示Sqoop将数据导入Hive中。`--hive-table`参数用于指定在Hive中创建的表名。`--hive-overwrite`参数表示如果同名表已经存在于Hive中,则覆盖该表。 导入完成后,就可以在Hive中查询和分析导入的数据了。 ### 回答3: Sqoop是一款用于数据的批量传输工具,它可以将关系型数据库中的数据导入Hive中进行分析和处理。下面是使用Sqoop将Oracle表导入Hive的步骤: 1. 首先,确保Sqoop已经正确安装并配置好了与Oracle数据库和Hive的连接。 2. 使用Sqoop命令行工具,通过以下命令来导入数据: ``` sqoop import --connect jdbc:oracle:thin:@<hostname>:<port>/<database> --username <username> --password <password> --table <tablename> --hive-import --hive-table <hivetablename> ``` 其中,`<hostname>`是Oracle数据库的主机名,`<port>`是Oracle数据库的端口号,`<database>`是Oracle数据库的名称,`<username>`是登录Oracle的用户名,`<password>`是登录Oracle的密码,`<tablename>`是要导入的Oracle表的名称,`<hivetablename>`是要导入Hive中的表的名称。 3. 运行上述命令后,Sqoop会根据指定的连接信息和表信息从Oracle数据库中读取数据,并将数据以Avro文件格式的形式导入HDFS中的临时目录。 4. 然后,Sqoop将数据从临时目录加载到Hive表中,可以通过Hive查询语句对该表进行分析和处理。 需要注意的是,导入过程中可以根据具体需求进行一些参数的调整,如字段映射、分隔符、是否压缩等。 总结来说,通过Sqoop可以简便地将Oracle数据库中的数据导入Hive中,方便进行后续的数据分析和处理。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值