······最近跟着厦门大学实验室在做大数据项目的一个案例,在利用sqoop将数据从hive导入mysql时报错,改了三天,参考了无数的案例,改到人崩溃,终于successfully!真的是我见过最好看的successfully了!记录下报的最多的一个错误,希望能帮助大家,给大家一个参考。
导入数据代码
cd /usr/local/hadoop/sqoop
./bin/sqoop export --connect jdbc:mysql://localhost:3306/dblab
--username root --password hadoop --table user_action
--export-dir '/user/hive/warehouse/dblab.db/user_action'
--fields-terminated-by '\t'; #导入命令
./bin/sqoop export ##表示数据从 hive 复制到 mysql 中
–connect jdbc:mysql://localhost:3306/dblab
–username root #mysql登陆用户名
–password hadoop #登录密码
–table user_action #mysql 中的表,即将被导入的表名称
–export-dir '/user/hive/warehouse/dblab.db/user_action ’ #hive 中被导出的文件
–fields-terminated-by ‘\t’ #Hive 中被导出的文件字段的分隔符
报错
这段代码重复出现
INFO mapreduce.Job: Job job_1649814898218_0011 running in uber mode : false
22/04/13 16:43:52 INFO mapreduce.Job: map 0% reduce 0%
22/04/13 16:43:53 INFO mapreduce.Job: Task Id : attempt_1649814898218_0011_m_000001_0, Status : FAILED
Container launch failed for container_1649814898218_0011_01_000003 : org.apache.hadoop.yarn.exceptions.InvalidAuxServiceException: The auxService:mapreduce_shuffle does not exist
at sun