转载文章:http://blog.sina.com.cn/s/blog_c0dd8b4e0102ycsh.html
/usr/hive/warehouse
问题一:
运行hive.sh或者hiveserver2.sh文件时报错:ls: 无法访问/home/asus/spark/lib/spark-assembly-*.jar: 没有那个文件或目录
原因:
hive.sh中有段代码如下
本地的spark版本是2.0,而自从spark升级到2.0.0之后,原有的lib的整个大JAR包已经被分散的小JAR包的替代,所以没有办法找到这个spark-assembly的JAR包。这就是问题所在。
解决方法:
将这个spark-assembly-*.jar`替换成jars/*.jar,就不会出现这样的问题。
问题一:
启动hive时报错:Caused by: java.net.URISyntaxException: Relative path in absolute URI: ${system:java.io.tmpdir}/${system:user.name}
解决方法:
1.查看hive-site.xml配置,会看到配置值含有"system:java.io.tmpdir"的配置项
2.hive下新建文件夹iotmp
3.将含有"${system:java.io.tmpdir}"的配置项的值修改为如上地址 /home/asus/hive/iotmp
再次启动hive,成功!
问题二:
在hive命令行执行下列命令时出错:
hive> show tables;
报错:
Failed with exception java.io.IOException:java.lang.IllegalArgumentException: java.net.URISyntaxException: Relative path in absolute URI: ${system:user.name}
解决方法:
打开hive-site.xml,将 ${ system:user.name} 改为 ${user.name},重启hive 即可解决。
问题四:
jdbc连接hive,查询数据时报错:
Exception in thread "main" java.sql.SQLException: Error while processing statement: FAILED: Execution Error, return code 1 from org.apache.hadoop.hive.ql.exec.DDLTask. MetaException(message:Got exception: org.apache.hadoop.security.AccessControlException Permission denied: user=anonymous, access=WRITE, inode="/user/hive/warehouse/hivetest":asus:supergroup:drwxr-xr-x
原因:hdfs中的 /user/hive/warehouse没有读写权限
执行命令:hdfs dfs -chmod -R 777 /user