1.如果期望spark的表存放到hive的hdfs中
需要在环境变量及conf/spark-env.sh中配置
HADOOP_CONF_DIR=/usr/local/hadoop/etc/hadoop
2.如果期望用beeline连接thrift-server时不报权限错误
需要在环境变量及conf/spark-env.sh中配置
HADOOP_USER_NAME=有hdfs权限的用户名
并且需要重启thrift-server生效
需要在环境变量及conf/spark-env.sh中配置
HADOOP_CONF_DIR=/usr/local/hadoop/etc/hadoop
2.如果期望用beeline连接thrift-server时不报权限错误
需要在环境变量及conf/spark-env.sh中配置
HADOOP_USER_NAME=有hdfs权限的用户名
并且需要重启thrift-server生效