在跑spark代码连接hbase时报错
原因是HADOOP没有HBASE依赖包
解决:
1、在每个节的hadoop-env.sh中在原有HADOOP_HOME基础上添加HBASE的lib目录
export HADOOP_CLASSPATH=$HADOOP_HOME/lib/*:$HADOOP_HOME/bin:$HBASE_HOME/lib/*
2、source hadoop-env.sh即可
在跑spark代码连接hbase时报错
原因是HADOOP没有HBASE依赖包
解决:
1、在每个节的hadoop-env.sh中在原有HADOOP_HOME基础上添加HBASE的lib目录
export HADOOP_CLASSPATH=$HADOOP_HOME/lib/*:$HADOOP_HOME/bin:$HBASE_HOME/lib/*
2、source hadoop-env.sh即可