spark和zeppelin实践二:安装spark和zeppelin

一、Spark安装

1、安装spark

#http://spark.apache.org/downloads.html
#wget http://d3kbcqa49mib13.cloudfront.net/spark-2.0.1-bin-hadoop2.7.tgz

cd /home/ztgame
tar zxvf spark-2.0.1-bin-hadoop2.7.tgz
ln -s /home/ztgame/soft/spark-2.0.1-bin-hadoop2.7 /home/ztgame/soft/spark

2、配置Spark

1) 设置Spark环境变量

vim .bash_profile 或 /etc/profile
export SPARK_HOME=/home/ztgame/soft/spark
export PATH=$SPARK_HOME/bin:$PATH

echo $SPARK_HOME

2)修改spark-env.sh

cd $SPARK_HOME
cp ./conf/spark-env.sh.template ./conf/spark-env.sh
vim ./conf/spark-env.sh
加入
export SPARK_DIST_CLASSPATH=$(/home/ztgame/soft/hadoop/bin/hadoop classpath)

export SPARK_CLASSPATH=$SPARK_CLASSPATH:/home/ztgame/soft/mysql-connector-java-5.1.38.jar


3)运行

cd $SPARK_HOME
./bin/run-example SparkPi
#./sbin/spark-daemon.sh start

4)Spark Shell 进行交互分析
./bin/spark-shell

二、Zeppelin安装

1、安装zeppelin

#http://zeppelin.apache.org/download.html
#wget http://mirrors.cnnic.cn/apache/zeppelin/zeppelin-0.6.2/zeppelin-0.6.2-bin-all.tgz

cd /home/ztgame/soft
tar zxvf zeppelin-0.6.2-bin-all.tgz
ln -s /home/ztgame/soft/zeppelin-0.6.2-bin-all /home/ztgame/soft/zeppelin

2、配置
文档参见: http://zeppelin.apache.org/docs/0.6.2/install/install.html

1) 设置zeppelin环境变量

vim .bash_profile 或 /etc/profile
export ZEPPELIN_HOME=/home/ztgame/soft/zeppelin
export PATH=$ZEPPELIN_HOME/bin:$PATH

echo $ZEPPELIN_HOME

2)修改zeppelin-env.sh

cd $ZEPPELIN_HOME
cp ./conf/zeppelin-env.sh.template ./conf/zeppelin-env.sh
vim ./conf/zeppelin-env.sh


#export ZEPPELIN_PORT=18081

export SPARK_HOME=/home/ztgame/soft/spark
export HADOOP_CONF_DIR=/home/ztgame/soft/hadoop
export SPARK_SUBMIT_OPTIONS="--packages com.databricks:spark-csv_2.10:1.2.0"

cp ./conf/zeppelin-site.xml.template ./conf/zeppelin-site.xml
vim ./conf/zeppelin-site.xml
18081
sed -i 's/8080/18081/' ./conf/zeppelin-site.xml

3)运行

cd $ZEPPELIN_HOME
./bin/zeppelin-daemon.sh start
./bin/zeppelin-daemon.sh stop


4)测试
打开网址:http://192.168.94.103:18081/

5)问题总结

问题1:不执行或者执行出错。
环境变量重新配置一下,刷新一下。


问题2:com.fasterxml.jackson.databind.JsonMappingException: Jackson version is too old 2.5.3
zeppelin目录下jackson版本和sprak目录下的版本不一致
替换/home/ztgame/soft/spark/jars目录下的jackson-databind-2.6.5.jar jackson-core-2.6.5.jar jackson-annotations-2.6.5.jar到zeppelin/lib

cd /home/ztgame/soft/zeppelin/lib
rm -f jackson-annotations-2.5.0.jar
rm -f jackson-core-2.5.3.jar
rm -f jackson-databind-2.5.3.jar

cp /home/ztgame/soft/spark/jars/jackson-databind-2.6.5.jar /home/ztgame/soft/zeppelin/lib/
cp /home/ztgame/soft/spark/jars/jackson-core-2.6.5.jar /home/ztgame/soft/zeppelin/lib/
cp /home/ztgame/soft/spark/jars/jackson-annotations-2.6.5.jar /home/ztgame/soft/zeppelin/lib/

问题3:java.lang.NoSuchMethodError: org.apache.hadoop.tracing.SpanReceiverHost.get
zeppelin目录下hadoop版本和sprak目录下的版本不一致,把相应的jar包替换过去
cd /home/ztgame/soft/zeppelin/lib
rm -f hadoop-annotations-2.6.0.jar
rm -f hadoop-auth-2.6.0.jar
rm -f hadoop-common-2.6.0.jar

cp /home/ztgame/soft/spark/jars/hadoop-annotations-2.7.3.jar /home/ztgame/soft/zeppelin/lib/
cp /home/ztgame/soft/spark/jars/hadoop-auth-2.7.3.jar /home/ztgame/soft/zeppelin/lib/
cp /home/ztgame/soft/spark/jars/hadoop-common-2.7.3.jar /home/ztgame/soft/zeppelin/lib/


问题4:java.sql.SQLException: Failed to start database 'metastore_db' with class loader org.apache.spark.sql.hive.client.IsolatedClientLoader$$anon$1@5a0039e7, see the next exception for details
只是要注意一点:在运行程序之前,千万不要运行脚本sbin/start-thriftserver.sh,否则自己写的程序是无法运行的
情形一:已经有一个hive连接在访问Derby创建的metastore_db文件夹,由于Derby数据库自身的缺点--仅支持一个链接对其进行访问,所以这时,如果再有一个终端调用hive,就有第二个链接访问Derby数据库了,就会抛出这个异常。
解决方法很简单。用mysql作为元数据仓库,mysql支持多链接访问,这个问题就不存在了。
情形二:突然离线,易造成hive没能来得及删除自动创建的metastore_db文件夹(~home/bin/metastore_db),这时再次用hive命令进入,则会产生如下报错。
解决这一问题很简单。将metastore_db文件夹改名或者干脆删除,然后重新运行hive命令启动即可。


  • 0
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值