zeppelin安装-- Spark交互式平台

1. 安装scala-安装spark

附镜像地址http://www-eu.apache.org/dist/
tar -zxvf scala-2.11.0.tgz -C ~/software/
vi ~/.bashrc
export SCALA_HOME=/home/jarvanl/software/scala-2.11.0
export PATH=$PATH:$SCALA_HOME/bin
export SPARK_HOME=/home/jarvanl/software/spark-2.0.0-bin-hadoop2.7
export PATH=$PATH:$SPARK_HOME/bin
source ~/.bashrc
报错spark-env.sh中添加配置:
export  SPARK_MASTER_IP=127.0.0.1
export  SPARK_LOCAL_IP=127.0.0.1
启动
./bin/spark-shell --master local[2]
测试
var rdd=sc.textFile("file:///home/jarvanl/tmp01/b.txt")
var wordcount = rdd.flatMap(x => x.split(" ")).map(x => (x,1)).reduceByKey((a,b) => a+b)
wordcount.collect()
var wordsort=wordcount.sortByKey(false).collect() 

val wordcount=file.flatMap(_.split(" ")).map((_,1)).reduceByKey(_+_)
wordcount.collect()
val wordsort = wordcount.map(x => (x._2,x._1)).sortByKey(false).map(x => (x._2,x._1)).collect()
wordsort.collect()

wordcount.saveAsTextFile("file:///home/jarvanl/tmp01/out")

val num=sc.parallelize(1 to 10)
val doublenum = num.map(_*2)
val threenum = doublenum.filter(_ % 3 == 0)
threenum.collect

2. 安装zeppelin

tar -zxvf zeppelin-0.6.2-bin-all.tgz -C ~/software/
启动、关闭Zeppelin进程命令为:
bin/zeppelin-daemon.sh start 
bin/zeppelin-daemon.sh stop
设置环境变量conf/zeppelin-env.sh
export SPARK_HOME=/home/jarvanl/software/spark-2.0.0-bin-hadoop2.7 
使用页面
http://localhost:8080/

通过标识%md, %sh, %sql, %spark, %hive, %tajo来区分要执行的是什么,默认不写的话,执行环境是scala。
http://127.0.0.1:8080/#/interpreter 页面里有详细的参数说明。

%spark
val num=sc.parallelize(1 to 10)
val doublenum = num.map(_*2)
val threenum = doublenum.filter(_ % 3 == 0)
threenum.collect
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值