Spark
逸笔草草
这个作者很懒,什么都没留下…
展开
-
Spark1.6.2安装部署方法
1.安装scala首先在hadoop1上进行操作,下载并解压安装包:scala-2.11.8.tgz,配置好scala的环境变量export SCALA_HOME=/home/hadoop273/spark/scala-2.11.8export PATH=$PATH:$SCALA_HOME:/bin2.安装spark下载并解压spark安装包:spark-1.6.2-bin-without-had原创 2016-12-21 17:11:30 · 2863 阅读 · 0 评论 -
Spark2.1.0的Standalone模式部署
1.下载并解压spark安装包:spark-2.1.0-bin-hadoop2.7.tgz,配置好每台机器上spark的环境变量cd /home/hadoop273/sparktar -zxvf /data/soft/spark/spark-2.1.0-bin-hadoop2.7.tgz -C .vim ~/.bash_profileexport SPARK_HOME=/home/hadoop2原创 2016-12-31 10:13:04 · 3226 阅读 · 2 评论