spark
_东门吹雪
你存在我茫茫的代码里!
展开
-
Linux 之 Spark 环境部署笔记——Spark安装
1.下载下载地址:https://archive.apache.org/dist/spark/2.解压将安装包放入linux中,然后解压tar -zxvf spark-1.6.0-bin-hadoop2.6.tgz修改文件夹名称mv spark-1.6.0-bin-hadoop2.6 spark-1.6.03.环境配置1)进入编辑sudo vi /etc/profile2)配置如下环境变量export SPARK_HOME=/vol6/home/nud原创 2020-05-30 18:50:18 · 518 阅读 · 0 评论 -
Linux 之 Spark 环境部署笔记——Scala安装
1下载安装包在这里可以找到所有版本:https://www.scala-lang.org/download/all.html下载linux版本包2解压将安装包放入linux中,然后解压tar -zxvf scala-2.10.6.gz3 环境配置sudo vi /etc/profile配置如下环境变量export SCALA_HOME=/home/huaru/spark/scala-2.10.6export PATH=$PATH:$SCALA_HOM..原创 2020-05-28 18:34:38 · 187 阅读 · 0 评论 -
Linux 之 Spark 环境部署笔记——JDK安装
一、jdk安装1.下载JDK8https://www.oracle.com/java/technologies/javase/javase-jdk8-downloads.html2.安装1)将jdk包复制到redhat中2)解压tar zxvf jdk-8u181-linux-x64.tar.gz3)设置环境变量sudo vi /etc/profile在文件末尾添加环境变量:export JAVA_HOME=/home/huaru/jdk/jdk1.8.0_25原创 2020-05-28 14:21:51 · 303 阅读 · 0 评论