Mac 配置Hadoop、spark、Scala、jdk

Mac 配置Hadoop、spark、Scala、jdk1.8

一、安装jdk1.8(适配于 Mac M1芯片)

下载地址:

Java Downloads | Oracle

1.下载好使用 终端 进行解压

tar -zxf jdk-8u401-macosx-aarch64.tar.gz

2.配置环境变量

1.终端打开 .bash_profile
vim ~/.bash_profile
2.将以下代码放进 .bash_profile 里面(注意修改路径)
export PATH=${PATH}:/Users/laohe_juan/Downloads/jdk1.8.0_401.jdk/Contents/Home
export PATH=$JAVA_HOME/bin:$PATH
3.esc按键 + :号键 输入 wq (保存并退出)

4.重新加载 .bash_profile 文件
source ~/.bash_profile
5.输入以下代码检查配置是否成功
java -version

二、安装Spark

下载链接:

News | Apache Spark

1.下载好并使用 终端 进行解压
tar -zxf spark-3.1.1-bin-hadoop3.2.tar
2.进行环境配置
1.终端打开 .bash_profile
vim ~/.bash_profile
2.以下代码放进 .bash_profile 里面(注意修改路径)
# 方式一

export SPARK_HOME=/Users/laohe_juan/Downloads/spark-3.1.1-bin-hadoop3.2
export PATH=$PATH:$SPARK_HOME/bin
export PYSPARK_PYTHON=python3
# 注意 python3是自己系统安装的版本


# 方式二  需要先安装 Hadoop 请先跳转到安装 Hadoop 记得再返回到此处
export SPARK_HOME=/Users/laohe_juan/Downloads/spark-3.1.1-bin-hadoop3.2
export PATH=$PATH:$SPARK_HOME/bin:$SPARK_HOME/sbin
3.esc按键 + :号键 输入 wq (保存并退出)

4.重新加载 .bash_profile 文件
source ~/.bash_profile
5.输入以下代码检查配置是否成功
pyspark

使用方式二:  (确保 Hadoop 安装完成,否则 请跳转到 安装 Hadoop)
1.进入 conf 修改 文件名
cd Downloads/spark-3.1.1-bin-hadoop3.2/conf
#  修改一下两个文件
mv spark-env.sh.template spark-enc.sh
mv workers.template workers 
2.修改配置文件 spark-enc.sh
vim spark-enc.sh

添加如下:( 注意修改地址 )

export JAVA_HOME=/Users/laohe_juan/Downloads/jdk1.8.0_401.jdk/
export HADOOP_HOME=/Users/laohe_juan/Downloads/hadoop-3.1.3/
export HADOOP_CONF_DIR=/Users/laohe_juan/Downloads/hadoop-3.1.3/etc/hadoop
export SPARK_MASTER_HOST=localhost
3.进入 sbin 修改 启动命令 (使不与 hadoop 同样)
mv start-all.sh start-spark.sh    //启动spark
mv stop-all.sh stop-spark.sh     //关闭spark
4.启动spark (出现 Master 和 Worker 则启动成功)
start-spark.sh

​​​​​​​

三、安装Hadoop(确保ssh)

下载链接:

Apache Hadoop

0.ssh
1.确保已经安装SSH
ps -e|grep ssh

查看版本号:

ssh -V
2.依次输入以下命令(免密)
ssh-keygen -t rsa -P '' -f ~/.ssh/id_rsa
cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
chmod 0600 ~/.ssh/id_rsa.pub
3.ssh测试
ssh localhost

1.下载好并使用 终端 进行解压
tar -zxf hadoop-3.1.3.tar
2.进行环境配置
1.终端打开 .bash_profile
vim ~/.bash_profile
2.以下代码放进 .bash_profile 里面(注意修改路径)
export HADOOP_HOME=/Users/laohe_juan/Downloads/hadoop-3.1.3/
export PATH=$PATH:$HADOOP_HOME/sbin:$HADOOP_HOME/bin
export HADOOP_INSTALL=$HADOOP_HOME
export HADOOP_MAPRED_HOME=$HADOOP_HOME
export HADOOP_COMMON_HOME=$HADOOP_HOME
export HADOOP_HDFS_HOME=$HADOOP_HOME 
export YARN_HOME=$HADOOP_HOME
export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native
export HADOOP_OPTS="-Djava.library.path=$HADOOP_HOME/lib/nativ"
3.esc按键 + :号键 输入 wq (保存并退出)

4.重新加载 .bash_profile 文件
source ~/.bash_profile
5.输入以下代码检查配置是否成功
hadoop version
3.修改配置文件(首先进入到Hadoop)
cd /Users/laohe_juan/Downloads/hadoop-3.1.3/etc/hadoop
1.打开 hadoop-env.sh 配置 jdk 路径 ( 注意路径两边的引号需要添加 )
export JAVA_HOME="/Users/laohe_juan/Downloads/jdk1.8.0_401.jdk/Contents/Home"
2.配置 core-site.sh 文件 ( 注意路径需要修改为自己的 )
<configuration>
    <property>
        <name>hadoop.tmp.dir</name>
        <value>/Users/laohe_juan/Downloads/hdfs/tmp/</value>
    </property>
    <property>
        <name>fs.default.name</name>
        <value>hdfs://127.0.0.1:9000</value>
    </property>
</configuration>
3.配置 hdfs-site.xml 文件 ( 注意路径需要修改为自己的 )
<configuration>
  <property>
      <name>dfs.data.dir</name>
      <value>/Users/laohe_juan/Downloads/hdfs/namenode</value>
  </property>
  <property>
      <name>dfs.data.dir</name>
      <value>/Users/laohe_juan/Downloads/hdfs/datanode</value>
  </property>
  <property>
      <name>dfs.replication</name>
      <value>1</value>
  </property>
</configuration>
4.配置 mapred-site.xml 文件
<configuration>
  <property>
    <name>mapreduce.framework.name</name>
    <value>yarn</value>
  </property>
</configuration>
5.配置 yarn-site.xml 文件
<configuration>
  <property>
    <name>yarn.nodemanager.aux-services</name>
    <value>mapreduce_shuffle</value>
  </property>
  <property>
    <name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>
    <value>org.apache.hadoop.mapred.ShuffleHandler</value>
  </property>
  <property>
    <name>yarn.resourcemanager.hostname</name>
    <value>127.0.0.1</value>
  </property>
  <property>
    <name>yarn.acl.enable</name>
    <value>0</value>
  </property>
  <property>
    <name>yarn.nodemanager.env-whitelist</name>
    <value>JAVA_HOME,HADOOP_COMMON_HOME,HADOOP_HDFS_HOME,HADOOP_CONF_DIR,CLASSPATH_PERPEND_DISTCACHE,HADOOP_YARN_HOME,HADOOP_MAPRED_HOME</value>
  </property>
</configuration>
6.执行 命令
hdfs namenode -format

成功则如下:

注意:如果后面有进程没有启动成功时,切记 查看进程(在安装目录下的 logs 目录),然后有关 没有匹配的目录类型的日志报错的话,多半是在最开始配置中有错误然后没有重新生成对应的目录及文件!所以重新执行此命令大概率就解决了。

7.启动集群
start-all.sh
8.查看集群是否全部启动成功
jps

Hadoop 配置文件总阅:

成功后的所有进程:

四、安装Scala ( 确保有java环境 )

下载安装(此用到的是2.12版本)

下载地址:Scala 2.12.0 | The Scala Programming Language

1.下载好使用 终端 解压

tar -zxf scala-2.12.0.tar

2.配置环境变量

1.终端打开 .bash_profile
vim ~/.bash_profile
2.将以下代码放进 .bash_profile 里面(注意修改路径)
export PATH=${PATH}:/Users/laohe_juan/Downloads/scala-2.12.0/bin
export PATH=$SCALA_HOME/bin:$PATH
3.esc按键 + :号键 输入 wq (保存并退出)

4.重新加载 .bash_profile 文件
source ~/.bash_profile
5.输入以下代码检查配置是否成功
scala -version

  • 21
    点赞
  • 33
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
要在Mac上安装和配置Spark,可以按照以下步骤进行操作: 1. 首先,确保你的Mac上已经安装了Java Development Kit(JDK)。你可以通过在终端中运行以下命令来检查是否已安装JDK: ```shell java -version ``` 如果输出显示了Java版本信息,则表示JDK已安装。否则,你需要先安装JDK。 2. 访问Apache Spark官方网站(https://spark.apache.org/)并下载最新版本的Spark。 3. 将下载的Spark压缩包解压到任意目录。你可以将其解压到你的用户主目录下的一个子目录中,比如`~/spark`。 4. 打开终端,并使用以下命令进入到Spark目录: ```shell cd ~/spark ``` 5. 在终端中,将以下命令添加到你的`.bash_profile`或`.bashrc`文件中,以配置Spark的环境变量: ```shell export SPARK_HOME=~/spark export PATH=$PATH:$SPARK_HOME/bin ``` 6. 执行以下命令使环境变量生效: ```shell source ~/.bash_profile ``` 7. 接下来,你需要编辑Spark配置文件。将`$SPARK_HOME/conf`目录下的`spark-env.sh.template`文件复制一份并重命名为`spark-env.sh`: ```shell cp $SPARK_HOME/conf/spark-env.sh.template $SPARK_HOME/conf/spark-env.sh ``` 8. 使用文本编辑器打开`spark-env.sh`文件,并添加以下内容: ```shell export JAVA_HOME=/path/to/your/jdk ``` 将`/path/to/your/jdk`替换为你的JDK安装路径,比如`/Library/Java/JavaVirtualMachines/jdk1.8.0_291.jdk/Contents/Home`。 9. 保存并关闭`spark-env.sh`文件。 10. 现在,你可以启动Spark了。在终端中执行以下命令: ```shell spark-shell ``` 如果一切正常,你将看到Spark的启动信息并进入Spark的交互式Shell。 希望这些步骤能够帮助你在Mac上成功安装和配置Spark!如果你遇到任何问题,请随时提问。
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值