Mac下安装Hadoop

01 引言

如果想在Mac下安装Hadoop而且让Hadoop能正常运行,那安装之前需要先安装java,具体可以参考之前写的博客《Mac下安装JDK11(国内镜像)》

好了,现在开始讲解如何在Mac环境下安装Hadoop

02 配置ssh环境

Mac下如果想使用Hadoop,必须要配置ssh环境, 如果不执行这一步,后面启动hadoop时会出现Connection refused连接被拒绝的错误。

首先终端命令框输入:

ssh localhost

如果提示错误:
在这里插入图片描述
表示当前用户没有权限,更改设置如下:进入系统偏好设置 --> 共享 --> 勾选远程登录->勾选所有用户,如下图:

在这里插入图片描述
再次输入ssh localhost会提示输入密码,这个时候要重新配置一下ssh免密登录。

① 进入ssh的目录:

 cd ~/.ssh

② 将id_rsa.pub中的内容拷贝到 authorized_keys中:

cat id_rsa.pub >> authorized_keys

操作成功:
在这里插入图片描述

02 安装与配置Hadoop

① 使用brew命令安装(这里没有指定版本,安装的是最新版的hadoop):

brew install hadoop

在这里插入图片描述
② 查看是否安装成功:

hadoop version

如果显示如下界面,表示安装成功,可以看到版本号为3.3.1:
在这里插入图片描述

③ 进入hadoop的目录:

cd /usr/local/Cellar/hadoop/3.3.1/libexec/etc/hadoop

④ 修改core-site.xml

<configuration>
        <property>
    <name>fs.defaultFS</name>
    <value>hdfs://localhost:8020</value>
  </property>
 
  <!--用来指定hadoop运行时产生文件的存放目录  自己创建-->
  <property>
    <name>hadoop.tmp.dir</name>
    <value>file:/usr/local/Cellar/hadoop/tmp</value>
  </property>
</configuration>

⑤ 修改hdfs-site.xml,配置namenodedatanode

<configuration>
        <property>
                <name>dfs.replication</name>
                <value>1</value>
        </property>
        <!--不是root用户也可以写文件到hdfs-->
        <property>
                <name>dfs.permissions</name>
                <value>false</value>    <!--关闭防火墙-->
        </property>
        <!--把路径换成本地的name坐在位置-->
        <property>
                <name>dfs.namenode.name.dir</name>
                <value>file:/usr/local/Cellar/hadoop/tmp/dfs/name</value>
        </property>
        <!--在本地新建一个存放hadoop数据的文件夹,然后将路径在这里配置一下-->
        <property>
                <name>dfs.datanode.data.dir</name>
                <value>file:/usr/local/Cellar/hadoop/tmp/dfs/data</value>
        </property>
</configuration>

⑥ 修改 mapred-site.xml

<configuration>
  <property>
    <!--指定mapreduce运行在yarn上-->
    <name>mapreduce.framework.name</name>
    <value>yarn</value>
  </property>
  <property>
     <name>mapred.job.tracker</name>
     <value>localhost:9010</value>
  </property>
  <!-- 新添加 -->
  <!-- 下面的路径就是你hadoop distribution directory -->
  <property>
     <name>yarn.app.mapreduce.am.env</name>
     <value>HADOOP_MAPRED_HOME=/usr/local/Cellar/hadoop/3.3.1/libexec</value>
  </property>
  <property>
     <name>mapreduce.map.env</name>
     <value>HADOOP_MAPRED_HOME=/usr/local/Cellar/hadoop/3.3.1/libexec</value>
  </property>
  <property>
     <name>mapreduce.reduce.env</name>
     <value>HADOOP_MAPRED_HOME=/usr/local/Cellar/hadoop/3.3.1/libexec</value>
</property>
 
</configuration>

⑦ 修改yarn-site.xml:

<configuration>
	<property>
	    <name>yarn.nodemanager.aux-services</name>
	    <value>mapreduce_shuffle</value>
	  </property>
	<property>
	    <name>yarn.resourcemanager.address</name>
	    <value>localhost:9000</value>
	</property> 
	<property>
	  <name>yarn.scheduler.capacity.maximum-am-resource-percent</name>
	  <value>100</value>
	</property>
</configuration>

03 启动Hadoop并验证

3.1 启动Hadoop

① 启动hadoop :

cd /usr/local/Cellar/hadoop/3.3.1/libexec/sbin
./start-dfs.sh

② 浏览器中输入http://localhost:9870/,出现以下界面就说明成功了:
在这里插入图片描述
如果打不开这个web页面,而且又启动了,需要在hadoop/etc/hadoop/hadoop-env.sh文件下第52行后面添加下方配置:

cd /usr/local/Cellar/hadoop/3.3.1/libexec/etc
export HADOOP_OPTS="-Djava.library.path=${HADOOP_HOME}/lib/native"

③ 可以停止服务hadoop服务:

./stop-yarn.sh

3.2 启动yarn服务

① 启动yarn服务:

cd /usr/local/Cellar/hadoop/3.3.1/libexec/sbin
./stop-dfs.sh

② 浏览器中打开http://localhost:8088/就会出现下图的界面:

在这里插入图片描述

③ 可以停止服务yarn服务:

./stop-yarn.sh

04 Hadoop sbin下的命令

1.启动所有的Hadoop守护进程(包括NameNode、 Secondary NameNode、DataNode、ResourceManager、NodeManager):

sbin/start-all.sh 

2.停止所有的Hadoop守护进程(包括NameNode、 Secondary NameNode、DataNode、ResourceManager、NodeManager):

sbin/stop-all.sh 

3.启动Hadoop HDFS守护进程NameNode、SecondaryNameNode、DataNode

sbin/start-dfs.sh 

4.停止Hadoop HDFS守护进程NameNode、SecondaryNameNodeDataNode

sbin/stop-dfs.sh 

5.单独启动NameNode守护进程

sbin/hadoop-daemons.sh start namenode 

6.单独停止NameNode守护进程

sbin/hadoop-daemons.sh stop namenode 

7.单独启动DataNode守护进程

sbin/hadoop-daemons.sh start datanode 

8.单独停止DataNode守护进程

sbin/hadoop-daemons.sh stop datanode 

9.单独启动SecondaryNameNode守护进程:

sbin/hadoop-daemons.sh start secondarynamenode 

10.单独停止SecondaryNameNode守护进程

sbin/hadoop-daemons.sh stop secondarynamenode 

11.启动ResourceManager、NodeManager

sbin/start-yarn.sh 

12.停止ResourceManager、NodeManager

sbin/stop-yarn.sh 

13.单独启动ResourceManager

sbin/yarn-daemon.sh start resourcemanager 

14.单独启动NodeManager

sbin/yarn-daemons.sh start nodemanager 

15.单独停止ResourceManager

sbin/yarn-daemon.sh stop resourcemanager 

16.单独停止NodeManager

sbin/yarn-daemons.sh stopnodemanager 

17.手动启动jobhistory

sbin/mr-jobhistory-daemon.sh start historyserver 

18.手动停止jobhistory

sbin/mr-jobhistory-daemon.sh stop historyserver 
  • 4
    点赞
  • 84
    收藏
    觉得还不错? 一键收藏
  • 11
    评论
Mac安装Hadoop需要先安装Java。你可以参考之前的博客《Mac安装JDK11(国内镜像)》来安装Java。安装完成后,你可以按照以下步骤来安装Hadoop。 1. 打开终端,使用cd命令进入Hadoop的目录。可以使用如下命令: ``` cd /usr/local/Cellar/hadoop/3.3.1/libexec/etc/hadoop ``` 2. 在终端中进入Hadoop的bin目录,并执行以下命令来格式化Hadoop的文件系统: ``` ./hdfs namenode -format ``` 3. 完成格式化后,可以通过以下命令来启动Hadoop: ``` ./start-all.sh ``` 这样,你就成功地安装并启动了Hadoop在你的Mac上。请注意,这只是一个简单的安装和启动过程,具体的配置和使用还需要参考Hadoop的官方文档或其他相关资源。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* *3* [Mac安装Hadoop](https://blog.csdn.net/qq_20042935/article/details/123007927)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] - *2* [Mac安装Hadoop(超级无敌宇宙爆炸详细)](https://blog.csdn.net/weixin_44864748/article/details/121066700)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] [ .reference_list ]
评论 11
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值