hadoop3.3.0下载安装与配置

hadoop3.3.0下载安装与配置

hadoop个版本下载地址
http://archive.apache.org/dist/hadoop/common/
安装hadoop需要先安装jdk,配置java环境
jdk1.8下载链接
链接: https://pan.baidu.com/s/1pj4yAiA3tmWe-nO9780ITg?pwd=hp9d 提取码: hp9d

1.创建tools ,training文件夹

直接将jdk和hadoop安装包上传到tools中
在这里插入图片描述

2. 解压安装配置jdk

2.1解压

进入tools文件夹,将jdk解压到training文件夹下

[root@localhost /]# cd tools
[root@localhost tools]# ls
hadoop-3.3.0.tar.gz  jdk-8u144-linux-x64.tar.gz
[root@localhost tools]# tar -zxvf jdk-8u144-linux-x64.tar.gz -C /training/

在这里插入图片描述
解压后去training文件夹下查看,已经解压完成
在这里插入图片描述

2.2配置

输入此命令进行环境变量配置

vi ~/.bash_profile

打开文件后是不可编辑状态,键盘输入 i 进入编辑状态
在文件中加入以下内容

#java
export JAVA_HOME=/training/jdk1.8.0_144
export JRE_HOME=$JAVA_HOME/jre
export CLASSPATH=.:$CLASSPATH:$JAVA_HOME/lib:$JRE_HOME/lib
export PATH=$PATH:$JAVA_HOME/bin:$JRE_HOME/bin

注意 jdk路径和版本号要和自己的实际路径和版本号一致
输入完成后,点击键盘上的ESC键退出输入模式

输入模式如下,文件末尾显示的有INSERT

在这里插入图片描述
点击ESC之后,文件末尾的INSERT会消失
在这里插入图片描述
然后输入:wq 回车保存退出即可

  • :wq保存退出
  • :q!不保存强制退出
    在这里插入图片描述
    输入以下命令使环境变量生效
 source ~/.bash_profile
2.3查看是否配置成功

输入以下命令查看是否配置成功

 java -version

在这里插入图片描述

3.安装hadoop

3.1配置主机名

最后面niit为要修改的主机名,也可根据自己的需要自由设置

hostnamectl --static set-hostname niit
3.2配置ip主机名映射关系

修改hosts文件,配置映射关系
输入以下命令进行修改

vi /etc/hosts

在这里插入图片描述
在文件中键入以下内容(输入i进入编辑模式,:wq保存退出)
前面是你自己的本机ip地址 后者会刚才配置的主机名,一定要以自己的实际ip和主机名一致!!!

192.168.149.128 niit

在这里插入图片描述
配置另一个映射文件
在这里插入图片描述

3.3 关闭防火墙
systemctl stop firewalld.service
systemctl disable firewalld.service

在这里插入图片描述

3.4解压hadoop

进入tools文件夹,将hadoop解压到training文件夹中

cd tools
tar -zxvf hadoop-3.3.0.tar.gz -C /training/

在这里插入图片描述
在这里插入图片描述

3.5 配置hadoop环境变量
vi ~/.bash_profile

打开文件后键入以下内容即可 (输入i进入编辑模式,:wq保存退出)

#hadoop
export HADOOP_HOME=/training/hadoop-3.3.0
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

使环境变量生效

 source ~/.bash_profile
3.6输入hdfs检查hadoop是否安装成功

输入以下内容说明安装成功
在这里插入图片描述

3.7 配置hadoop免密登录

在hadoop安装路径下创建一个tmp文件夹用于存放配置数据

 mkdir /training/hadoop-3.3.0/tmp 

在这里插入图片描述
进行免密配置
输入以下代码,回车四次,什么都不要输入
在这里插入图片描述
输入以下命令

cd ~/.ssh/
ssh-copy-id -i id_rsa.pub root@niit

niit是自己本机的主机名
在这里插入图片描述

3.8配置hadoop配置文件
3.8.1 进入Hadoop配置文件地址
cd /training/hadoop-3.3.0/etc/hadoop/

在这里插入图片描述

  1. 配置hadoop-env.sh文件
vi hadoop-env.sh

在这里插入图片描述
进入编辑模式后找到JAVA_HOME,在此列下面添加如下代码
(输入i进入编辑模式,:wq保存退出)

export JAVA_HOME=/training/jdk1.8.0_144
export HDFS_NAMENODE_USER=root
export HDFS_DATANODE_USER=root
export HDFS_SECONDARYNAMENODE_USER=root
export YARN_RESOURCEMANAGER_USER=root
export YARN_NODEMANAGER_USER=root

在这里插入图片描述
2. 配置hdfs-site.xml文件

vi hdfs-site.xml

进去之后在两个configuration标签下加入以下配置 (输入i进入编辑模式,:wq保存退出)

在这里插入图片描述

<property>
	<name>dfs.replication</name>
	<value>1</value>
</property>
<property>
	<name>dfs.permissions</name>
	<value>false</value>
</property>

3.配置core-site.xml文件
进入文件

vi core-site.xml

进去之后在两个configuration标签下加入以下配置 (输入i进入编辑模式,:wq保存退出)

其中niit为主机名,要与自己的实际主机名一致

<property>
	<name>fs.defaultFS</name>
	<value>hdfs://niit:8020</value>
</property>			
<property>
	<name>hadoop.tmp.dir</name>
	<value>/training/hadoop-3.3.0/tmp</value>
</property>

在这里插入图片描述
4.配置mapred-site.xml文件
进去之后在两个configuration标签下加入以下配置 (输入i进入编辑模式,:wq保存退出)

vi mapred-site.xml
<property>	
	<name>mapreduce.framework.name</name>
	<value>yarn</value>
</property>

在这里插入图片描述
在这里插入图片描述

  1. 配置yarn-site.xml文件
 vi yarn-site.xml

进去之后在两个configuration标签下加入以下配置 (输入i进入编辑模式,:wq保存退出)

<property>
	<name>yarn.resourcemanager.hostname</name>
	<value>niit</value>
</property>
<property>
	<name>yarn.nodemanager.aux-services</name>
	<value>mapreduce_shuffle</value>
</property>

在这里插入图片描述

3.9 Hadoop格式化主节点
hdfs namenode -format
4.0 hadoop启动与关闭

启动

start-all.sh

在这里插入图片描述
查看进程

jps

在这里插入图片描述

关闭hadoop
stop-all.sh
在这里插入图片描述

查看进程

jps

在这里插入图片描述
以上如果全都正常,说明安装成功,如果缺少进程,说明是某个配置文件有问题,查看配置文件修改即可

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Hadoop是一个分布式计算框架,可用于处理大规模数据集。以下是Hadoop3.3.0集群配置步骤。 1. 安装Java 确保在所有节点上安装了Java。对于Hadoop3.3.0,建议使用Java 8。 2. 下载Hadoop 从官方网站下载最新版本的Hadoop,并将其解压到所有节点的相同目录中。建议将Hadoop安装在/opt/hadoop/目录下。 3. 配置Hadoop环境变量 在每个节点上编辑/etc/profile文件,并添加以下行: ``` export HADOOP_HOME=/opt/hadoop/hadoop-3.3.0 export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin ``` 然后运行source /etc/profile以使更改生效。 4. 配置Hadoop集群 在所有节点上编辑/opt/hadoop/hadoop-3.3.0/etc/hadoop目录中的core-site.xml文件,并添加以下内容: ``` <configuration> <property> <name>fs.default.name</name> <value>hdfs://master:9000</value> </property> </configuration> ``` 其中,master是Hadoop集群中的主节点。 接下来,在每个节点上编辑/opt/hadoop/hadoop-3.3.0/etc/hadoop目录中的hdfs-site.xml文件,并添加以下内容: ``` <configuration> <property> <name>dfs.replication</name> <value>3</value> </property> <property> <name>dfs.namenode.name.dir</name> <value>/opt/hadoop/hadoop-3.3.0/hdfs/namenode</value> </property> <property> <name>dfs.datanode.data.dir</name> <value>/opt/hadoop/hadoop-3.3.0/hdfs/datanode</value> </property> </configuration> ``` 其中,dfs.replication设置为3以确保数据有三个副本,dfs.namenode.name.dir定义了主节点上的名称节点数据目录,dfs.datanode.data.dir定义了数据节点上的数据目录。 最后,在/opt/hadoop/hadoop-3.3.0/etc/hadoop目录中的mapred-site.xml.template文件中创建一个新的mapred-site.xml文件,并添加以下内容: ``` <configuration> <property> <name>mapreduce.framework.name</name> <value>yarn</value> </property> </configuration> ``` 5. 启动Hadoop集群 在主节点上,运行以下命令启动Hadoop集群: ``` $ start-dfs.sh $ start-yarn.sh ``` 然后,在主节点上运行以下命令格式化HDFS文件系统: ``` $ hdfs namenode -format ``` 现在,Hadoop集群已经配置完成。可以使用Hadoop命令行工具或Web界面来管理集群。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值