版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。
原文链接:https://blog.csdn.net/catinlbb/article/details/110159895
因为今天安装时候发现完全按照上述这篇大佬写的文章有些地方会出问题,所以整理了一下现在安装Hadoop的一些注意点和步骤,基本流程与上述一致。【2022.3.28】
目录
版本信息1
安装JDK2
安装Hadoop3
修改Hadoop配置文件4
配置ssh免密登录5
启动Hadoop6
其余问题7
版本信息
服务器:阿里云轻量级,2G2核
JDK:1.8
Hadoop:3.2.2
安装JDK
下载jdk安装包
wget https://download.java.net/openjdk/jdk8u41/ri/openjdk-8u41-b04-linux-x64-14_jan_2020.tar.gz
解压安装包
tar -zxvf openjdk-8u41-b04-linux-x64-14_jan_2020.tar.gz
移动并重命名JDK
mv java-se-8u41-ri/ /usr/java8
打开添加环境变量的文件
vim /etc/profile
在末尾添加环境变量(按 i 进入编辑模式,按esc后在最下面输入:wq保存并退出)
export JAVA_HOME=/usr/java8
export PATH=$PATH:$JAVA_HOME/bin
刷新配置
source /etc/profile
安装Hadoop
下载Hadoop安装包
wget https://mirrors.tuna.tsinghua.edu.cn/apache/hadoop/common/hadoop-3.2.2/hadoop-3.2.2.tar.gz
解压安装包,移动至/opt/hadoop
tar -zxvf hadoop-3.2.2.tar.gz -C /opt/
mv /opt/hadoop-3.2.2 /opt/hadoop
打开添加环境变量的文件
vim /etc/profile
在最后追加环境变量
export HADOOP_HOME=/opt/hadoop/
export PATH=$PATH:$HADOOP_HOME/bin
export PATH=$PATH:$HADOOP_HOME/sbin
刷新配置
source /etc/profile
修改配置文件:
vim /opt/hadoop/etc/hadoop/yarn-env.sh # 打开文件yarn-env.sh
export JAVA_HOME=/usr/java8 # 在末尾追加
vim /opt/hadoop/etc/hadoop/hadoop-env.sh # 打开文件hadoop-env.sh
export JAVA_HOME=/usr/java8 # 在末尾追加
测试Hadoop是否安装成功
hadoop version
修改Hadoop配置文件
打开core-site.xml
vim /opt/hadoop/etc/hadoop/core-site.xml
在节点内插入如下内容
<property>
<name>hadoop.tmp.dir</name>
<value>file:/opt/hadoop/tmp</value>
<description>location to store temporary files</description>
</property>
<property>
<name>fs.defaultFS</name>
<value>hdfs://localhost:9000</value>
</property>
打开hdfs-site.xml
vim /opt/hadoop/etc/hadoop/hdfs-site.xml
在节点内插入如下内容
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
<property>
<name>dfs.namenode.name.dir</name>
<value>file:/opt/hadoop/tmp/dfs/name</value>
</property>
<property>
<name>dfs.datanode.data.dir</name>
<value>file:/opt/hadoop/tmp/dfs/data</value>
</property>
配置ssh免密登录
创建公钥和私钥
ssh-keygen -t rsa
连续点击Enter(大概有三个)
添加公钥
cd .ssh
cat id_rsa.pub >> authorized_keys
启动Hadoop
初始化namenode
hadoop namenode -format
打开/etc/profile
vim /etc/profile
在末尾添加环境变量配置
export HDFS_NAMENODE_USER=root
export HDFS_DATANODE_USER=root
export HDFS_SECONDARYNAMENODE_USER=root
export YARN_RESOURCEMANAGER_USER=root
export YARN_NODEMANAGER_USER=root
启动Hadoop,(关闭Hadoop只需要把start换成stop)
start-dfs.sh
start-yarn.sh
查看端口情况
netstat -lnpt
浏览器访问Hadoop页面
http://公网IP:8088
http://公网IP:9870
本来应该是50070,但是试过很多办法进不去,发现这个9870端口和60070一样
其余问题
-
访问不了8088
查看防火墙状态,防火墙为 Active:inactive (dead) 状态
systemctl status firewalld
关闭防火墙,关闭防火墙自启动
systemctl stop firewalld systemctl disable firewalld
版本信息
服务器:阿里云轻量级,2G2核
JDK:1.8
Hadoop:3.2.2 ↩︎
安装JDK
下载jdk安装包
wget https://download.java.net/openjdk/jdk8u41/ri/openjdk-8u41-b04-linux-x64-14_jan_2020.tar.gz
解压安装包
tar -zxvf openjdk-8u41-b04-linux-x64-14_jan_2020.tar.gz
移动并重命名JDK
mv java-se-8u41-ri/ /usr/java8
打开添加环境变量的文件
vim /etc/profile
在末尾添加环境变量(按 i 进入编辑模式,按esc后在最下面输入:wq保存并退出)
export JAVA_HOME=/usr/java8 export PATH=$PATH:$JAVA_HOME/bin
刷新配置
↩︎source /etc/profile
安装Hadoop
下载Hadoop安装包
wget https://mirrors.tuna.tsinghua.edu.cn/apache/hadoop/common/hadoop-3.2.2/hadoop-3.2.2.tar.gz
解压安装包,移动至/opt/hadoop
tar -zxvf hadoop-3.2.2.tar.gz -C /opt/ mv /opt/hadoop-3.2.2 /opt/hadoop
打开添加环境变量的文件
vim /etc/profile
在最后追加环境变量
export HADOOP_HOME=/opt/hadoop/ export PATH=$PATH:$HADOOP_HOME/bin export PATH=$PATH:$HADOOP_HOME/sbin
刷新配置
source /etc/profile
修改配置文件:
vim /opt/hadoop/etc/hadoop/yarn-env.sh # 打开文件yarn-env.sh export JAVA_HOME=/usr/java8 # 在末尾追加
vim /opt/hadoop/etc/hadoop/hadoop-env.sh # 打开文件hadoop-env.sh export JAVA_HOME=/usr/java8 # 在末尾追加
测试Hadoop是否安装成功
↩︎hadoop version
修改Hadoop配置文件
打开core-site.xml
vim /opt/hadoop/etc/hadoop/core-site.xml
在节点内插入如下内容
<property> <name>hadoop.tmp.dir</name> <value>file:/opt/hadoop/tmp</value> <description>location to store temporary files</description> </property> <property> <name>fs.defaultFS</name> <value>hdfs://localhost:9000</value> </property>
打开hdfs-site.xml
vim /opt/hadoop/etc/hadoop/hdfs-site.xml
在节点内插入如下内容
↩︎<property> <name>dfs.replication</name> <value>1</value> </property> <property> <name>dfs.namenode.name.dir</name> <value>file:/opt/hadoop/tmp/dfs/name</value> </property> <property> <name>dfs.datanode.data.dir</name> <value>file:/opt/hadoop/tmp/dfs/data</value> </property>
配置ssh免密登录
创建公钥和私钥
ssh-keygen -t rsa
连续点击Enter(大概有三个)
添加公钥
↩︎cd .ssh cat id_rsa.pub >> authorized_keys
启动Hadoop
初始化namenode
hadoop namenode -format
打开/etc/profile
vim /etc/profile
在末尾添加环境变量配置
export HDFS_NAMENODE_USER=root export HDFS_DATANODE_USER=root export HDFS_SECONDARYNAMENODE_USER=root export YARN_RESOURCEMANAGER_USER=root export YARN_NODEMANAGER_USER=root
启动Hadoop,(关闭Hadoop只需要把start换成stop)
start-dfs.sh start-yarn.sh
查看端口情况
netstat -lnpt
浏览器访问Hadoop页面
http://公网IP:8088
http://公网IP:9870
本来应该是50070,但是试过很多办法进不去,发现这个9870端口和60070一样 ↩︎其余问题
-
访问不了8088
查看防火墙状态,防火墙为 Active:inactive (dead) 状态
systemctl status firewalld
关闭防火墙,关闭防火墙自启动
systemctl stop firewalld systemctl disable firewalld
-