1.下载安装包
https://hadoop.apache.org/
下载好hadoop的安装包
2.配置环境
2.1 配置目录
创建一个目录
> mkdir /root/hadoop
文件上传至这个目录
> tar -zxvf hadoop-3.3.4.tar.gz
2.2 配置java hadoop环境变量
vim /etc/profile
source /etc/profile
接着输入java hadoop验证。图示只验证了hadoop
2.3 修改配置文件
cd /hadoop/hadoop-3.3.4/etc/hadoop/
2.3.1 修改文件
> vim core-site.xml
在 configuration标签中中加入如下内容
<!-- 指定HDFS中NameNode的地址,其中hadoop101:要替换成你的主机 -->
<property>
<name>fs.defaultFS</name>
<value>hdfs://linux.bcc-bdbl.com:9000</value>
</property>
<!-- 指定Hadoop运行时产生文件的存储目录 -->
<property>
<name>hadoop.tmp.dir</name>
<value>/hadoop/tmp</value>
</property>
2.3.2 修改文件
> vim hdfs-site.xml
在 configuration标签中中加入如下内容
<!-- 指定HDFS副本的数量 -->
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
2.3.3 修改文件
> vim hadoop-env.sh
输入 / JAVA_HOME 搜索
在此处添加配置
2.3.4 修改文件
> vim workers
修改为 【本机名字】 和hostname一致
3.启动
3.1 格式化namenode
进入目录/hadoop/hadoop-3.3.4
执行
> hdfs namenode -format
启动
> sbin/start-dfs.sh
使用jps命令查看
后续安装hive,待补充