1.下载二进制安装包
https://www.apache.org/dyn/closer.cgi/hadoop/common/hadoop-2.10.1/hadoop-2.10.1.tar.gz
2.下载后解压
tar -zxvf hadoop-2.10.1.tar.gz
3.配置JDK和Hadoop环境变量
vi /etc/profile,新增以下:
export JAVA_HOME=/usr/lib/jvm/java-1.8.0-openjdk-1.8.0.232.b09-0.el7_7.x86_64
export PATH=$PATH:$JAVA_HOME/bin
export HADOOP_HOME=/home/hadoop-2.10.1
export PATH=$PATH:$HADOOP_HOME/bin
export PATH=$PATH:$HADOOP_HOME/sbin
source /etc/profile
4.启动hadoop
4.1默认情况下,hadoop使用的是Standalone独立模式,可以直接使用例子进行测试:
mkdir input
cp etc/hadoop/*.xml input
bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-3.2.2.jar grep input output 'dfs[a-z.]+'
cat output/*
4.2伪分布模式
修改的配置文件和分布式模式一样,只是配置是单节点的
配置HDFS和副本数
vi etc/hadoop/core-site.xml
<configuration>
<property>
<name>fs.defaultFS</name>
<value>hdfs://localhost:9000</value>
</property>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
</configuration>
4.3启动Hadoop
先格式化一下hdfs,第一次安装可以使用
bin/hdfs namenode -format
启动namenode和datanode
sbin/hadoop-daemon.sh start namenode
sbin/hadoop-daemon.sh start datanode
4.4访问hadoop web
http://192.168.1.166:50070/dfshealth.html#tab-overview
4.5尝试往HDFS上传文件
创建文件夹
bin/hdfs dfs -mkdir -p /user/test
上传文件
bin/hdfs dfs -put haha.txt /user/test
查看上传的文件
bin/hadoop dfs -cat /user/test/haha.txt