前提,需要确保有java8的环境,并安装java并且配置环境变量
vi /etc/profile
export JAVA_HOME=/root/jdk1.8.0_171
export CLASSPATH=$JAVA_HOME/lib/
export PATH=$PATH:$JAVA_HOME/bin
然后执行source /etc/profile重载配置文件。
下载hadoop
curl -O https://archive.apache.org/dist/hadoop/common/hadoop-2.10.0/hadoop-2.10.0.tar.gz
解压
tar -zxvf hadoop-2.10.0.tar.gz
检查是否可用
./bin/hadoop version # 查看hadoop版本信息,成功显示则安装成功
修改配置文件配置hadoop的Java环境
vim etc/hadoop/hadoop-env.sh
注意是hadoop路径下的etc目录,不是根目录下的etc
修改配置
修改core-site和hdfs-site文件
ip地址根据自身情况进行替换
vim etc/hadoop/core-site.xml
<configuration>
<property>
<name>fs.defaultFS</name>
<value>hdfs://192.168.159.100:8020</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/export/data/hadoop-3.3.4</value>
</property>
<property>
<name>hadoop.http.staticuser.user</name>
<value>root</value>
</property>
<property>
<name>hadoop.proxyuser.root.hosts</name>
<value>*</value>
</property>
<property>
<name>hadoop.proxyuser.root.groups</name>
<value>*</value>
</property>
<property>
<name>fs.trash.interval</name>
<value>1440</value>
</property>
</configuration>
vim etc/hadoop/hdfs-site.xml
<configuration>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
<property>
<name>dfs.namenode.name.dir</name>
<value>file:/root/hadoop-2.10.0/tmp/dfs/name</value>
</property>
<property>
<name>dfs.datanode.data.dir</name>
<value>file:/root/hadoop-2.10.0/tmp/dfs/data</value>
</property>
<property>
<name>dfs.namenode.http-address</name>
<value>192.168.159.100:9870</value>
</property>
</configuration>
安装SSH免密登录
#生成授权
ssh-keygen -t rsa -P '' -f ~/.ssh/id_rsa
cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys #加入授权
chmod 0600 ~/.ssh/authorized_keys #啥意思?
启动
/sbin/start-dfs.sh
启动后使用jps看到如下进程
可以使用命令操作hdfs文件,也可以web-ui上操作hdfs的文件目录