运行的通用操作都是格式化+启动
hdfs namenode -format
start-dfs.sh
完全分布式
在node01节点(即NameNode节点)配置hadoop
修改hdfs-site.xml配置文件
<property>
<name>dfs.replication</name>
<value>3</value> <!-- 总存储分数(备份数+1)-->
</property>
<property>
<name>dfs.namenode.secondary.http-address</name>
<value>node02:50090</value> <!-- SecondaryNameNode的位置 -->
</property>
修改core-site.xml配置文件
<property>
<name>fs.defaultFS</name> <!-- HDFS文件默认地址前缀(简化实际访问时路径书写) -->
<value>hdfs://node01:9000</value>
</property>
<property>
<name>hadoop.tmp.dir</name> <!-- HDFS文件存储位置 -->
<value>/var/abc/hadoop/cluster</value>
</property>
修改slaves配置文件
配置DataNode节点,注意每行写一个
node02
node03
node04
修改hadoop-env.sh配置文件
# The java implementation to use.
export JAVA_HOME=/opt/zgl/jdk1.8.0_151
# 在hadoop-env.sh 配置一条hadoop配置文件所在目录
export HADOOP_CONF_DIR=/opt/zgl/hadoop-2.6.5/etc/hadoop
刷新配置 source hadoop-env.sh
伪分布式
配置集群,修改site文件
修改hdfs-site.xml配置文件
<property>
<name>dfs.replication</name>
<value>1</value> <!-- 总存储分数(备份数+1)-->
</property>
<property>
<name>dfs.namenode.secondary.http-address</name>
<value>node01:50090</value> <!-- SecondaryNameNode的位置 -->
</property>
修改core-site.xml配置文件
<property>
<name>fs.defaultFS</name> <!-- HDFS文件默认地址前缀(简化实际访问时路径书写) -->
<value>hdfs://node01:9000</value>
</property>
<property>
<name>hadoop.tmp.dir</name> <!-- HDFS文件存储位置 -->
<value>/var/abc/hadoop/local</value>
</property>
修改slaves配置文件(配置从节点)
node01
配置hadoop-env.sh文件
# The java implementation to use.
export JAVA_HOME=/home/jdk1.8.0
# 在hadoop-env.sh 配置一条hadoop配置文件所在目录
export HADOOP_CONF_DIR=/home/hadoop-2.7.5/etc/hadoop
刷新配置 source hadoop-env.sh