目录(hadoop伪分布式)
关闭防火墙
systemctl disable firewalld.service
hadoop包安装并配置环变:hadoop-2.6.5.tar.gz
tar xf hadoop-2.6.5.tar.gz -C /opt/ 解压安装
Hadoop的第二次JAVA_HOME 环境变量配置 HADOOP_HOME
export HADOOP_HOME=/opt/hadoop-2.6.5
配置path
. /etc/profile 加载配置文件
配置Hadoop 配置文件 为了能寻找jdk的配置: 将下面三个文件中JAVA_HOME修改
vi hadoop-env.sh
vi mapred-env.sh
vi yarn-env.sh
配置core-site.xml
vi core-site.xml
#主节点配置信息 namenode节点的IP和端口
<property>
<name>fs.defaultFS</name>
<value>hdfs://node1:9000</value>
</property>
#namenode 和 datanode 存放数据路径
<property>
<name>hadoop.tmp.dir</name>
<value>/var/hadoop/pseudo</value>
</property>
配置hdfs-site.xml
#配置 副本数 配置信息
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
#配置secondarynode配置信息
<property>
<name>dfs.namenode.secondary.http-address</name>
<value>node1:50090</value>
</property>
配置slaves文件 配置从节点配置信息 datanode
vi slaves
内容修改为 node01
格式化hdfs
hdfs namenode -format (只能格式化一次,再次启动集群不要执行)
启动集群
start-dfs.sh
角色进程查看:jps
帮助: hdfs
hdfs dfs
查看web UI: IP:50070
创建目录:hdfs dfs -mkdir -p /user/root
查看目录: hdfs dfs -ls /
上传文件: hdfs dfs -put hadoop-2.6.5.tar.gz /user/root
停止集群:stop-dfs.sh