需提前配置好java环境,下载安装包并解压好,进入加压后的文件夹
修改配置
vi etc/hadoop/core-site.xml
内容如下
<configuration>
<property>
<name>fs.defaultFS</name>
<value>hdfs://localhost:9000</value>
</property>
</configuration>
vi etc/hadoop/hdfs-site.xml
内容如下
<configuration>
<!--副本数量为1个-->
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
</configuration>
免密登陆
ssh-keygen -t rsa
cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
chmod 0600 ~/.ssh/authorized_keys
执行
# 格式化
# hadoop.tmp.dir默认/tmp/hadoop-${user.name},每次重启linux都需要重新格式化
bin/hdfs namenode -format
# 启动
sbin/start-dfs.sh
# 启动成功后可在http://localhost:50070/访问
# share/hadoop/mapreduce/下有一些mapreduce的例子,可运行进行测试
# 停止
sbin/stop-dfs.sh
YARN
vi etc/hadoop/mapred-site.xml
内容如下
<configuration>
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
</configuration>
vi etc/hadoop/yarn-site.xml
内容如下
<configuration>
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
</configuration>
# 开启
sbin/start-yarn.sh
# 成功后可在http://localhost:8088/访问
# 关闭
sbin/stop-yarn.sh
# 将这些命令加入到path路径
echo PATH=$PATH:/usr/local/hadoop-2.8.2/bin >> /etc/profile