Hadoop(伪分布式)安装

  • 1.vi /etc/profile
export HADOOP_HOME=/opt/hadoop
export HADOOP_MAPRED_HOME=$HADOOP_HOME
export HADOOP_COMMON_HOME=$HADOOP_HOME
export HADOOP_HDFS_HOME=$HADOOP_HOME
export YARN_HOME=$HADOOP_HOME
export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native
export HADOOP_INSTALL=$HADOOP_HOME
export PATH=/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/root/bin
export PATH=$JAVA_HOME/bin:$JRE_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH

source /etc/profile
输入hadoop version检查环境变量是否配置成功

  • 2.进入到hadoop/etc/hadoop目录下
    (1)vi core-site.xml
    在这里插入图片描述
    (2)vi hdfs-site.xml
    在这里插入图片描述
    (3)vi hadoop-env.sh
    调整好:JAVA_HOME=…

    (4)mv mapreduce-site.xml.templet mapreduce-site.xml
    vi mapreduce-site.xml
    在这里插入图片描述
    (5)vi yarn-site.xml
    在这里插入图片描述
    (6)vi slaves
    将内容修改为主机名

  • 3.添加互信免密

cd ~
ssh-keygen
cat ~/.ssh/id_rsa.pub > ~/.ssh/authorized_keys
ssh-copy-id -i .ssh/id_rsa.pub -p22 用户名@主机名
  • 4.配置完成后,格式化
hdfs namenode -format
/or
hadoop namenode -format
  • 5.启动服务
Start-dfs.sh
Start-yarn.sh

or

start-all.sh
  • 6.如果出现问题,需要重新格式化前,最好先停止所有服务
stop-all.sh

然后,rm -rf tmp/ rm -rf log/
查找问题并解决后,再次格式化

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值