Hadoop Linux单机单实例安装

Hadoop单机单实例安装

一、部署规划

1 基础环境

环境信息版本
Java1.8.0_251
环境变量export JAVA_HOME=/usr/local/jdk1.8.0_251
export JRE_HOME=$JAVA_HOME/jre
export CLASSPATH=.:$JAVA_HOME/lib:$JRE_HOME/lib
export PATH=$PATH:$JAVA_HOME/bin

2 安装Hadoop

hadoop信息
信息备注
官网http://hadoop.apache.org/
版本Hadoop3.0.0
下载地址https://archive.apache.org/dist/hadoop/common/hadoop-3.0.0/hadoop-3.0.0.tar.gz
下载
  • cd /usr/local
  • wget https://archive.apache.org/dist/hadoop/common/hadoop-3.0.0/hadoop-3.0.0.tar.gz
解压
  • tar -xzvf hadoop-3.0.0.tar.gz
配置环境变量
  • vim /etc/profile

  • export HADOOP_HOME=/usr/local/hadoop-3.0.0

  • export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

  • source /etc/profile

创建ssh免密
  • cd ~/.ssh/
  • ssh-keygen -t rsa
  • cat id_rsa.pub >> authorized_keys
修改配置文件
  • vi $HADOOP_HOME/etc/hadoop/core-site.xml
<?xml version="1.0" encoding="UTF-8"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<configuration>
    <property>
        <name>hadoop.tmp.dir</name>
        <value>file:/tmp/hadoop</value>
        <description>临时目录的根目录需要自己创建</description>
    </property>
    <property>
        <name>fs.defaultFS</name>
        <value>hdfs://localhost:9000</value>
    </property>
</configuration>
  • mkdir /tmp/hadoop
  • vi $HADOOP_HOME/etc/hadoop/hdfs-site.xml
<configuration>
    <!-- hdfs副本数量-->
    <property>
        <name>dfs.replication</name>
        <value>1</value>
    </property>
	<property>
        <name>dfs.namenode.name.dir</name>
        <!--nameNode目录 根据自己的实际需要指定-->
        <value>file:/tmp/hadoop/dfs/name</value>
    </property>
	<property>
        <name>dfs.namenode.data.dir</name>
        <!--数据目录 根据自己的实际需要指定-->
        <value>file:/tmp/hadoop/dfs/data</value>
    </property>
    <!-- 开启权限,远程客户端可以通过脚本给hdfs创建目录 -->
    <property>
        <name>dfs.permissions</name>
        <value>false</value>
    </property>
    <property>
        <name>dfs.datanode.http.address</name>
        <value>0.0.0.0:50070</value>
    </property>
</configuration>
  • vim $HADOOP_HOME/hadoop-env.sh
    JAVA_HOME=/usr/local/java/jdk1.8.0_251
    
初始化namenode 环境
  • mkdir -p /tmp/hadoop/dfs/data

  • mkdir -p /tmp/hadoop/dfs/namesecondary

  • mkdir -p /tmp/hadoop/dfs/name

  • hadoop namenode -format

启动
start-all.sh
Tips
org.apache.hadoop.hdfs.server.namenode.SafeModeException: Cannot delete /sort. Name node is in safe mode.

这个异常表示hadoop处于安全状态,而你又对它进行了上传,修改,删除文件的操作。

刚启动完hadoop的时候,hadoop会进入安全模式,此时不能对hdfs进行上传,修改,删除文件的操作。

hadoop dfsadmin -safemode get 命令是用来查看当前hadoop安全模式的开关状态

hadoop dfsadmin -safemode enter 命令是打开安全模式

hadoop dfsadmin -safemode leave 命令是离开安全模式

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值