Hadoop安装

  • 安装前置条件:已安装好JDK并配置环境变量

开始安装Hadoop

  1. 下载Hadoop压缩包,使用wget方式获取
wget https://archive.apache.org/dist/hadoop/common/hadoop-1.2.1/hadoop-1.2.1.tar.gz
  1. 将压缩包加压到/opt目录下
mv hadoop-1.2.1.tar.gz /opt
cd /opt
tar -zxvf hadoop-1.2.1.tar.gz
  1. 解压完成之后,进入conf/目录中,需要配置以下四个文件
    1. mapred-site.xml
    2. core-site.xml
    3. hdfs-site.xml
    4. hadoop-env.xml
  • 配置hadoop-env.xml文件,设置JAVA_HOME
export JAVA_HOME=你的javahome路径
  • 配置core-site.xml文件,在configuration标签中添加自定义配置
    1. hadoop.tmp.dir:hadoop的工作目录
    2. dfs.name.dir:所有原数据目录
    3. fs.default.name:文件系统的本地访问目录
<property>
<name>hadoop.tmp.dir</name>
<value>/hadoop</value>
</property>

<property>
<name>dfs.name.dir</name>
<value>/hadoop/name</value>
</property>

<property>
<name>fs.default.name</name>
<value>hdfs://localhost:9000</value>
</property>

  • 配置 hdfs-site.xml文件,在configuration标签中添加一下配置,设置文件系统的数据存放目录
<property>
<name>dfs.data.dir</name>
<value>/hadoop/data</value>
</property>
  • 配置mapred-site.xml配置任务调度器
<property>
<name>mapred.job.tracker</name>
<value>localhost:9001</value>
</property>

  • 配置环境变量
  • 添加HADOOP_HOME环境变量
  • 将HADOOP_HOME环境变量添加到PATH之中
export HADOOP_HOME=/opt/hadoop-1.2.1
export PATH=$PATH:$JAVA_HOME/lib:$JRE_HOME/bin:$HADOOP_HOME

  • 注意:每次修改环境变量需要执行命令刷新使环境变量生效
source /etc/profile
  • 进行格式化操作
hadoop namenode -format
  • 启动验证
start-all
  • 启动时需要输入用户密码
  • 然后输入jps,得到6个节点,说明启动成功
    在这里插入图片描述
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Hadoop是一个开源的分布式计算系统,用于处理大规模数据集的分布式存储和处理。下面是Hadoop安装步骤: 1. 下载Hadoop:你可以从Apache官方网站上下载Hadoop的最新版本。选择合适的版本和文件类型进行下载。 2. 解压Hadoop压缩包:将下载的压缩包解压到你想要安装Hadoop的路径下。 3. 配置环境变量:编辑你的环境变量文件(如.bashrc或.profile),将Hadoop的bin目录添加到PATH变量中。例如,在.bashrc文件中添加以下行: export HADOOP_HOME=/path/to/hadoop export PATH=$PATH:$HADOOP_HOME/bin 保存文件后,运行以下命令使其生效: source ~/.bashrc 4. 配置Hadoop:进入Hadoop安装目录,在conf目录下找到core-site.xml、hdfs-site.xml、mapred-site.xml和yarn-site.xml这四个配置文件,进行必要的配置。主要配置项包括文件系统的URI、数据存储路径、任务调度器等。 5. 设置SSH无密码登录:Hadoop使用SSH来管理集群节点之间的通信,因此需要设置SSH无密码登录。确保你可以通过SSH无密码登录到本地和所有集群节点。 6. 格式化HDFS文件系统:在Hadoop安装目录下执行以下命令,格式化HDFS文件系统: hdfs namenode -format 7. 启动Hadoop集群:执行以下命令启动Hadoop集群: start-dfs.sh # 启动HDFS start-yarn.sh # 启动YARN 执行以上命令后,你可以通过Web界面访问Hadoop的各个组件。 以上是基本的Hadoop安装步骤,请根据自己的需求进行相应的配置和调整。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值