Hadoop配置伪分布式模式

3 篇文章 0 订阅

1、Hadoop有三种配置模式,分别为独立模式、伪分布式模式、分布式模式。
独立模式:即本地模式,该模式没有运行的守护程序,所有的程序运行在一个jvm中。适合开发期间运行MapReduce程序,源于他的易于测试和调试。
伪分布式模式:守护程序运行在本地主机,模拟一个小规模集群。
分布式模式:守护程序运行在多个主机的集群上。
2、安装SSH、配置SSH无密码登陆。
在伪分布式模式下,必须启动守护进程,因此我们需要安装SSH脚本。
Hadoop实际上并不区分伪分布式模式和分布式模式;它只是启动守护进程的集合
主机集群中通过ssh主机和开始守护进程。伪分布式模式是完全分布式模式的一个特例(单个主机),所以我们需要确保我们可以SSH本地主机和无需输入密码登录。

(1)安装
sudo apt-get install openssh-server
(2)配置密钥,-t指定算法(rsa算法);-P,指定密码;-f指定存放密钥的文件名称。
ssh-keygen -t rsa -P '' -f ~/.ssh/id_rsa
(3)进入.ssh目录。会有两个文件。其中id_rsa为私钥,id_rsa.pub为公钥。把公钥放在授权认证的文件里面去。
cat id_rsa.pub >> authorized_keys
(4)登录ssh,测试你可以登录。第一次登录会提示确认连接,之后该提示则会消失。
ssh localhost

3、配置。
基本概念:nameNode:名称节点,只存放文件目录。 dataNode:数据节点,存放数据。secondaryNameNode:辅助节点,节点的备份,replication:数据副本(数据备份)。

(1)配置core-site.xml文件,配置nameNode名称节点的位置。
    <!-- core-site.xml -->
    <configuration>
        <property>
            <name>fs.defaultFS</name>
            <value>hdfs://localhost/</value>
        </property>
    </configuration>
(2)配置hdfs-site.xml文件,配置副本数量。
    <!-- hdfs-site.xml -->
    <configuration>
        <property>
            <name>dfs.replication</name>
            <value>1</value>
        </property>
    </configuration>
(3)配置mapred-site.xml文件,配置mapreduce框架指定yarn
    <!-- mapred-site.xml -->
    <configuration>
        <property>
            <name>mapreduce.framework.name</name>
            <value>yarn</value>
        </property>
    </configuration>
(4)配置yarn-site.xml文件,配置资源管理器。节点管理器。
    <!-- yarn-site.xml -->
    <configuration>
        <property>
            <name>yarn.resourcemanager.hostname</name>
            <value>localhost</value>
        </property>
        <property>
            <name>yarn.nodemanager.aux-services</name>
            <value>mapreduce_shuffle</value>
        </property>
    </configuration>

4、使用HDFS文件系统。

(1)对文件系统进行格式化。
hdfs namenode -format
(2)启动dfs守护进程,
start-dfs.sh --config $HADOOP_INSTALL/etc/hadoop_pseudo 
注:config之后是文章上面配置的xml文件目录。
(3)启动yarn的mapreduce框架。
start-yarn.sh --config $HADOOP_INSTALL/etc/hadoop_pseudo
注:config之后是文章上面配置的xml文件目录。

5、创建用户目录

(1)为了方便以后使用,这里配置一个环境变量HADOOP_CONF_DIR
export HADOOP_CONF_DIR=./
注:‘./’代表配置的xml文件目录。
(2)创建用户目录
hadoop fs -mkdir /user/

6、简单应用

(1)通过jps/jps -l查看启动的进程。

这里写图片描述

(2)通过web页面访问查询。
http://localhost:50070,查看名称节点。

这里写图片描述

http://localhost:19888,查询资源管理器节点。

这里写图片描述
(3)查看文件目录信息
hadoop fs -ls /
这里写图片描述

7、停止服务

(1)停止yarn的mapreduce框架
stop-yarn.sh
(2)停止dfs守护进程
stop-dfs.sh

8、Hadoop提供了一个start-all.sh –config $HADOOP_INSTALL/etc/hadoop_pseudo,可以同时启动之前的进程。
这里写图片描述

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Hadoop分布式模式是在一台机器上模拟分布式环境,使得开发人员可以在单个机器上完成Hadoop程序的开发和测试。下面是Hadoop分布式模式配置过程: 1. 安装Java和Hadoop:首先需要安装Java和Hadoop。Java的版本需要与Hadoop版本匹配。安装完成后,需要设置JAVA_HOME和HADOOP_HOME环境变量。 2. 修改配置文件:Hadoop分布式模式需要修改以下配置文件: - core-site.xml:配置Hadoop的核心参数,如文件系统、端口等。 - hdfs-site.xml:配置Hadoop分布式文件系统的参数,如副本数量、块大小等。 - mapred-site.xml:配置Hadoop的MapReduce参数,如任务最大尝试次数、任务跟踪器等。 - yarn-site.xml:配置Hadoop的YARN参数,如节点管理器、资源管理器等。 3. 创建HDFS目录:在Hadoop分布式模式中,需要手动创建HDFS目录。可以使用以下命令创建目录: ``` hdfs dfs -mkdir /user hdfs dfs -mkdir /user/<用户名> ``` 4. 启动Hadoop:使用以下命令启动Hadoop: ``` start-dfs.sh start-yarn.sh ``` 5. 验证Hadoop:使用以下命令验证Hadoop是否正常运行: ``` jps ``` 如果输出中包含ResourceManager、NodeManager、DataNode、NameNode等进程,则说明Hadoop已经成功启动。 6. 运行Hadoop程序:在Hadoop分布式模式下,可以使用以下命令运行程序: ``` hadoop jar <程序.jar> <输入路径> <输出路径> ``` 以上就是Hadoop分布式模式配置过程。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值