hadoop 本地环境搭建

Table of Contents

 

 

0. 安装版本

1. 安装依赖

2. 安装HDFS

2.1 配置文件

2.2 执行启动命令

3 安装yarn

4 关闭服务器


 

0. 安装版本

hadoop version:2.10.0

run mode: Pseudo-Distributed

 

1. 安装依赖

  1. Java™ must be installed. Recommended Java versions are described at HadoopJavaVersions.

  2. ssh must be installed and sshd must be running to use the Hadoop scripts that manage remote Hadoop daemons.

2. 安装HDFS

 

2.1 配置文件

Use the following:

etc/hadoop/core-site.xml:

<configuration>
    <property>
        <name>fs.defaultFS</name>
        <value>hdfs://localhost:9000</value>
    </property>
</configuration>

etc/hadoop/hdfs-site.xml:

<configuration>
    <property>
        <name>dfs.replication</name>
        <value>1</value>
    </property>
</configuration>

 

2.2 执行启动命令

  1. Format the filesystem:

      $ bin/hdfs namenode -format
    

     默认情况下namenode数据会存放在临时目录 /tmp/hadoop-adore.chen/dfs/name 下方,电脑重启后丢失。所以修改配置文件
    hdfs-site.xml 同理增加数据节点的存放目录信息。

         修改后的配置文件hdfs-site.xml如下:

<configuration>

        <property>

                <name>dfs.replication</name>

                <value>1</value>

        </property>

        <property>

                <name>dfs.name.dir</name>

                <value>/opt/hadoop-2.10.0/dfs/name/</value>

        </property>

        <property>

                <name>dfs.data.dir</name>

                <value>/opt/hadoop-2.10.0/dfs/data/</value>

        </property>

</configuration>

/opt/hadoop-2.10.0/dfs 是我新建的存放这些数据的目录。

 

2. Start NameNode daemon and DataNode daemon:

  $ sbin/start-dfs.sh

The hadoop daemon log output is written to the $HADOOP_LOG_DIR directory (defaults to $HADOOP_HOME/logs).

Browse the web interface for the NameNode; by default it is available at:

N ameNode - http://localhost:50070/

访问地址栏若是能成功打开,恭喜你安装hdfs成功了。若是不成功,先命令行输入jps查看namenode、datanode、secondary 启动是否成功。我有次就碰到namenode没有启动成功,使用lsof -i:9000查看端口被谁占用。

 

3 安装yarn

  1. Configure parameters as follows:etc/hadoop/mapred-site.xml:

    cp etc/hadoop/mapred-site.xml.template etc/hadoop/mapred-site.xml
    
    <configuration>
        <property>
            <name>mapreduce.framework.name</name>
            <value>yarn</value>
        </property>
    </configuration>
    

    etc/hadoop/yarn-site.xml:

    <configuration>
        <property>
            <name>yarn.nodemanager.aux-services</name>
            <value>mapreduce_shuffle</value>
        </property>
    </configuration>
    
  2. Start ResourceManager daemon and NodeManager daemon:

      $ sbin/start-yarn.sh
    
  3. Browse the web interface for the ResourceManager; by default it is available at:

    ResourceManager - http://localhost:8088/

浏览器若能正常显示,恭喜你安装成功。

 

4 关闭服务器

$ sbin/stop-yarn.sh

$ sbin/stop-dfs.sh

 

参考文章:

https://hadoop.apache.org/docs/r2.10.0/hadoop-project-dist/hadoop-common/SingleCluster.html#Pseudo-Distributed_Operation

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
在Mac上搭建Hadoop虚拟环境,可以参照以下步骤: 1. 安装虚拟机软件:在Mac上搭建Hadoop虚拟环境首先需要安装一个虚拟机软件,比如VirtualBox或VMware Fusion。这些软件可以让你在Mac上运行虚拟机。 2. 下载Hadoop镜像:在准备安装虚拟机之前,你需要下载Hadoop的虚拟机镜像。可以在Hadoop官方网站或其他可信的来源上找到适合Mac的Hadoop镜像文件,并将其下载到本地。 3. 创建虚拟机:打开虚拟机软件,点击“新建”或“创建虚拟机”选项。在创建新虚拟机的过程中,选择导入下载好的Hadoop镜像文件作为虚拟机的操作系统。 4. 配置虚拟机:创建虚拟机后,可以根据自己的需求进行配置。比如,分配足够的内存和硬盘空间给虚拟机,设置网络连接等。 5. 启动虚拟机:完成虚拟机的配置后,可以启动虚拟机。这将打开一个新窗口,显示虚拟机的操作界面。 6. 安装Hadoop:在虚拟机中,按照Hadoop的安装步骤进行安装。你可以按照Hadoop官方文档的指引安装Hadoop,或者参考其他可靠的教程。 7. 配置Hadoop集群:安装和配置好Hadoop之后,你可以在虚拟机中创建一个Hadoop集群。这涉及到修改Hadoop的配置文件,如core-site.xml、hdfs-site.xml和mapred-site.xml。 8. 测试Hadoop:完成集群的配置后,你可以通过运行一些MapReduce作业来测试Hadoop的功能。确保Hadoop集群正常运行,并且可以处理数据。 总之,通过以下步骤,在Mac上可以搭建Hadoop虚拟环境:安装虚拟机软件,下载Hadoop镜像,创建和配置虚拟机,安装Hadoop,配置Hadoop集群,进行测试。这样你就可以在Mac上使用Hadoop进行大数据处理了。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值