Hadoop安装配置

1.java环境

参考文章

2.ssh

参考文章

3.hadoop

  • 下载安装包

    地址

  • 解压

    mkdir /hadoop
    mv 下载路径 /hadoop
    tar -xvf /hadoop/hadoop-2.9.2.tar.gzip
    

  • 配置hadoop环境变量

    保存

4.伪分布式

  • 添加 jdk

  • 修改 core-site.xml

    <configuration>
            <property>
                 <name>hadoop.tmp.dir</name>
                 <value>file:/usr/local/hadoop/tmp</value>
                 <description>Abase for other temporary directories.</description>
            </property>
            <property>
                 <name>fs.defaultFS</name>
                 <value>hdfs://localhost:9000</value>
            </property>
    </configuration>
    

  • 修改hdfs-site.xml

    <configuration>
            <property>
                 <name>dfs.replication</name>
                 <value>1</value>
            </property>
            <property>
                 <name>dfs.namenode.name.dir</name>
                 <value>file:/usr/local/hadoop/tmp/dfs/name</value>
            </property>
            <property>
                 <name>dfs.datanode.data.dir</name>
                 <value>file:/usr/local/hadoop/tmp/dfs/data</value>
            </property>
    </configuration>
    

  • 配置好之后,执行NameNode的格式化

    ./bin/hdfs namenode -format
    

  • 启动namenode和datanode进程,并查看启动结果

    ./sbin/start-dfs.sh
    

  • 成功启动后,可以访问 Web 界面 http://localhost:50070 查看 NameNode 和 Datanode 信息,还可以在线查看 HDFS 中的文件。


    参考文章

Hadoop 是一个开源的大数据处理框架,主要用于分布式存储和并行计算。安装配置 Hadoop 需要以下步骤: 1. **下载安装包**: - 访问 Apache Hadoop 的官方网站(https://hadoop.apache.org/)下载最新的稳定版本或适合需求的版本。 2. **选择安装类型**: - 根据你的应用场景,可以选择单机模式 (Hadoop Single Node) 或者完整的分布式集群 (Hadoop Distributed Clustering)。 3. **操作系统支持**: - Hadoop 支持 Linux、macOS 和 Windows(需要使用 Cygwin),确保你的环境支持 Java,因为 Hadoop 是基于 Java 的。 4. **安装 Java**: - Hadoop 需要 Java Development Kit (JDK),确保已经安装并且版本正确。 5. **配置环境变量**: - 在终端或命令提示符中设置 `JAVA_HOME` 变量指向 JDK 安装目录,以及添加到 PATH 中。 6. **下载和解压 Hadoop**: - 下载 `.tar.gz` 或 `.zip` 文件,然后解压缩到你希望放置 Hadoop 的位置。 7. **配置核心文件**: - 对于 Hadoop 2.x 或更高版本,编辑 `core-site.xml` 文件,定义 HDFS 名称节点地址等核心参数。 - 对于 MapReduce,编辑 `mapred-site.xml` 和 `yarn-site.xml` 文件,配置 JobTracker 和 ResourceManager。 8. **启动服务**: - 在 Hadoop 目录下运行 `sbin/start-all.sh`(Linux/Mac)或 `bin\start-dfs.cmd` 和 `bin\start-yarn.cmd`(Windows),开始 HDFS 和 YARN 服务。 - 使用 `jps` 命令检查进程是否正在运行。 9. **验证安装**: - 可以尝试上传一个小文件到 HDFS 并读取回来,或者运行一个简单的 MapReduce 示例,确认一切正常。 10. **监控和日志**: - 配置 Hadoop 监控工具(如 Ganglia 或 Nagios)并查看 logs 文件夹中的错误报告,以跟踪系统的健康状况。
评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值