Hadoop分布式环境配置(2)

系列文章目录

Hadoop分布式环境配置(1)
Hadoop分布式环境配置(2)
Hadoop分布式环境配置(3)
Hadoop分布式环境配置(4)
Hadoop分布式环境配置(5)



前言

在 CentOS7 系统快速配置Hadoop,仅需配置主节点,配置完成后将Hadoop文件及jdk文件发送给从节点,即可完成分布式集群部署,本节主要介绍配置Java环境和Hadoop环境


配置Java环境

  1. 解压 jdk 压缩包(压缩包名字为jdk-8u65-linux-x64.tar.gz,该文件请自行准备)

    tar -zxvf jdk-8u65-linux-x64.tar.gz
    
  2. 编辑 /etc/profile 文件

    vi /etc/profile
    

    内容如下:

    # 文件末尾加上以下信息
    export JAVA_HOME=/software/jdk1.8.0_65	 # JDK路径
    export PATH=.:$PATH:$JAVA_HOME/bin		# "."表示当前路径
    
  3. 编译 profile 文件 (全局配置文件)

    source /etc/profile
    
  4. 验证Java环境是否配置成功
    显示版本号即为配置成功

    java -version
    

配置Hadoop环境

注意:Hadoop 从节点位置路径需与主节点位置路径相同

  1. 解压 Hadoop 压缩包(压缩包名字为hadoop-2.7.3.tar.gz,该文件请自行准备)

    tar -zxvf hadoop-2.7.3.tar.gz
    
  2. 编辑 /etc/profile 文件

    vi /etc/profile
    

    内容如下:

    export HADOOP_HOME=/software/hadoop-2.7.3	# Hadoop路径
    export PATH=.:$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
    
  3. 编译 profile 文件 (全局配置文件)

    source /etc/profile
    
  4. 验证Hadoop环境是否配置成功
    显示版本即为配置成功

    hadoop version	# 查看Hadoop版本
    

总结

以上就是今天要讲的内容,Hadoop运行需要Java环境支持,本文仅仅简单介绍了对Java和Hadoop进行环境配置。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Hadoop是一个分布式的计算框架,它的分布式模式需要在多个节点上进行配置和安装。以下是Hadoop分布式模式的配置步骤: 1. 在每个节点上安装JDK,并配置环境变量。 2. 在每个节点上下载Hadoop的二进制安装包,并将其解压到一个目录下。 3. 配置Hadoop的环境变量: 在每个节点的`~/.bashrc`文件中添加以下内容: ``` export HADOOP_HOME=/path/to/hadoop export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin ``` 然后运行`source ~/.bashrc`命令,使配置生效。 4. 配置Hadoop的核心文件`core-site.xml`: 在每个节点的`$HADOOP_HOME/etc/hadoop/core-site.xml`文件中添加以下内容: ``` <configuration> <property> <name>fs.defaultFS</name> <value>hdfs://master:9000</value> </property> </configuration> ``` 其中,`master`是Hadoop集群中的主节点的主机名或IP地址,`9000`是Hadoop的默认端口号。 5. 配置Hadoop的HDFS文件系统`hdfs-site.xml`: 在每个节点的`$HADOOP_HOME/etc/hadoop/hdfs-site.xml`文件中添加以下内容: ``` <configuration> <property> <name>dfs.replication</name> <value>3</value> </property> <property> <name>dfs.namenode.name.dir</name> <value>/data/hadoop/dfs/name</value> </property> <property> <name>dfs.datanode.data.dir</name> <value>/data/hadoop/dfs/data</value> </property> </configuration> ``` 其中,`dfs.replication`指定了数据块的副本数量,`dfs.namenode.name.dir`指定了主节点存储元数据的目录,`dfs.datanode.data.dir`指定了数据节点存储数据块的目录。 6. 配置Hadoop的YARN资源管理器`yarn-site.xml`: 在每个节点的`$HADOOP_HOME/etc/hadoop/yarn-site.xml`文件中添加以下内容: ``` <configuration> <property> <name>yarn.resourcemanager.hostname</name> <value>master</value> </property> <property> <name>yarn.nodemanager.aux-services</name> <value>mapreduce_shuffle</value> </property> </configuration> ``` 其中,`yarn.resourcemanager.hostname`指定了资源管理器运行的主机名或IP地址,`yarn.nodemanager.aux-services`指定了运行在节点上的附属服务。 7. 配置Hadoop的MapReduce框架`mapred-site.xml`: 在每个节点的`$HADOOP_HOME/etc/hadoop/mapred-site.xml`文件中添加以下内容: ``` <configuration> <property> <name>mapreduce.framework.name</name> <value>yarn</value> </property> </configuration> ``` 其中,`mapreduce.framework.name`指定了MapReduce框架运行的模式。 8. 启动Hadoop集群: 在主节点上执行以下命令启动Hadoop集群: ``` $HADOOP_HOME/sbin/start-dfs.sh $HADOOP_HOME/sbin/start-yarn.sh ``` 然后在任意一个节点上执行以下命令验证Hadoop集群是否正常工作: ``` hadoop jar $HADOOP_HOME/share/hadoop/mapreduce/hadoop-mapreduce-examples-*.jar pi 10 1000 ``` 该命令将会启动一个计算圆周率的MapReduce作业。如果作业能够成功运行并输出正确的结果,则说明Hadoop集群已经正常工作。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值