Hadoop 分布式配置(2.10.0)

Hadoop (2.10.0) 分布式配置

架构
配置
启动
集群群启
访问

服务器架构
server-7server-8server-9
HDFSDataNode,
NameNode
DataNodeDataNode,
SecondaryNameNode
YARNNodeManagerNodeManager,
Resourcemanager
NodeManager

core-site.xml 配置

进入 Hadoop 目录:
# cd /alidata/server/hadoop/hadoop-2.10.0

编辑 core-site.xml 文件:
# vim hadoop-2.10.0/etc/hadoop/core-site.xml

<configuration>
	<!-- 指定 HDFS 中 NameNode 的地址 -->
    <property>
        <name>fs.defaultFS</name>
        <value>hdfs://server-7:9000</value>
    </property>

	<!-- 指定 Hadoop 运行时产生的文件目录, 默认目录: /tmp/hadoop-${user.name} -->
	<property>
        <name>hadoop.tmp.dir</name>
        <value>/alidata/server/hadoop/hadoop-2.10.0/data/tmp</value>
    </property>
</configuration>

hadoop-env.sh 配置

首先查看 JAVA_HOME 环境变量:
# echo $JAVA_HOME
/alidata/server/java/jdk1.8.0_65

编辑 hadoop-env.sh 文件:
# vim etc/hadoop/hadoop-env.sh

# 大约在 25 行.
export JAVA_HOME=${JAVA_HOME} #改为
export JAVA_HOME=/alidata/server/java/jdk1.8.0_65

hdfs-site.xml 配置

编辑 hdfs-site.xml 文件:
# vim hadoop-2.10.0/etc/hadoop/hdfs-site.xml

<configuration>
	<!-- 配置 HDFS 的备份文件数量, 默认数量是3 -->
    <property>
        <name>dfs.replication</name>
        <value>3</value>
    </property>
    <!-- 指定 Hadoop 辅助名称节点主机配置-->
	<property>
        <name>dfs.namenode.secondary.http-address</name>
        <value>server-9:50090</value>
     </property>
</configuration>

yarn-env.sh 配置

编辑 yarn-env.xml 文件:
# vim hadoop-2.10.0/etc/hadoop/yarn-env.sh


yarn-site.xml 配置

编辑 yarn-env.xml 文件:
# vim hadoop-2.10.0/etc/hadoop/yarn-site.xml

<configuration>
	<!-- Reducer 获取数据的方式-->
	<property>
		<name>yarn.nodemanager.aux-services</name>
		<name>mapreduce_shuffle</name>
	</property>
	<!-- 指定 YARN 的 ResourceManager 的地址-->
	<property>
		<name>yarn.resourcemanager.hostname</name>
		<name>server-8</name>
	</property>
</configuration>

mapred-site.xml 配置

复制 mapred-site.xml 文件
# cp hadoop-2.10.0/etc/hadoop/mapred-site.xml.template hadoop-2.10.0/etc/hadoop/mapred-site.xml

编辑 mapred-site.xml 文件
# vim hadoop-2.10.0/etc/hadoop/mapred-site.xml

<configuration>
	<!-- 指定 Mapreduce 运行在 YARN 上-->
	<property>
		<name>mapreduce.framework.name</name>
		<name>yarn</name>
	</property>
</configuration>

格式化HDFS

第一次启动. 可以格式化, 它会帮你检查配置和创建数据文件:
# sh hadoop-2.10.0/bin/hdfs namenode -format
或者
# hadoop namenode -format

启动NameNode(建议使用群启配置 ↓ ↓ ↓ )

# sh hadoop-2.10.0/sbin/hadoop-daemon.sh start namenode
根据集群配置: Server-7 需启动
查看是否成功启动:
# jps

启动DataNode(建议使用群启配置 ↓ ↓ ↓ )

# sh hadoop-2.10.0/sbin/hadoop-daemon.sh start datanode
根据集群配置: Server-7, Server-8, Server-9 需启动

查看是否成功启动:
# jps


启动SecondaryNameNode(建议使用群启配置 ↓ ↓ ↓ )

# sh hadoop-2.10.0/sbin/hadoop-daemon.sh start secondarynamenode
查看是否成功启动:
# jps


配置集群群启

编辑 slaves 文件
# vim hadoop-2.10.0/etc/hadoop/slaves

server-7
server-8
server-9

根据集群配置, 需修改 Server-7, Server-8, Server-9 的配置, 配置内容相同

群体启动
进入sever-7
# sh hadoop-2.10.0/sbin/start-dfs.sh

进入server-8
# sh hadoop-2.10.0/sbin/start-yarn.sh

访问Hadoop管理平台
#管理平台地址
http://localhost:50070/
  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
包含hadoop平台Java开发的所有所需jar包,例如activation-1.1.jar apacheds-i18n-2.0.0-M15.jar apacheds-kerberos-codec-2.0.0-M15.jar api-asn1-api-1.0.0-M20.jar api-util-1.0.0-M20.jar asm-3.2.jar avro-1.7.7.jar commons-beanutils-1.9.4.jar commons-cli-1.2.jar commons-codec-1.4.jar commons-collections-3.2.2.jar commons-compress-1.19.jar commons-configuration-1.6.jar commons-digester-1.8.jar commons-io-2.4.jar commons-lang-2.6.jar commons-lang3-3.4.jar commons-logging-1.1.3.jar commons-math3-3.1.1.jar commons-net-3.1.jar curator-client-2.7.1.jar curator-framework-2.7.1.jar curator-recipes-2.7.1.jar gson-2.2.4.jar guava-11.0.2.jar hadoop-annotations-2.10.0.jar hadoop-auth-2.10.0.jar hadoop-common-2.10.0-tests.jar hadoop-common-2.10.0.jar hadoop-nfs-2.10.0.jar hamcrest-core-1.3.jar htrace-core4-4.1.0-incubating.jar httpclient-4.5.2.jar httpcore-4.4.4.jar jackson-core-asl-1.9.13.jar jackson-jaxrs-1.9.13.jar jackson-mapper-asl-1.9.13.jar jackson-xc-1.9.13.jar java-xmlbuilder-0.4.jar jaxb-api-2.2.2.jar jaxb-impl-2.2.3-1.jar jcip-annotations-1.0-1.jar jersey-core-1.9.jar jersey-json-1.9.jar jersey-server-1.9.jar jets3t-0.9.0.jar jettison-1.1.jar jetty-6.1.26.jar jetty-sslengine-6.1.26.jar jetty-util-6.1.26.jar jsch-0.1.54.jar json-smart-1.3.1.jar jsp-api-2.1.jar jsr305-3.0.0.jar junit-4.11.jar LIST.bat LIST.TXT log4j-1.2.17.jar mockito-all-1.8.5.jar netty-3.10.6.Final.jar nimbus-jose-jwt-4.41.1.jar paranamer-2.3.jar protobuf-java-2.5.0.jar servlet-api-2.5.jar slf4j-api-1.7.25.jar slf4j-log4j12-1.7.25.jar snappy-java-1.0.5.jar stax-api-1.0-2.jar stax2-api-3.1.4.jar woodstox-core-5.0.3.jar xmlenc-0.52.jar zookeeper-3.4.9.jar

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值