hadoop及其集群的搭建

centos7.0配置

ip地址,hostname划分
192.168.56.101   hadoop101       #master
192.168.56.102   hadoop102       #slave
192.168.56.103   hadoop103       #slave
  • jdk已安装

开启远程免密登录配置

  • 生成秘钥: ssh-keygen -t rsa -P ""
  • 拷贝秘钥: cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
  • 开启远程免密登录配置: ssh-copy-id -i .ssh/id_rsa.pub -p22 [root@192.168.56.101]
  • ssh -p 22 [root@192.168.56.102](mailto:root@192.168.56.122)

配置hadoop

文件目录 /opt/hadoop/etc/hadoop

  1. hadoop-env.sh
# The java implementation to use.
export JAVA_HOME=/opt/java8    //javehome的环境变量
  1. core-site.xml
<configuration>
<property>
  <name>fs.defaultFS</name>   #默认文件系统的名称。
  <value>hdfs://192.168.56.101:9000</value>
</property>
<property>
   <name>hadoop.tmp.dir</name>     #临时目录设定    
   <value>/opt/hadoop/tmp</value>
</property>
<property>
   <name>hadoop.proxyuser.root.hosts</name>
   <value>*</value>
 </property>
<property>
   <name>hadoop.proxyuser.root.groups</name>
   <value>*</value>
 </property>
</configuration>
  1. hdfs-site.xml
<configuration>
<property>
  <name>dfs.replication</name>
  <value>1</value>
</property>
<property>
  <name>dfs.namenode.secondary.http-address</name>
  <value>hadoop101:50090</value>
</property>
</configuration>
  1. mapred-site.xml
<configuration>
<property>
        <name>mapreduce.framework.name</name>
        <value>yarn</value>
</property>
<property>
        <name>mapreduce.jobhistory.address</name>
        <value>hadoop101:10020</value>
</property>
<property>
        <name>mapreduce.jobhistory.webapp.address</name>
        <value>hadoop101:19888</value>
</property>
</configuration>
  1. yarn-site.xml
<configuration>
<!-- reducer获取数据方式 -->
<property>
    <name>yarn.nodemanager.aux-services</name>
    <value>mapreduce_shuffle</value>
</property>
<property>
    <name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>
    <value>org.apache.hadoop.mapred.ShuffleHandler</value>
</property>
<!-- 指定YARN的ResourceManager的地址 -->
<property>
    <name>yarn.resourcemanager.hostname</name>
    <value>hadoop101</value>
</property>
<!-- 日志聚集功能使用 -->
<property>
    <name>yarn.log-aggregation-enable</name>
    <value>true</value>
</property>
<!-- 日志保留时间设置7天 -->
<property>
    <name>yarn.log-aggregation.retain-seconds</name>
    <value>604800</value>
</property>
</configuration>
  1. vi ./slaves
hadoop101
hadoop102
hadoop103

Hadoop环境变量配置

  • vi /etc/profile

  • export HADOOP_HOME=/opt/hadoop
    export HADOOP_MAPRED_HOME=$HADOOP_HOME
    export HADOOP_COMMON_HOME=$HADOOP_HOME
    export HADOOP_HDFS_HOME=$HADOOP_HOME
    export YARN_HOME=$HADOOP_HOME
    export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native
    export HADOOP_OPTS="-Djava.library.path=$HADOOP_HOME/lib"
    export PATH=$PATH:$HADOOP_HOME/sbin:$HADOOP_HOME/bin
    
  • source /etc/profile

启动hadoop

hadoop集群

  1. 复制虚拟机,重新生成秘钥
  2. 生成秘钥: ssh-keygen -t rsa -P ""
  3. 覆盖秘钥: cat ~/.ssh/id_rsa.pub > ~/.ssh/authorized_keys
  4. 修改core-site.xml 和 hdfs-site.xml文件中ip地址
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值