Hadoop集群安装 - 2020-11-22

01_伪分布

01_安装jdk:

01_安装rpm包
rpm -i jdk-7u67-linux-x64.rpm
位置:whereis java
java: /usr/bin/java
02_配置java环境变量:
[/usr/java/jdk1.7.0_67]
vi + /etc/profile

export JAVA_HOME=/usr/java/jdk1.7.0_67
PATH=$PATH:$JAVA_HOME/bin

保存

执行文件. /etc/profile

注释:+ 符号是直接跳到文件末尾

02_安装Hadoop

01_解压hadoop安装包(解压即可使用)
tar -zxvf hadoop-2.6.5.tar.gz -C /opt/ws/

03_在任意目录可运行Hadoop(配置环境变量)

[/opt/ws/hadoop-2.6.5]
vi + /etc/profile

export JAVA_HOME=/usr/java/jdk1.7.0_67
export HADOOP_HOME=/opt/ws/hadoop-2.6.5
PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

【新增export hadoop_home,path包括bin/sbin,加在同一个path下即可,无需新增一个path】

source /etc/profile

04_启动集群时用到jdk,在Hadoop的etc中配置jdk环境变量

[/opt/ws/hadoop-2.6.5/etc/hadoop]

vi hadoop-env.sh 

export JAVA_HOME=${JAVA_HOME}
改为
export JAVA_HOME=/usr/java/jdk1.7.0_67
vi mapred-env.sh

# export JAVA_HOME=/home/y/libexec/jdk1.6.0
改为
export JAVA_HOME=/usr/java/jdk1.7.0_67
vi yarn-env.sh 

# export JAVA_HOME=/home/y/libexec/jdk1.6.0/
改为
export JAVA_HOME=/usr/java/jdk1.7.0_67

05_伪分布式配置文件设置

[root@Linux00 hadoop]# vi core-site.xml 
<configuration>
    <property>
        <name>fs.defaultFS</name>
        <value>hdfs://Linux00:9000</value>
    </property>
    【指定NameNode】
    <property>
        <name>hadoop.tmp.dir</name>
        <value>/var/ws/hadoop/pseudo</value>
    </property>
    【指定文件存储路径】
</configuration>
[root@Linux00 hadoop]# vi hdfs-site.xml 
<configuration>
    <property>
        <name>dfs.replication</name>
        <value>1</value>
    </property>
    【规定副本个数】
    <property>
        <name>dfs.namenode.secondary.http-address</name>
        <value>Linux00:50090</value>
    </property>
    【指定SecondaryNameNode】
</configuration>
[root@Linux00 hadoop]# vi slaves
Linux00
【规定哪些节点为从节点】

06_格式化

【1】Format the filesystem:
  $ bin/hdfs namenode -format
【2】Start NameNode daemon and DataNode daemon:
  $ sbin/start-dfs.sh
  The hadoop daemon log output is written to the $HADOOP_LOG_DIR directory (defaults to $HADOOP_HOME/logs).
【3】Browse the web interface for the NameNode; by default it is available at:
  NameNode - http://localhost:50070/
【4】Make the HDFS directories required to execute MapReduce jobs:
  $ bin/hdfs dfs -mkdir /user
  $ bin/hdfs dfs -mkdir /user/<username>
【5】Copy the input files into the distributed filesystem:
  $ bin/hdfs dfs -put etc/hadoop input
【6】When you're done, stop the daemons with:
  $ sbin/stop-dfs.sh

02_全分布式

节点间免密登录:
免密登录配置文件分发给对面节点,该名称不要覆盖,然后再追加到对面节点的authorized_keys文件中。

namenodesecondarynamenodedatanode
Linux101o
Linux102o
Linux103o
Linux104o
Linux105o

03_高可用

namenode1namenode2datanodezookeeperzkfcjournalnoderesourcemanagernodemanager
Linux101ooo
Linux102oooo
Linux103ooooo
Linux104oooo
Linux105oooo

04_联邦

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值