Centos中安装配置local/standalone模式和伪分布式模式hadoop集群

Centos中安装配置local/standalone模式和伪分布式模式hadoop集群
1. 查看并验证/etc/hosts和/etc/hostname文件
Cat /etc/hostname
Cat /etc/hosts

  1. 新建linux用户hadoop,该用户专门用来操作hadoop集群
    su
    Useradd hadoop
    Passwd hadoop
    Su hadoop

  2. 为hadoop用户配置ssh免密码登录
    Ssh-keygen –t rsa
    cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
    chmod 0600 ~/.ssh/authorized_keys
    ssh localhost

  3. 安装java
    Java –version可见我们这里安装了openJDK,我们切换为使用oracleJDK

下载安装新版JDK:

解压:

tar xzf jdk-8u131-linux-x64.tar.gz
为了使jdk对所有用户可用,需要移动到/usr/local/:
Su

mv jdk1.8.0_131 /usr/local/
配置环境变量~/.bashrc:

Source ~/.bashrc
Java –version验证:http://mirrors.hust.edu.cn/apache/tomcat/tomcat-7/v7.0.82/bin/apache-tomcat-7.0.82.tar.gz

  1. 下载并解压hadoop:

tar xzf hadoop-2.7.3.tar.gz
mv hadoop-2.7.3 /usr/local/hadoo

  1. Local模式/standalone模式hadoop的安装
    hadoop下载完毕后,默认情况下就是该模式,可以以一个java进程来运行程序。
    只需要在~/.bashrc中新增hadoop_home环境变量即可
    export HADOOP_HOME=/usr/local/hadoop
    source ~/.bashrc

  2. 测试local模式下的Hadoop集群
    hadoop version
    hadoop jar $HADOOP_HOME/share/hadoop/mapreduce/hadoop-mapreduce-examples-*.jar

  3. 以hadoop自带的wordcount为例来演示Local模式hadoop集群的使用:
    mkdir input
    cp HADOOPHOME/.txtinputhadoopjar HADOOP_HOME/share/hadoop/mapreduce/hadoop-mapreduce-examples-*.jar wordcount input output
    cat ./output/*

  4. 安装伪分布式hadoop集群,需要修改~/.bashrc, HADOOPHOME/etc/hadoop/hadoopenv.sh, HADOOP_HOME/etc/hadoop/下的core-site.xml,hdfs-site.xml,yarn-site.xml,mapred-site.xml:
    Vim ~/.bashrc
    Source ~/.bashrc

cd $HADOOP_HOME/etc/hadoop
vim hadoop-env.sh
export JAVA_HOME=/usr/local/jdk1.8.0_131
vim core-site.xml
vim hdfs-site.xml
vim yarn-site.xml
cp mapred-site.xml.template mapred-site.xml

vim mapred-site.xml

Vim hdfs-site.xml:

Vim yarn-site.xml

Vim mapred-site.xml

  1. 格式化伪分布式的hadoop集群的namenode
    hdfs namenode –format

  2. 启动并验证hdfs集群
    Start-dfs.sh
    jps

浏览器访问Localhost:50070查看hdfs集群状态:

  1. 启动并验证yarn:

浏览器访问localhost:8088来查看yarn集群的状态

  1. 以hadoop自带的wordcount为例来演示伪分布式模式hadoop集群的使用:
    Hdfs dfs -mkdir /user/hadoop/input
    Hdfs dfs –put $HADOOP_HOME/*.txt /user/hadoop/input
    Hdfs dfs –ls /user/hadoop/input

hadoop jar $HADOOP_HOME/share/hadoop/mapreduce/hadoop-mapreduce-examples-*.jar wordcount input output

Hdfs dfs -cat output/*

可以通过浏览器访问yarn集群,查看程序运行状态:

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值