Hadoop安装

安装 Hadoop

一、安装伪分布式模式

  1. 跳过安装VM的环节(如果需要请看我的视频)

  1. 跳过安装centos的环节(如果需要请看我的视频)

  1. mkdir /tools --> 用于存储一些软件工具

  1. mkdir /training -> 用于安装一些软件工具

  1. 安装JDK

a)然后解压并安装,使用以下命令:

tar -zvxf /tools/jdk-8u241-linux-x64.tar.gz -C /training/

b)检查你的java路径

echo $JAVA_HOME

  1. 设置jdk环境:

  1. 你需要去配置 .bash_profile 文件,路径在/root/下

vi ~/.bash_profile

  1. 添加如下信息:

export JAVA_HOME=/training/jdk1.8.0_241

export JRE_HOME=$JAVA_HOME/jre

exportCLASSPATH=.:$CLASSPATH:$JAVA_HOME/lib:$JRE_HOME/lib

export PATH=$PATH:$JAVA_HOME/bin:$JRE_HOME/bin;

  1. 使环境生效

source ~/.bash_profile

  1. 检查 :---àjava –version

  1. 关闭防火墙服务 :

systemctl stop firewalld.service

systemctldisable firewalld.service

  1. 配置主机名 (你可以使用主机名 ,建议像 niit1,niit2,niit111):

hostnamectl--static set-hostname niit01 (you can use any HostName, I suggest use likeniit1, niit2, niit111)

======================================================================

二、安装Hadoop:

  1. 上传hadoop-2.7.3.tar.gz 到tools文件夹,然后解压到/training:

tar-zvxf /tools/hadoop-2.7.3.tar.gz -C /training/

  1. 设置hadoop的环境:

  1. 你需要去配置 .bash_profile 文件,路径在/root/下:

vi ~/.bash_profile

  1. 添加如下信息:

export HADOOP_HOME=/training/hadoop-2.7.3

export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

  1. 使环境生效

source ~/.bash_profile

  1. 检查:

hdfs

======================================================================

三、安装伪分布式模式

11)配置主机名ip:

a) 检查:

ifconfig

b) 编辑host文件

vi/etc/hosts

a) 添加如下信息:

192.168.31.134niit01(你可以根据你的主机名进行更改)

12)伪分布式模式

a) 用如下路径去存储hdfs namenode 信息

mkdir /training/hadoop-2.7.3/tmp

b) 配置免密登录:

(*)ssh-keygen-t rsa (enter 4 times)

(*)cd~/.ssh/

(*)ssh-copy-id-i id_rsa.pub root@niit01 (changeaccording your hostname)

13) 五个文件需要配置:

a) 修改 hadoop-env.sh (设置你的jdk ) :

cd/training/hadoop-2.7.3/etc/hadoop/

vihadoop-env.sh

F 找到JAVA_HOME 并根据你的路径更改他

b) hdfs-site.xml (使用他设置你的block块和副本数量 )

vihdfs-site.xml

  1. 添加如下信息添加到配置标签中:

<property>

<name>dfs.replication</name>

<value>1</value>

</property>

<property>

<name>dfs.permissions</name>

<value>false</value>

</property>

  1. 使用它去设置namenode 和临时文件夹(tmp)

  1. - vi core-site.xml

<property>

<name>fs.defaultFS</name>

<value>hdfs://niit01:9000</value>

</property>

<property>

<name>hadoop.tmp.dir</name>

<value>/training/hadoop-2.7.3/tmp</value>

</property>

  1. vimapred-site.xml (使用它设置mapreduce的运行环境):这些文件不存在,你需要去复制

(*) cp/training/hadoop-2.7.3/etc/hadoop/mapred-site.xml.template/training/hadoop-2.7.3/etc/hadoop/mapred-site.xml

(*) vi mapred-site.xml

(*) 添加如下的信息:

<property>

<name>mapreduce.framework.name</name>

<value>yarn</value>

</property>

  1. yarn-site.xml (设置你的yarn)

viyarn-site.xml

(*) 添加如下信息:

<property>

<name>yarn.resourcemanager.hostname</name>

<value>niit01</value>

</property>

<property>

<name>yarn.nodemanager.aux-services</name>

<value>mapreduce_shuffle</value>

</property>

14) 格式化 NameNode:

hdfs namenode -format

#注意: 如果你格式化成功,你将看到如下的信息:

common.Storage:Storage directory /training/hadoop-2.7.3/tmp/dfs/name has been successfullyformatted.

15) 启动 hadoop:

start-all.sh

16) 查看 hadoop :

a) web 端

HDFS:http://niit111:50070

Yarn:http://niit111:8088

b) 使用jps 查看hadoop 的守护进程,如下5个:

NameNode

DataNode

SecondaryNameNode

ReourceManager

NodeManager

17) 如果你想停止,你可以执行如下命令:

stop-all.sh

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值