hadoop集群搭建

本机基本配置(hadoop配置要求

网卡配置

配置主机名(自己给自己起一个名字

修改host映射(方便多台机器之间互传资料

关闭防火墙

克隆之后记得删除多余的网卡

重启电脑,使网卡生效

其他俩台机器按照上面重新操作一遍

记得修改对应的内容(hadoop02   hadoop03

免密登陆SSH

安装免密登录客户端:yum  install  -y  openssh-clients

生成公钥跟私钥:ssh-keygen

发送公钥跟私钥:ssh-copy-id  spark01

注意:不紧要给别人发,也给自己发一份

jdk安装

1:把文件上传到linux

2:解压文件到安装目录   tar -zxvf /root/jdk-8u102-linux-x64.tar.gz -C /usr/local/

3:配置环境变量   vi /etc/profile

export JAVA_HOME=/usr/local/jdk1.8.0_102

export PATH=$PATH:$JAVA_HOME/bin

5:source /etc/profile

安装hadoop

1 HADOOP安装部署

  • 上传HADOOP安装包
  • 规划安装目录  /usr/local/hadoop-2.7.3
  • 解压安装包
  • 修改配置文件  /usr/local/hadoop-2.7.3/etc/hadoop/

最简化配置如下:

vi  hadoop-env.sh

# The java implementation to use.

export JAVA_HOME=/usr/local/jdk1.8.0_102

vi  core-site.xml  

Namenode在哪里 ,临时文件存储在哪里

<configuration>

<property>

<name>fs.defaultFS</name>

<value>hdfs://hadoop01:9000</value>

</property>

<property>

<name>hadoop.tmp.dir</name>

<value>/usr/local/hadoop-2.7.3/tmp</value>

</property>

</configuration>

vi  hdfs-site.xml

<configuration>

<property>

<name>dfs.namenode.name.dir</name>

<value>/usr/local/hadoop-2.7.3/data/name</value>

</property>

<property>

<name>dfs.datanode.data.dir</name>

<value>/usr/local/hadoop-2.7.3/data/data</value>

</property>

<property>

<name>dfs.replication</name>

<value>3</value>

</property>

<property>

<name>dfs.secondary.http.address</name>

<value>hadoop01:50090</value>

</property>

</configuration>

Mv  mapred-site.xml.tmp* mapred-site.xml

vi  mapred-site.xml

<configuration>

<property>

<name>mapreduce.framework.name</name>

<value>yarn</value>

</property>

</configuration>

vi  yarn-site.xml

<configuration>

<property>

<name>yarn.resourcemanager.hostname</name>

<value>hadoop01</value>

</property>

<property>

<name>yarn.nodemanager.aux-services</name>

<value>mapreduce_shuffle</value>

</property>

</configuration>

vi  slaves

hadoop02

hadoop03

Hadoop的path

把第一台安装好的jdk和hadoop以及配置文件发送给另外两台

hosts文件

jdk安装后的文件夹

Hadoop安装后的文件夹

/etc/profile 文件

eg:scp -r /usr/local/jdk1.8.0_102 hadoop02:/usr/local/

4.1.7 启动集群

初始化HDFS(在hadoop01进行操作)(操作一次就ok)

在hadoop01号机子上执行

hadoop  namenode  -format

一键启动在hadoop01号机子上执行:start-all.sh

去windows下去改变映射关系

C/windows/system32/drivers/etc/hosts

4.1.9 通过网页查看

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值