Hadoop的集群安装


今天开始hadoop学习。一开虚拟机就出现各种状况。

状况一

vim 编辑器出现中文乱码。
一开始以为是编码集的问题,去看了下编码集这里写图片描述
编码集就是utf-8,而且在命令行中可以输入中文。可能就是vim的问题。
解决办法
打开~/etc/vimrc,添加

`set fileencodings=utf-8,ucs-bom,gb18030,gbk,gb2312,cp936
 set termencoding=utf-8
 set encoding=utf-8`

状况二

快捷方式“ll”不能用。linux下命令行输入“ll”相当于“ls -l”。

解决办法
进入$ vim ~/.bashrc

添加下面的代码。

alias ll=’ls -l’ 

添加完成后重启。

状况三

vim编辑器中小键盘不能使用
解决办法
这里写图片描述
不要勾选。

正题:hadoop初始化配置

1. 从官网下载安装包
http://hadoop.apache.org/
点击Download.
这里写图片描述
有各种版本,你也可你选择更多的版本。
这里写图片描述
点击选择国内网点。
这里写图片描述
可以选择稳定的版本。
例:hadoop-2.8.4.tar.gz
这里写图片描述
2.解压
将下载好的安装包拖到sftp中,在根目录找到后解压。
3.修改配置
我装到了/root/apps/下

  • 进入/root/apps/hadoop-2.8.4/etc/hadoop,进入目录下的 hadoop-env.sh
    将JAVA_HOME 后面改成你的jdk目录。
    这里写图片描述
  • 进入目录下的 core-site.xml
    添加之间的内容。 ps:端口号要是空闲的端口。

<!-- Put site-specific property overrides in this file. -->

<configuration>
<property>
  <name>fs.defaultFS</name>
  <value>hdfs://hdp-01:9002</value>
</property>

</configuration>

  • 进入目录下 slaves;添加你的datanode虚拟机
    这里写图片描述

更新:

最简化配置如下:
vi hadoop-env.sh

export JAVA_HOME=/usr/local/jdk1.8.0_102

vi core-site.xml

Namenode在哪里 ,临时文件存储在哪里
<configuration>
<property>
<name>fs.defaultFS</name>
<value>hdfs://hadop1:9000</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/usr/local/hadoop-2.7.3/tmp</value>
</property>
</configuration>

vi hdfs-site.xml

<configuration>
<property>
<name>dfs.namenode.name.dir</name>
<value>/usr/local/hadoop-2.7.3/data/name</value>
</property>
<property>
<name>dfs.datanode.data.dir</name>
<value>/usr/local/hadoop-2.7.3/data/data</value>
</property>

<property>
<name>dfs.replication</name>
<value>3</value>
</property>

<property>
<name>dfs.secondary.http.address</name>
<value>hadop1:50090</value>
</property>
</configuration>

cp mapred-site.xml.tmp mapred-site.xml
vi mapred-site.xm
*l

<configuration>
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
</configuration>

vi yarn-site.xml

<configuration>
<property>
<name>yarn.resourcemanager.hostname</name>
<value>hadoP1</value>
</property>

<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
</configuration>

vi slaves

hadop02
Hadop03

把第一台安装好的jdk和hadoop以及配置文件发送给另外两台

hosts文件
jdk安装后的文件夹
Hadoop安装后的文件夹
/etc/profile 文件
eg:scp -r /usr/local/jdk1.8.0_102 hadoop02:/usr/local/
配置完成!!!

初始化HDFS(在hadoop01进行操作)(操作一次就ok)

bin/hadoop  namenode  -format

在这里插入图片描述
启动HDFS

sbin/start-dfs.sh

启动YARN

sbin/start-yarn.sh

jps命令查看或者50070网页查看

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值