安装hadoop及相关配置

9 篇文章 0 订阅

1.上一篇完成了JDK的安装,由于已经把Hadoop包存放在/usr/local/src/目录下,现在只需要找出来解压就可以啦。
[root@localhost src]#tar xvzf hadoop-1.2.1-bin.tar.gz
解压成功后在当前目录下显示
在这里插入图片描述
2.进入hadoop-1.2.1,新增一项tmp目录,用于存放Hadoop在运行过程中产生的一些临时文件:
[root@localhost hadoop-1.2.1]# mkdir tmp

3.找到hadoop-1.2.1目录下的conf目录,ls查看
在这里插入图片描述
vim masters
把里面内容改为master

在这里插入图片描述
vim slaves 进入后改为
slave1
slave2

接下来分别配置这几项文件
在这里插入图片描述
vim core-site.xml

hadoop.tmp.dir /usr/local/src/hadoop-1.2.1/tmp fs.default.name hdfs://192.168.237.10:9000 配置存放临时目录的地址与路径 vim mapred-site.xml mapred.job.tracker hdfs://192.168.237.10:9001

vim hdfs-site.xml

dfs.replication
3

vim hadoop-env.sh
最后加
export JAVA_HOME=/usr/local/src/jdk1.6.0_45

指定当前机器的hostname与ip地址关联
vim /etc/hosts 在后面加上:(设置后如果访问分节点直接输slave1或slave2就行,不需要输入IP地址)
192.168.237.10 master
192.168.237.11 slave1
192.168.237.12 slave2

[root@localhost conf]# hostname master (执行使master生效,临时的)

vim /etc/sysconfig/network (永久生效)
HOSTNAME=master

到这里就完成了第一台机器Hadoop的安装配置。接下来是把解压好的Hadoop复制到1,2号机上。

scp -rp hadoop-1.2.1 192.168.237.11:/usr/local/src/
scp -rp hadoop-1.2.1 192.168.237.12:/usr/local/src/

查看里面配置过的文件有没出错,cat 命令查看。
但是每台机器内的hostname与IP要统一关联:
vim /etc/hosts
192.168.237.10 master
192.168.237.11 slave1
192.168.237.12 slave2

vim /etc/sysconfig/network
1机: HOSTNAME=slave1
2机: HOSTNAME=slave1

关闭系统防火墙
[root@localhost src]# PATH= P A T H : PATH: PATH:HOME/bin:/sbin:/usr/bin:/usr/sbin
[root@localhost src]# setenforce 0
[root@localhost src]# /etc/init.d/iptables stop
[root@localhost src]# iptables –L
[root@localhost src]# getenforce

在这里插入图片描述

接着是建立机器之间的免密登录,主机+1号+2号
[root@localhost src]# ssh-keygen
[root@localhost src]# cd ~/.ssh/ (打开隐藏目录)
ls发现并没有authorized_keys,然后我们自己创建一个:
[root@localhost .ssh]# touch authorized_keys

[root@localhost .ssh]# cat id_rsa.pub > authorized_keys
在这里插入图片描述

编辑主机的authorized_keys,把三台机的公钥都存在里面
然后远程复制authorized_keys到1,2号机的隐藏目录内:
[root@localhost .ssh]# scp -rp authorized_keys slave1:~/.ssh/

[root@localhost .ssh]# scp -rp authorized_keys slave2:~/.ssh/

复制完毕后在主机登录slave1,slave2

能直接登录不需要密码。分机登录主机也同样不需要密码。

接着回到主机,打开Hadoop目录bin文件,启动Hadoop之前需要先格式化:
[root@localhost bin]# ./hadoop namenode –format

启动机器:
[root@localhost bin]# ./start-all.sh

[root@localhost bin]# jps 查看进程
主机已启动成功。

接下来是查看Hadoop是否能正常运行,上传文件。
./hadoop fs -ls / 【列出在指定目录下的文件内容】
./hadoop fs -put /etc/passwd / 【从本地系统拷贝文件到DFS】【DFS又名深度优先检索】
./hadoop fs -cat /passwd 【展示文件内容】
[root@localhost src]#tar xvzf hadoop-1.2.1-bin.tar.gz
解压成功后在当前目录下显示

2.进入hadoop-1.2.1,新增一项tmp目录,用于存放Hadoop在运行过程中产生的一些临时文件:
[root@localhost hadoop-1.2.1]# mkdir tmp

3.找到hadoop-1.2.1目录下的conf目录,ls查看

vim masters
把里面内容改为master

vim slaves 进入后改为
slave1
slave2

接下来分别配置这几项文件

vim core-site.xml

hadoop.tmp.dir /usr/local/src/hadoop-1.2.1/tmp fs.default.name hdfs://192.168.237.10:9000 配置存放临时目录的地址与路径 vim mapred-site.xml mapred.job.tracker hdfs://192.168.237.10:9001

vim hdfs-site.xml

dfs.replication
3

vim hadoop-env.sh
最后加
export JAVA_HOME=/usr/local/src/jdk1.6.0_45

指定当前机器的hostname与ip地址关联
vim /etc/hosts 在后面加上:(设置后如果访问分节点直接输slave1或slave2就行,不需要输入IP地址)
192.168.237.10 master
192.168.237.11 slave1
192.168.237.12 slave2

[root@localhost conf]# hostname master (执行使master生效,临时的)

vim /etc/sysconfig/network (永久生效)
HOSTNAME=master

到这里就完成了第一台机器Hadoop的安装配置。接下来是把解压好的Hadoop复制到1,2号机上。

scp -rp hadoop-1.2.1 192.168.237.11:/usr/local/src/
scp -rp hadoop-1.2.1 192.168.237.12:/usr/local/src/

查看里面配置过的文件有没出错,cat 命令查看。
但是每台机器内的hostname与IP要统一关联:
vim /etc/hosts
192.168.237.10 master
192.168.237.11 slave1
192.168.237.12 slave2

vim /etc/sysconfig/network
1机: HOSTNAME=slave1
2机: HOSTNAME=slave1

关闭系统防火墙
[root@localhost src]# PATH= P A T H : PATH: PATH:HOME/bin:/sbin:/usr/bin:/usr/sbin
[root@localhost src]# setenforce 0
[root@localhost src]# /etc/init.d/iptables stop
[root@localhost src]# iptables –L
[root@localhost src]# getenforce

接着是建立机器之间的免密登录,主机+1号+2号
[root@localhost src]# ssh-keygen
[root@localhost src]# cd ~/.ssh/ (打开隐藏目录)
ls发现并没有authorized_keys,然后我们自己创建一个:
[root@localhost .ssh]# touch authorized_keys

[root@localhost .ssh]# cat id_rsa.pub > authorized_keys

在这里插入图片描述

编辑主机的authorized_keys,把三台机的公钥都存在里面在这里插入图片描述
然后远程复制authorized_keys到1,2号机的隐藏目录内:
[root@localhost .ssh]# scp -rp authorized_keys slave1:~/.ssh/
在这里插入图片描述
[root@localhost .ssh]# scp -rp authorized_keys slave2:~/.ssh/

复制完毕后在主机登录slave1,slave2
在这里插入图片描述
能直接登录不需要密码。分机登录主机也同样不需要密码。
在这里插入图片描述

接着回到主机,打开Hadoop目录bin文件,启动Hadoop之前需要先格式化:
[root@localhost bin]# ./hadoop namenode –format

启动机器:
[root@localhost bin]# ./start-all.sh

在这里插入图片描述

[root@localhost bin]# jps 查看进程
主机已启动成功。
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
接下来是查看Hadoop是否能正常运行,上传文件。
./hadoop fs -ls / 【列出在指定目录下的文件内容】
./hadoop fs -put /etc/passwd / 【从本地系统拷贝文件到DFS】【DFS又名深度优先检索】在这里插入图片描述
./hadoop fs -cat /passwd 【展示文件内容】

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值