Hadoop2.7.7阿里云安装部署

阿里云的网络环境不需要我们配置,如果是在自己电脑上的虚拟机,虚拟机的安装步骤可以百度。这里是单机版的安装(也有集群模式的介绍)
使用Xshell连接阿里云主机,用命令将自己下载好的安装包上传到服务器

# 先安装程序,方便后面使用
[root@fda ~]# yum -y install lrzsz
# rz是上传 sz 加文件名  是下载
# 如下命令回车会让你选择需要上传的文件
[root@fda ~]# rz

关闭防火墙

阿里云的防火墙是关闭的,如果不是关闭的执行下面的相关命令

#查看防火墙开启状态
[root@fda ~]# systemctl status firewalld
#关闭防火墙
[root@fda ~]# systemctl stop firewalld
#禁止开机启动防火墙
[root@fda ~]# systemctl disable firewalld
#开启防火墙
[root@fda ~]# systemctl start firewalld
#设置开机启动防火墙
[root@fda ~]# systemctl enable firewalld
#重启防火墙
[root@fda ~]# systemctl restart firewalld

配置免密

修改hosts文件,添加以下内容(自己有几台添加几台)

[root@fda ~]# vim /etc/hosts
# 添加以下内容

172.22.110.228 fda

配置SSH

#每台机器先使用ssh执行以下,以在主目录产生一个.ssh 文件夹
# ssh 后面跟主机名称
[root@fda ~]# ssh fda
#然后输入no即可
#每台机器均进入~/.ssh 目录进行操作
[root@fda ~]# cd ~/.ssh
#输入以下命令,一路回车,用以产生公钥和秘钥
[root@fda .ssh]# ssh-keygen -t rsa -P ''
#出现以下信息说明生成成功
Generating public/private rsa key pair.
Enter file in which to save the key (/root/.ssh/id_rsa):
Your identification has been saved in /root/.ssh/id_rsa.
Your public key has been saved in /root/.ssh/id_rsa.pub.
The key fingerprint is:
SHA256:6YO1h1emM9gcWvv9OT6ftHxLnjP9u8p25x1o30oq3No root@node01
The key's randomart image is:
+---[RSA 2048]----+
|                 |
|                 |
|                 |
|         .       |
|       S o o   |
|       + O * . |
|     . B.X. o.+.|
|         +o=+=**%|
|         .oEo*^^|
+----[SHA256]-----+
#将每台机器上的id_rsa.pub公钥内容复制到authorized_keys文件中
[root@fda .ssh]# cp id_rsa.pub authorized_keys
#将所有的authorized_keys文件进行合并
如果是多台的情况下可以使用下面的命令进行文件合并
[root@fda1 .ssh]# cat ~/.ssh/authorized_keys | ssh root@fda 'cat >>
~/.ssh/authorized_keys'
#查看master上的authorized_keys文件内容,类似如下即可
[root@fda .ssh]# more authorized_keys
ssh-rsa
AAAAB3NzaC1yc2EAAAADAQABAAABAQC5iw8+LlLxo0d77uaTChOKKJqfMHzp2jgzqV2hFAneFXqqWmr
Z4/FrMUPenmdss19bP4Up9G7PGbJu29yZDvkDwlmuqnVajYyDOsCl7PPXPWXMIlxMGUHgSXLnQQi6QnWp04v
JKD
s0EbiRTd0ZYCSQefzJcZ8jbQ7bLYt6jtil7FfUupTdHTeexKKd8Mq3K7YFZHumKvhzs6wWiM+n41jANS083s
s3O
YmAdO2cU0w1BhLVvJhdzd6fNG3RXVCXI2v0XxCUHiqI9Oewl2qPOfKzeyy09bJxo371Ezjmt8GMrkA/Ecepk
vx1
2qwNzC9bSPLfbnPWVo2gIxe4mMaFqCFJ root@fda 
#如果是多台的情况下将master上的authorized_keys文件分发到其他主机上
[root@fda .ssh]# scp ~/.ssh/authorized_keys root@fda1 :~/.ssh/
#如果是多台的情况下每台机器之间进行ssh免密码登录操作,包括自己与自己
[root@fda ~]# ssh fda1 
[root@fda1 ~]# ssh fda 

安装 Java 环境

原JDK卸载
如果CentOS中已经安装的有 JDK,可以先卸载当前 JDK,重新安装新的 JDK。不卸载也可以正
常使⽤。如果想卸载,就看下⾯的代码即可

#查询当前所有安装的jdk版本
[root@fda ~]# rpm -qa|grep jdk
#如果什么都没有展示说明没有已安装的jdk,则无需卸载,如果出现以下jdk,则可以卸载
copy-jdk-configs-2.2-3.el7.noarch
java-1.8.0-openjdk-1.8.0.131-11.b12.el7.x86_64
java-1.8.0-openjdk-headless-1.8.0.131-11.b12.el7.x86_64
#卸载jdk,使用下面的方法卸载即可
[root@fda ~]# yum -y remove copy-jdk-configs-2.2-3.el7.noarch
#再次查询当前所有安装的jdk版本
[root@fda ~]# rpm -qa|grep jdk
#在主节点上创建指定目录
[root@fda ~]# mkdir -p /opt/module/Java
[root@fda ~]# mkdir -p /opt/module/Hadoop
#进入到Java目录
[root@fda ~]# cd /opt/module/Java
#使用rz命令从windows主机上传jdk压缩包到主机上
[root@fda Java]# rz
#解压到当前目录
[root@fda Java]# tar -zxvf jdk-8u181-linux-x64.tar.gz
#配置环境变量
[root@fda Java]# vim /etc/profile
#在该文件后面追加一下内容
export JAVA_HOME=/opt/module/Java/jdk1.8.0_181
export JRE_HOME=/opt/module/Java/jdk1.8.0_181/jre
export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar:$JRE_HOME/lib/rt.jar
export PATH=$PATH:$JAVA_HOME/bin:$JRE_HOME/bin
#使刚才的设置生效
[root@fda Java]# source /etc/profile
#检测是否配置成功
[root@fda jdk1.8.0_181]# java -version
java version "1.8.0_181"
Java(TM) SE Runtime Environment (build 1.8.0_181-b13)
Java HotSpot(TM) 64-Bit Server VM (build 25.181-b13, mixed mode)

安装 Hadoop 环境

上传文件到服务器

#上传
[root@fda ~]# cd /opt/module/Hadoop
[root@fda Hadoop]# rz
#解压
[root@fda Hadoop]# tar -zxvf hadoop-2.7.7.tar.gz

创建相应⽬录:创建⽬录是为了配置的时候知道谁与谁对应。其实可以不创建,Hadoop 会⾃动创建

#进入hadoop-2.7.7主目录
[root@fda Hadoop]# cd hadoop-2.7.7
#创建以下目录,以备后用
[root@fda hadoop-2.7.7]# mkdir tmp
[root@fda hadoop-2.7.7]# mkdir logs
[root@fda hadoop-2.7.7]# mkdir -p dfs/name
[root@fda hadoop-2.7.7]# mkdir -p dfs/data
[root@fda hadoop-2.7.7]# mkdir -p dfs/namesecondary

修改配置⽂件:在 Hadoop 中有以下配置⽂件需要做修改
脚本的配置

[root@fda hadoop-2.7.7]# vim etc/hadoop/hadoop-env.sh
#修改JAVA_HOME为以下内容,否则容易出现Hadoop无法启动问题
export JAVA_HOME=/opt/module/Java/jdk1.8.0_181
[root@fda hadoop-2.7.7]# vim etc/hadoop/yarn-env.sh
#修改JAVA_HOME为以下内容
export JAVA_HOME=/opt/module/Java/jdk1.8.0_181
[root@fda hadoop-2.7.7]# vim etc/hadoop/mapred-env.sh
#修改JAVA_HOME为以下内容:
export JAVA_HOME=/opt/module/Java/jdk1.8.0_181

核心配置文件修改

[root@fda hadoop-2.7.7]# vim etc/hadoop/core-site.xml
<!--<configuration></configuration>中间添加一下内容-->
<!--定义Hadoop HDFS中 namenode 的URI和端口【必须配置】-->
  <property>
    <name>fs.defaultFS</name>
    <value>hdfs://fda:9000</value>
  </property>
  <!--Hadoop运行时临时的存储目录【必须配置】-->
  
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值