Hadoop安装

CentOS镜像:
下载地址

虚拟机改名字hostnamectl set-hostname master

在这里插入图片描述

reboot重启虚拟机命令

用ip addr查看ip地址
在这里插入图片描述

安装上传文件得到rz指令:yum install lrzsz -y

在这里插入图片描述

解压jdk命令: tar -zxvf 解压包名称
mv jdk1.8.0_202/ jdk1.8改jdk名字
配置jdk环境vi /etc/profile

在这里插入图片描述

export JAVA_HOME=/usr/local/soft/jdk1.8
export PATH=.:$JAVA_HOME/bin:$PATH

然后执行命令:source /etc/profile

检验jdk是否安装成功:java -version

克隆2个虚拟机(完整克隆)

链接xshell(记住用户名和密码)

解压hadoop

命令:tar -zxvf 解压包名称

直接关闭防火墙

systemctl stop firewalld
systemctl status firewalld
systemctl disable firewalld

在这里插入图片描述

免密登录 ssh-keygen -t rsa

vi /etc/hosts写IP之间的映射

192.168.44.129 master
192.168.44.130 node1
192.168.44.131 node2

将密钥拷贝到其他两个子节点,命令如下:

ssh-copy-id -i node1
ssh-copy-id -i node2

实现主节点master本地免密码登录

首先进入到/root 命令:cd /root
再进入进入到 ./.ssh目录下
然后将公钥写入本地执行命令:cat ./id_rsa.pub >> ./authorized_keys
在这里插入图片描述

将hosts文件拷贝到node1和node2节点

命令:
scp /etc/hosts node1:/etc/hosts
scp /etc/hosts node2:/etc/hosts
cd /usr/local/soft

* 修改hadoop-env.sh文件

export JAVA_HOME=/usr/local/soft/jdk1.8
export JAVA_HOME=${JAVA_HOME}

***修改 core-site.xml

将下面的配置参数加入进去修改成对应自己的

<configuration><property><name>fs.defaultFS</name><value>hdfs://master:9000</value></property><property><name>hadoop.tmp.dir</name><value>/usr/local/soft/hadoop-2.7.7/tmp</value></property><property><name>fs.trash.interval</name><value>1440</value></property>

</configuration>

修改 hdfs-site.xml 将dfs.replication设置为1

  <property><name>dfs.replication</name><value>1</value>

  </property>

  <property><name>dfs.permissions</name><value>false</value>

  </property>

文件yarn-site.xml

<configuration><property>

<name>yarn.resourcemanager.hostname</name>

<value>master</value>

</property>

<property>

<name>yarn.nodemanager.aux-services</name>

<value>mapreduce_shuffle</value>

</property>

<property>

<name>yarn.log-aggregation-enable</name>

<value>true</value>

</property>

<property>

<name>yarn.log-aggregation.retain-seconds</name>

<value>604800</value>

</property>

<property>  

  <name>yarn.nodemanager.resource.memory-mb</name>  

  <value>20480</value>  

</property>  

<property>  

  <name>yarn.scheduler.minimum-allocation-mb</name>  

  <value>2048</value>  

</property>  

<property>  

 <name>yarn.nodemanager.vmem-pmem-ratio</name>  

 <value>2.1</value>  

</property>  

</configuration>

**修改 mapred-site.xml(将map red-site.xml.template 复制一份为 mapred-site.xml

命令:cp mapred-site.xml.template mapred-site.xml
<configuration>
  <property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
<property>  
<name>mapreduce.jobhistory.address</name>  
<value>master:10020</value>  
</property>  
<property>  
<name>mapreduce.jobhistory.webapp.address</name>  
<value>master:19888</value>  
</property>
</configuration>

在这里插入图片描述

,将hadoop的安装目录分别拷贝到其他子节点

 scp -r /usr/local/soft/hadoop-2.7.7  node1:/usr/local/soft/
 scp -r /usr/local/soft/hadoop-2.7.7  node2:/usr/local/soft/

启动hadoop

首先看下hadoop-2.7.7目录下有没有tmp文件夹。

如果没有 执行一次格式化命令:

cd  /usr/local/soft/hadoop-2.7.7目录下

执行命令:

./bin/hdfs namenode -format

会生成tmp文件。

然后在/usr/local/soft/hadoop-2.7.7目录下

 启动执行:./sbin/start-all.sh

关闭hadoop
在这里插入图片描述
关闭虚拟机shutdown

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值