大数据入门第一天之hadoop的部署安装

https://blog.csdn.net/z215367701/article/details/80148717
详情看这个博客
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

HDFS的操作环境配置

免密码登录Linux系统的步骤

免密原理
在这里插入图片描述

第一步: 通过该命令获得密钥

ssh-keygen -t dsa -P '' -f /root/.ssh/id_dsa

在这里插入图片描述

第二步:复制文件

cat id_dsa.pub >> authorized_keys

在这里插入图片描述
同时查看两个文件

cat id_dsa.pub  authorized_keys

在这里插入图片描述

第三步:免密登录

ssh root@localhost

在这里插入图片描述
退出

exit

在这里插入图片描述

jdk的配置

先卸载open-jdk

查看linux上是否存在已经安装好的JDK javac
java –version

rpm -qa | grep java
查看本机上所有已经安装成功的软件,只查看和java相关的

删除linux自带jdk(注意每个Linux默认安装的jdk不一样你要先查好你自己的jdk版本
rpm -e --nodeps java-1.6.0-openjdk-1.6.0.41-1.13.13.1.el6_8.i686
rpm -e --nodeps java-1.7.0-openjdk-1.7.0.131-2.6.9.0.el6_8.i686

开始安装:
mkdir /usr/local/src/java

FileZilla_3.7.3_win32 上传jdk tar包

cd /usr/local/src/java
将jdk压缩包进行解压
tar -zxvf jdk-7u71-linux-i586.tar.gz

安装依赖包:
yum install glibc.i686
(需要联网)

配置环境变量:
① vim /etc/profile

② 在末尾行添加

#set java environment
JAVA_HOME=/usr/local/src/java/jdk1.7.0_71
PATH=$JAVA_HOME/bin:$PATH
export PATH=$PATH:$JAVA_HOME/bin

保存退出
③source /etc/profile 使更改的配置立即生效
④java -version 查看JDK版本信息,如果显示出1.7.0证明成功

部署HDFS的环境

解压hadoop文件

先将Hadoop上传到root用户目录下
然后解压Hadoop
tar xf hadoop-2.6.5.tar.gz
然后在opt (专门存放外来文件的 )下创建文件
mkdir /opt/sxt
然后把解压好的Hadoop剪切过去
mv hadoop-2.6.5 /opt/sxt/
然后配置环境变量 非常重要
vi /etc/profile

#set java environment
export JAVA_HOME=/usr/local/src/java/jdk1.7.0_71
export HADOOP_HOME=/opt/yrq/hadoop-2.6.5
export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

配置完成后 记得
source /etc/profile 或者 . /etc/profile

java的二次配置

在下面的这些文件中
vi hadoop-env.sh
vi mapred-env.sh
vi yarn-env.sh
里面的JAVA_HOME全部替换成绝对路径
/usr/local/src/java/jdk1.7.0_71

配置完成后 记得
source /etc/profile

配置core-site.xml 核心配置NameNode

vi core-site.xml

其中Daniel是主机名

<!--配置NameNode的服务地址-->
    <property>
        <name>fs.defaultFS</name>
        <value>hdfs://Daniel:9000</value>
    </property>
<!--扩展hdfsd的路径-->
    <property>
        <name>hadoop.tmp.dir</name>
        <value>/var/hadoop_yrq/local</value>
    </property>

配置hdfs-site.xml 基础配置SecondaryNode

vi hdfs-site.xml

<configuration>
    <property>
        <name>dfs.replication</name>
        <value>1</value>
    </property>
    <!--NameNode备份服务-->
    <property>
        <name>dfs.namenode.secondary.http-address</name>
        <value>Daniel:50090</value>
    </property>
</configuration>
         

配置slaves文件

vi slaves
//里面存放的是DataNode
Daniel

格式化hdfs 非常重要

hdfs namenode -format (只能格式化一次,再次启动集群不要执行)

启动集群

start-dfs.sh

角色进程查看:jps

在这里插入图片描述

hadoop安装成功的标志

在浏览器中输入(前面是你自己的Linux系统的ip地址)

192.168.16.129:50070(HDFS的页面)
在这里插入图片描述
192.168.16.129:8088 (yarn管理界面)
在这里插入图片描述

关闭防火墙

chkconfig iptables off
service iptables stop
扔解决不了 看这篇博客
https://blog.csdn.net/With__Sunshine/article/details/80589403

配置主机名

如果出现找不到主机名的请看这篇博客
https://www.cnblogs.com/yuanyi/p/6940453.html
需要修改主机名的话请看这篇文章
https://jingyan.baidu.com/article/574c52192a1d8d6c8d9dc1ce.html
vi /etc/hosts
在这里插入图片描述
注意对应的映射关系(第三列为主机名)

reboot 重启服务器

以上都由博主亲测!

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

黑瞳丶

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值