Hadoop的安装配置

Hadoop安装步骤大致分8步:

  1. 安装运行环境
  2. 修改主机名和用户名
  3. 配置静态IP地址
  4. 配置SSH无密码连接
  5. 安装JDK
  6. 配置Hadoop
  7. 格式化HDFS
  8. 启动Hadoop并验证安装

 

安装运行环境

〉〉〉〉见Centos安装

 

修改主机名和用户名

修改用户名要先添加用户

useradd <username>

修改密码

passwd <username>

//建议不添加用户,直接使用root用户,免去授权问题。

 

修改主机名

vi /etc/hostname

直接修改为master,其他节点修改为slave1,slave2....

为了让各个节点能够使用主机名相互访问,需修改hosts文件

vi /etc/hosts

192.168.130.137 master
192.168.130.138 slave1
192.168.130.139 slave2


改完后保存退出

 

配置静态IP地址

为了使Hadoop集群在启动时可以通过固定的主机名或者IP地址启动

修改ifcfg-ens33文件(名称可能不一样,可以执行ifconfig查询)

vi /etc/sysconfig/network-scripts/ifcfg-ens33

修改成如下

TYPE=Ethernet
BOOTPROTO=static
DEFROUTE=yes
PEERDNS=yes
PEERROUTES=yes
IPV4_FAILURE_FATAL=no
IPV6INIT=yes
IPV6_AUTOCONF=yes
IPV6_DEFROUTE=yes
IPV6_PEERDNS=yes
IPV6_PEERROUTES=yes
IPV6_FAILURE_FATAL=no
IPV6_ADDR_GEN_MODE=stable-privacy
NAME=ens33
UUID=76e3e6d0-8e36-4584-9ee7-a2e6c82350b3
DEVICE=ens33
ONBOOT=yes
IPADDR=192.168.130.137
NETMASK=255.255.255.0
GATEWAY=192.168.130.2
DNS1=8.8.8.8

GATEWAY查询命令

netstat -rn

配置SSH无密码连接

为了能通过一个节点来操作其他的节点

在这之前,先关闭防火墙

先检查是否安装了iptables

service iptables status

安装iptables

yum install -y iptables

安装iptables-services

yum install iptables-services

iptables-services 和 iptables 是不一样的

安装了 services才有/etc/sysconfig/iptables

 

禁用/停止自带的firewalld服务

停止firewalld服务

systemctl stop firewalld

安装rsync工具(远程数据同步工具)

yum install rsync

检查是否安装成功

rpm -qa | grep rsync

出现如下信息说明安装成功

rsync-3.1.2-4.el7.x86_64

 

生成SSH公钥(仅需主节点操作)

为了无密码访问子节点

在master执行

ssh-keygen -t rsa

遇到提示一直按回车即可

将公钥发送至从节点的authorized_keys的列表,执行

ssh-copy-id -i ~/.ssh/id_rsa.pub root@slave1
ssh-copy-id -i ~/.ssh/id_rsa.pub root@slave2
...

验证安装

在主节点执行

ssh slave1

没有出现输入密码提示,说明安装成功

 

安装JDK

卸载自带的Open JDK

查看目前系统JDK,执行

rpm -qa | grep jdk

如果出现openjdk,卸载之

yum -y remove ***

安装Oracle JDK,将JDK安装在/opt文件夹下

tar -xzvf jdk-********.tar.gz

配置环境变量(所以节点都需要),对/etc/profile文件追加

export JAVA_HOME=/opt/jdk****
export PATH=$PATH:$JAVA_HOME/bin

使其生效

source /etc/profile

验证安装

java -version

如果出现如下信息,则安装成功

Java(TM) SE Runtime Environment (build 1.8.0_171-b11)
Java HotSpot(TM) 64-Bit Server VM (build 25.171-b11, mixed mode)

 

配置Hadoop

一般安装在/opt下

解压文件

修改配置文件

hadoop-env.sh

在其末尾追加环境变量

export HADOOP_HOME=/opt/hadoop-2.9.0
export PATH=$PATH:$HADOOP_HOME/bin

core-site.xml

<configuration>
   <property>
        <name>fs.defaultFS</name>
        <value>hdfs://master:9000</value>
   </property>
    <property>
        <name>hadoop.tmp.dir</name>
        <value>/opt/hadoop-2.9.0/tem</value>
    </property>
</configuration>

hdfs-site.xml

<configuration>
    <property>
            <name>dfs.replication</name>
            <value>3</value>
    </property>
    <property>
             <name>dfs.name.dir</name>
             <value>/opt/hdfs/name</value>
    </property>
    <property>
             <name>dfs.data.dir</name>
             <value>/opt/hdfs/data</value>
    </property>
</configuration>

mapred-site.xml

<configuration>
        <property>
              <name>mapred.job.tracker</name>
              <value>master:9001</value>
       </property>
</configuration>

slaves

Master
Slave1
Slave2

复制到从节点 

scp -r /opt/hadoop*** root@slave1:/opt
scp -r /opt/hadoop*** root@slave2:/opt

格式化HDFS

hadoop namenode -format

 

启动hadoop并验证安装

执行脚本

sh ./opt/hadoop/sbin/start-all.sh

验证,输入jps,出现下面信息,安装成功

10448 DataNode
10773 ResourceManager
10311 NameNode
10619 SecondaryNameNode
11071 NodeManager
11679 Jps

大功告成

Hadoop 是一个开源的大数据处理框架,主要用于分布式存储和并行计算。安装配置 Hadoop 需要以下步骤: 1. **下载安装包**: - 访问 Apache Hadoop 的官方网站(https://hadoop.apache.org/)下载最新的稳定版本或适合需求的版本。 2. **选择安装类型**: - 根据你的应用场景,可以选择单机模式 (Hadoop Single Node) 或者完整的分布式集群 (Hadoop Distributed Clustering)。 3. **操作系统支持**: - Hadoop 支持 Linux、macOS 和 Windows(需要使用 Cygwin),确保你的环境支持 Java,因为 Hadoop 是基于 Java 的。 4. **安装 Java**: - Hadoop 需要 Java Development Kit (JDK),确保已经安装并且版本正确。 5. **配置环境变量**: - 在终端或命令提示符中设置 `JAVA_HOME` 变量指向 JDK 安装目录,以及添加到 PATH 中。 6. **下载和解压 Hadoop**: - 下载 `.tar.gz` 或 `.zip` 文件,然后解压缩到你希望放置 Hadoop 的位置。 7. **配置核心文件**: - 对于 Hadoop 2.x 或更高版本,编辑 `core-site.xml` 文件,定义 HDFS 名称节点地址等核心参数。 - 对于 MapReduce,编辑 `mapred-site.xml` 和 `yarn-site.xml` 文件配置 JobTracker 和 ResourceManager。 8. **启动服务**: - 在 Hadoop 目录下运行 `sbin/start-all.sh`(Linux/Mac)或 `bin\start-dfs.cmd` 和 `bin\start-yarn.cmd`(Windows),开始 HDFS 和 YARN 服务。 - 使用 `jps` 命令检查进程是否正在运行。 9. **验证安装**: - 可以尝试上传一个小文件到 HDFS 并读取回来,或者运行一个简单的 MapReduce 示例,确认一切正常。 10. **监控和日志**: - 配置 Hadoop 监控工具(如 Ganglia 或 Nagios)并查看 logs 文件夹中的错误报告,以跟踪系统的健康状况。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值