【大数据】CentOS 6.8+Hadoop3.1.1伪分布式集群安装

CentOS 6.8下安装Hadoop3.1.1伪分布式集群安装

描述:
在一台虚拟机中的Linux机器安装hadoop3.1伪分布式集群

环境和软件相关:
系统: CentOS 6.8
IP:192.168.1.31
JDK版本:JDK1.8
JDK安装包全名:jdk-8u201-linux-x64.tar.gz
Hadoop安装包全名:hadoop-3.1.1.tar.gz


一、环境配置
1、ssh免秘钥登录
因为只有一台Linux做伪分布式,故只需要对得本机做免秘钥操作即可。

cd ~/.ssh
ssh-keygen -t rsa
ssh-keygen -t dsa
cat *.pub >> authorized_keys
chmod 600 authorized_keys

2、修改系统参数
vi /etc/selinux/config
将SELINUX修改为下面的值
SELINUX=disabled

3、关闭防火墙
service iptables stop
chkconfig iptables off

4、修改hosts文件
vi /etc/hosts
192.168.1.31   note01

二、安装Java1.8

1、检查是否安装有java
rpm -qa|grep java

2、卸载JAVA
如上面1未发现安装有java,可忽略此步;

使用命令:
rpm -e java包名

卸载java,与java有关的全部软件都需要卸载,如遇到卸载不了的,需要强制执行卸载
rpm -e java包名 --nodeps

3、下载jdk软件包(这里下载1.8 Linux 64位的版本)
去官网下载软件包
https://www.oracle.com/technetwork/java/javase/downloads/index.html

4、上传jdk到服务器
这里上传到/tmp目录

5、解压安装包
tar -zxvf /tmp/jdk-8u201-linux-x64.tar.gz

6、移动和配置
将刚解压出来的jdk移动并命名到/usr/share/jdk1.8
mv /tmp/jdk1.8.0_201 /usr/share/jdk1.8

配置:在/etc/profile文件添加以下内容
export JAVA_HOME=/usr/share/jdk1.8
export JRE_HOME=/usr/share/jdk1.8/jre
export CLASSPAT=$JAVA_HOME/lib/
export HADOOP_HOME=/opt/hadoop311/
export PATH=$PATH:$JAVA_HOME/bin/:$HADOOP_HOME/bin/:$HADOOP_HOME/sbin/

使其配置生效
source /etc/profile

7、验证JAVA是否安装
java -version

三、hadoop安装
上传安装包到/tmp路径

解压并移动
tar -zxvf /tmp/hadoop-3.1.1.tar.gz
mv /tmp/hadoop-3.1.1 /opt/hadoop311

配置
修改hadoop-env.sh文件,在文件最后添加内容
cd /opt/hadoop311/etc/hadoop
vi hadoop-env.sh
export JAVA_HOME=/usr/share/jdk1.8
export HDFS_NAMENODE_USER=root
export HDFS_DATANODE_USER=root
export HDFS_SECONDARYNAMENODE_USER=root

配置core-site.xml文件
<configuration>
    <property>
        <name>fs.defaultFS</name>
        <value>hdfs://note01:9820</value>
    </property>
    <property>
        <name>hadoop.tmp.dir</name>
        <value>/var/hadoop/peseudo</value>
    </property>
</configuration>

注:note01为主机名;使用3版本默认的9820端口

配置hdfs-site.xml文件
<configuration>
    <property>
        <name>dfs.replication</name>
        <value>1</value>
    </property>
    <property>
        <name>dfs.namenode.secondary.http-address</name>
        <value>note01:9868</value>
    </property>
</configuration>

配置文件workers
vi workers
note01

格式化文件系统
cd /opt/hadoop311
./bin/hdfs namenode -format

当看到有
INFO common.Storage: Storage directory /var/hadoop/peseudo/dfs/name has been successfully formatted.
表示格式化成功!

启动集群
./sbin/start-dfs.sh

启动后查看进程是否启动
jps

查看端口
ss -nal

在火狐或谷歌浏览器输入地址:192.168.1.31:9870查看hadoop状态

四、测试hadoop
查看内容
hdfs dfs -ls /

创建目录
hdfs dfs -mkdir /temp

上传文件
hdfs dfs -put /tmp/hadoop-3.1.1.tar.gz /temp

查看内容
hdfs dfs -ls /

 

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值