ZK集群搭建和Hadoop单机版及Java API简单操作

一、背景

作为软件界最为复杂度的软件代表,当时操作系统、数据库、中间件。而学习中间件,分布式系统,必然绕不开zookeepr、Hadoop的学习。以下做个人搭建zookeeper和Hadoop的搭建的简单记录。相关的代码操作放在github上。

二、搭建过程

1、环境准备

  • 虚拟机三台(也可采用Docker,云服务,WSL等进行搭建)
  • 相关的安装包(jdk、zk、Hadoop)

为便于下载,我将我所选择的版本组合放在以下网盘,大家可进行下载。

链接:https://pan.baidu.com/s/1kdtTdW9i8Qsc4notcueg-A
提取码:1213
在这里插入图片描述

2、虚拟机环境配置

基本要点
  • 配置JDK环境变量(ZK\Hadoop基于Java开发,运行在JVM中
  • 配置主机号、映射、静态网络IP(便于固定访问
  • 配置ssh免密登录(ZK、Hadoop集群是分布式需要机器直接互相通信
  • 创建相关文件、并将以上三个软件包进行解压配置
具体步骤

(1)安装虚拟机Hadoop1(先搭好一台再进行克隆,再修改主机号这些细节)

(2)进行主机名修改、静态网络配置、主机映射

  • 修改IP映射,DNS:vim /etc/sysconfig/network-scripts/ifcfg-ens33
IPADDR=""
GATEWAY=""
NETMASK=""
DNS1=""
DNS2=""

在这里插入图片描述

  • DNS 解析:vim /etc/resolv.conf
    在这里插入图片描述
  • 主机名修改: vim /etc/hostname
  • IP映射:vim /etc/hosts

在这里插入图片描述

  • Windows测试(Windows的 hosts处也进行映射)
    C:\Windows\System32\drivers\etc\hosts下进行映射
    在这里插入图片描述ping测试主机连通性
    在这里插入图片描述
    (3)解压JDK安装包,并配置JDK环境变量
  • 下载相关安装包,并通过scp或其他方式上传到指定位置
  • 进行解压
  • 配置JDK环境变量
    在这里插入图片描述

3、ZK集群的搭建

(1)解压ZK安装包并配置环境变量(同JDK)
(2)配置ZK的配置文件
在 zk文件的etc文件夹具有配置文件,先进行配置文件另命名 mv zoo.sample.cfg zoo.cfg 并进行相关配置。

  • dataDir : 放数据文件夹(自己创建一下)
  • 集群信息配置 (server.1则至指明节点是哪个机器,会在myid进行标识,2888,3888分别为选举端口,通信端口)
    在这里插入图片描述

(3)创建myid文件

在 dataDir的文件夹下创建myid,并写入1(代表此节点为序号1):echo 1 >> myid

(4)克隆虚拟机,并修改相关配置

此时第一台机器搭好了,修改其他节点就很快了。主要修改以下

  • 修改hostname、hosts映射、IP静态地址(自行分配合理的IP即可)
  • 修改ZK的配置文件 myid分别修改为2,3,修改zoo.cfg的集群配置信息,若server.2则修改为 server.2=0.0.0.0:2888:3888

(5)配置SSH进行免密登录(分别对三台机器依次操作)

ssh-keygen 
ssh-copy-id root@hadoop1 
ssh-copy-id root@hadoop2
ssh-copy-id root@hadoop3

    1)ssh-keygen -t dsa -P ''
    2)cat ./.ssh/id_dsa.pub >> ./.ssh/authorized_keys
    

(6)测试、相互ssh登录

(7)依次启动ZK

zkServer.sh
采用start-foreground启动,可查看启动的情况,然后进行排除,正常启动则可jps查看到相应的Java进程启动。再通过 status 参数查看状态,可以看到1、3为Follower,2为Leader。

4、Hadoop的搭建

Hadoop有HDFS、Yarn两大块组成,配置相对较复杂。以下主要列一下配置文件,基本步骤:

  • 进行相关配置
  • 文件夹创建(namenode,datanode)
  • namenode格式化:hdfs -format namenode
  • 配置相应的环境变量(使用用户)
  • 在sbin文件下进行start-all.sh(进行各个组件的启动包装)
  • 在logs中进行查看启动的问题
    在这里插入图片描述
    在这里插入图片描述

core-site.xml

<configuration>
<property>
  <name>fs.defaultFS</name>
  <!--注意写 0.0.0.0 否则主机访问不了,只能内部访问 ,
  当然你不想主机来访问测试,也可写localhost,另外端口根据自行需要填写-->
  <value>hdfs://0.0.0.0:9002</value>
</property>
<property>
  <name>hadoop.tmp.dir</name>
  <value>/usr/local/software/hadoop/hadoop-3.0.2/tmp</value>
</property>
</configuration>

hdfs-site.xml

<!-- Put site-specific property overrides in this file. -->

<configuration>
<property>
  <name>dfs.replication</name>
  <value>1</value>
</property>
<property>
  <name>dfs.namenode.name.dir</name>
  <value>/usr/local/software/hadoop/hadoop-3.0.2/namenode</value>
</property>
<property>
  <name>dfs.datanode.data.dir</name>
  <value>/usr/local/software/hadoop/hadoop-3.0.2/datanode</value>
</property>

<property>
<!--提供HTTP访问,网站访问-->
  <name>dfs.namenode.http-address</name>
  <value>http://0.0.0.0:9001</value>
</property>

<property>
            <name>dfs.permissions</name>
            <value>false</value>
            <description>need not permissions</description>
</property>
</configuration>

yarn-site.xml

property>
  <name>yarn.nodemanager.aux-services</name>
  <value>mapreduce_shuffle</value>
</property>

mapred-site.xml

<connfiguration>
   <name>mapreduce.framework.name </name>
   <value>yarn</value>
</configuration>

三、简单的API操作

(1)引入依赖

     <dependency>
            <groupId>org.apache.zookeeper</groupId>
            <artifactId>zookeeper</artifactId>
            <version>3.5.8</version>
        </dependency>
     <dependency>
        <groupId>org.apache.hadoop</groupId>
        <artifactId>hadoop-client</artifactId>
        <version>3.0.2</version>
    </dependency>
     <dependency>
        <groupId>log4j</groupId>
        <artifactId>log4j</artifactId>
        <version>1.2.17</version>
    </dependency>

(2)操作ZK

public class ApiTests {
    //
    private final static String URL = "hadoop1:2181,hadoop2:2181,hadoop3:281";
    private ZooKeeper zooKeeper;
    //@Test
    @Before
    public void testCon() throws IOException {
        //ZooKeeper
        zooKeeper = new ZooKeeper(URL, 2000, new Watcher() {
            @Override
            public void process(WatchedEvent watchedEvent) {
                   System.out.println(watchedEvent);
            }
        });
    }
    @Test
    public void testBaseOp(){
        System.out.println("state:"+zooKeeper.getState().isAlive());
        String path = "/testClientApi";
        try {
            System.out.println("create node");
            System.out.println(zooKeeper.create(path,"ok".getBytes(), ZooDefs.Ids.OPEN_ACL_UNSAFE, CreateMode.EPHEMERAL));
        } catch (KeeperException | InterruptedException e) {
            e.printStackTrace();
        }
        System.out.println("get node");
        try {
            System.out.println(new String(zooKeeper.getData(path, false, new Stat()))); //Arrays.toString(zooKeeper.getData(path, false, new Stat()))
        } catch (KeeperException | InterruptedException e) {
            e.printStackTrace();
        }
    }
}

(3)操作HDFS

public class HdfsApiTests {
    private final String HDFS_URL = "hdfs://192.168.75.100:9002";//hadoop1
    private final String SCR_PATH = "E:\\JavaProjects\\CourseProjects\\bigdata-lab\\base-learn\\bigdata-hdfs\\src\\main\\resources\\files\\test_data.json";
    private final String DST_PATH = "/test";
    
    @Before
    public void initLog() {
        FileInputStream fileInputStream = null;
        System.out.println("init log");
        try {
            Properties properties = new Properties();
            fileInputStream = new FileInputStream("src/main/resources/log4j.properties");
            properties.load(fileInputStream);
            PropertyConfigurator.configure(properties);
        } catch (Exception e) {
            e.printStackTrace();
        } finally {
            if (fileInputStream != null) {
                try {
                    fileInputStream.close();
                } catch (IOException e) {
                    e.printStackTrace();
                }
            }
        }
    }
    
    @Test
    public void testURL(){
        try {
            new URL(HDFS_URL);
        } catch (MalformedURLException e) {
            e.printStackTrace();
        }
    }
    
    @Test
    public void testCopyFile(){
        System.setProperty("HADOOP_USER_NAME","root");
        Configuration conf=new Configuration();
        conf.set("fs.defaultFS",HDFS_URL);
        FileSystem fs= null;
        
        try {
            fs = FileSystem.get(conf);
            Path src=new Path(SCR_PATH);
            Path dst=new Path(DST_PATH);
            System.out.println("connected");
            // 为什么一直阻塞住?设计缺陷??超时也该报错呀
            // time out 就是超时了,需要设置参数,思考业务场景,
            // 对于大规模的file文件传输很耗时,因此超时的时间也会很长、、HDFS默认的超时时长为10分钟+30秒
            // 配置需要 0.0.0.0 ;区分 localhost、0.0.0.0、127.0.0.1
            //
            if(!fs.exists(new Path("/t2"))){
                System.out.println("doest exists");
                fs.mkdirs(new Path("/t2"));
            }
            System.out.println("ok!");
           // fs.copyFromLocalFile(src,dst);
            //fs.listFiles(dst,true);
        } catch (IOException e) {
            e.printStackTrace();
        } finally {
            try {
                assert fs != null;
                fs.close();
            } catch (IOException e) {
                e.printStackTrace();
            }
        }
    }
}

四、问题记录

  • 1
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值