Hadoop 、Zookeeper、Spark笔记

随手记录一些用到的东西或问题,防止自己忘记或再次遇到

启动顺序

先启动Hadoop 集群,再启动zookeeper,最后启动spark

Hadoop

格式化:跟重装系统一样,只能第一次装好之后才能用这个命令,格式化

hadoop namenode -format

全部启动

# 进入hadoop的sbin目录下
start-all.sh

(base) root@node1:/export/server/hadoop-3.3.4/sbin# start-all.sh 
Starting namenodes on [node1]
Starting datanodes
Starting secondary namenodes [node2]
Starting resourcemanager
Starting nodemanagers

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

全部停止

(base) root@node1:/export/server# hadoop-3.3.4/sbin/stop-all.sh 
Stopping namenodes on [node1]
Stopping datanodes
Stopping secondary namenodes [node2]
Stopping nodemanagers
Stopping resourcemanager

zookeeper启动

启动命令:
一定要在要启动的几个窗口中同时启动,不然会出错,可以用finalshell的命令发送全部会话的功能

apache-zookeeper-3.7.1-bin/bin/zkServer.sh start

查看状态

# 复制该命令
apache-zookeeper-3.7.1-bin/bin/zkServer.sh status

# 第一台
(base) root@node1:/export/server# apache-zookeeper-3.7.1-bin/bin/zkServer.sh status
ZooKeeper JMX enabled by default
Using config: /export/server/apache-zookeeper-3.7.1-bin/bin/../conf/zoo.cfg
Client port found: 2181. Client address: localhost. Client SSL: false.
Mode: leader

# 第二台
(base) root@node2:/export/server# apache-zookeeper-3.7.1-bin/bin/zkServer.sh status
ZooKeeper JMX enabled by default
Using config: /export/server/apache-zookeeper-3.7.1-bin/bin/../conf/zoo.cfg
Client port found: 2181. Client address: localhost. Client SSL: false.
Mode: follower

# 第三台
(base) root@node3:/export/server# apache-zookeeper-3.7.1-bin/bin/zkServer.sh status
ZooKeeper JMX enabled by default
Using config: /export/server/apache-zookeeper-3.7.1-bin/bin/../conf/zoo.cfg
Client port found: 2181. Client address: localhost. Client SSL: false.
Mode: follower

# 一个leader,两个follow

停止命令

apache-zookeeper-3.7.1-bin/bin/zkServer.sh stop

启动Saprk

node1
启动start-all.sh,启动master和所有worker
启动历史服务器 start-history-server.sh

(base) root@node1:/export/server# spark/sbin/start-all.sh 
starting org.apache.spark.deploy.master.Master, logging to /export/server/spark/logs/spark-root-org.apache.spark.deploy.master.Master-1-node1.out
node2: starting org.apache.spark.deploy.worker.Worker, logging to /export/server/spark/logs/spark-root-org.apache.spark.deploy.worker.Worker-1-node2.out
node3: starting org.apache.spark.deploy.worker.Worker, logging to /export/server/spark/logs/spark-root-org.apache.spark.deploy.worker.Worker-1-node3.out
node1: starting org.apache.spark.deploy.worker.Worker, logging to /export/server/spark/logs/spark-root-org.apache.spark.deploy.worker.Worker-1-node1.out

node3: 启动start-master.sh 作为备用master

(base) root@node3:/export/server# spark/sbin/start-master.sh 
starting org.apache.spark.deploy.master.Master, logging to /export/server/spark/logs/spark-root-org.apache.spark.deploy.master.Master-1-node3.out

在这里插入图片描述
在这里插入图片描述
历史服务器:
历史服务器

涉及到hostname的配置文件

这个只有当其他虚拟机是克隆过去或者是将某一台修改主机名的时候要用到,修改完之后就可以用上面的命令启动对应的集群

宿主机hosts配置文件

如果在宿主机(假设是windows电脑)的浏览器上看master webUI的时候也想输入node1:8080,而不是192.168.x.x:8080,或者虚拟机ip地址发生了改变,那么需要修改宿主机的hosts文件
在这里插入图片描述

在这里插入图片描述

Ubuntu自身配置文件

  1. /etc/hostname
    在这里插入图片描述

  2. /etc/hosts
    在这里插入图片描述

zookeeper配置文件包含主机名

1.安装目录下的这个文件/export/server/apache-zookeeper-3.7.1-bin/conf/zoo.cfg
在这里插入图片描述
2.这个有可能涉及到,上面的server.1一定要和下面的1对应,这个文件位置看当初自己建的位置/export/data/zookeeper/data/myid
在这里插入图片描述

Hadoop

  1. /export/server/hadoop-3.3.4/etc/hadoop/core-site.xml
    在这里插入图片描述
  2. /export/server/hadoop-3.3.4/etc/hadoop/hdfs-site.xml
    在这里插入图片描述
  3. /export/server/hadoop-3.3.4/etc/hadoop/mapred-site.xml
    在这里插入图片描述
  4. /export/server/hadoop-3.3.4/etc/hadoop/yarn-site.xml
    在这里插入图片描述
  5. /export/server/hadoop-3.3.4/etc/hadoop/workers
    在这里插入图片描述

Spark配置文件包含主机名

  1. /export/server/spark/conf/workers
  2. /export/server/spark/conf/spark-env.sh
    在这里插入图片描述
    3./export/server/spark/conf/spark-defaults.conf
    在这里插入图片描述
  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值