Spark集群周边的Web UI设置与打开的端口汇总(持续更新中)

下面是变量名:

变量取值所在文件作用
spark.eventLog.enabledtruespark-defaults.conf开启日志记录
spark.eventLog.dirfile:///home/appleyuchi/bigdata/spark-2.3.1-bin-hadoop2.7/logs/applicationHistoryspark-defaults.confApplication在运行过程中所有的信息均记录在该属性指定的路径下
spark.yarn.historyServer.addressDesktop:18080spark-defaults.conf设置History Server的地址和端口,这个链接将会链接到YARN检测界面上的Tracking UI.
spark.eventLog.compresstruespark-defaults.conf 
spark.history.fs.logDirectoryfile:///home/appleyuchi/bigdata/spark-2.3.1-bin-hadoop2.7/logs/applicationHistoryspark-defaults.conf日志目录和spark.eventLog.dir保持一致,Spark History Server页面只展示该指定路径下的信息.

spark-env.sh中可以设置:

export SPARK_HOME_OPTS="-Dspark.history.retainedapplicatons=15"

 

链接相关组件想打开该链接必须满足的条件相关设置
http://0.0.0.0:9083hivehive --service metastore & 
http://master:4040Spark启动spark-shell或者pyspark 
http://master:8080Spark-Master$SPARK_HOME/sbin/start-all.sh 
http://master:8088/Hadoop-Yarn$HADOOP_HOME/sbin/stop-all.sh 
http://master:19888Hadoop-History$HADOOP_HOME/sbin/mr-jobhistory-daemon.sh start historyserver 
http://master:18080Spark-History$SPARK_HOME/sbin/start-history-server.shSPARK_LOCAL_IP=master
http://master:50070Hadoop2.x$HADOOP_HOME/sbin/star-all.sh 
http://master:9870Hadoop3.x$HADOOP_HOME/sbin/star-all.sh 
http://master:10002Hive3.x.y启动hiveserver2和metastore 
http://master:60010

版本低于Hbase0.98

启动HDFS集群和Hbase集群 

http://master:16010

Hbase2.2.4

启动HDFS集群和Hbase集群 
Spark Web UI的streaming标签不显示spark-3.0.0-preview2需要运行[3]中的Spark Streaming实验后才会显示 
http://master:8080/nifi/Nifi需要启动Nifi后才能访问

$NIFI/conf/nifi.properties

里面的

nifi.web.http.port=9091

因为默认的8080被Spark占用了,9090被cockpit占用了,所以这里设为9091

http://master:8080/commandsZookeeper需要启动Zookeeper以后才能访问 
http://master:7070/kylinKylin

需要启动HDFS集群

需要启动Spark集群

需要启动Zookeeper集群

需要启动Hbase集群

需要启动Hive集群

需要启动Kylin集群

用户名密码:ADMIN/KYLIN(必须大写)

不要访问http://Desktop:7070

会显示404

http://desktop:8080/

(默认是8080端口,必须改掉,否则与spark的web ui冲突)

Zeppelin

启动spark集群

 

启动后jps中有ZeppelinServer进程
http://master:9995/ACCUMULO

启动ACCUMULO集群,启动办法是

bin/accumulo monitor

 

启动后jps中没有进程
http://master:8085/#/overviewFlink启动flink集群

默认端口设置路径

$FLINK_HOME/conf/flink-conf.yaml

 

设置语句为:
rest.port: 8085

http://desktop:8880/tez-ui/TEZ

启动hdfs

启动JobHistoryServer

yarn timelineserver

Hive metastore

hiveserver2

zookeeper

hbase

 

 

用来查看hive on tez的执行情况

http://desktop:9201

还有9202与9203

ElasticSearch

 需要启动

$ES/bin/elasticsearch

 
http://desktop:5601KIBANA$KIBANA/bin/kibana 

 

 

注意:

上面的start-all里面不包含启动history服务器。

#------------------------------------------------------------实践操作---------------------------------------------------------------------------------

首先分别运行MapReduce实验和SPARK实验

Hadoop的MapreduceSPARK的RDD两种实验的history log在web UI上分别怎么看呢?

图中可以看到,最上面两行的Application Type分别是SPARK和MAPREDUCE.

 

如果点击SPARK右侧的History,会跳转到

如果点击MAPREDUCE右侧的History,会跳转到

结论:

Web UI会根据实验的类型(SPARK/MAPREDUCE)而跳转到不同的log页面

#------------------------------------------------------------实践操作---------------------------------------------------------------------------------

 

#-------------------------------------------------------------Spark和Hadoop服务器在jps中的名称----------------------------------------------------

 

组件 History服务器在jps中的名称
SparkHistoryServer
HadoopJobHistoryServer

Reference:

[1]为Spark on Yarn配置WebUI日志记录

[2]Hive Web 接口(从 Hive 2.2.0 开始删除 component)

[3]Spark Streaming在Spark Web UI上的显示办法

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值