- 接下来有一些推荐操作,这里选择如下图红框,即可跳过:
- 接下来是选择服务的页面,我选择了自定义服务,然后选择了HBase、HDFS、Hive、Hue、Oozie、Spark、YARN、Zookeeper这八项,可以满足运行Kylin的需要:
- 在选择主机的页面,都选择CDH服务器:
- 接下来是数据库设置的页面,您填写的内容必须与下图保持一致,即主机名为localhost,Hive的数据库、用户、密码都是hive,Activity Monitor的数据库、用户、密码都是amon,Reports Manager的数据库、用户、密码都是rman,Oozie Server的数据库、用户、密码都是oozie,Hue的数据库、用户、密码都是hue,这些内容在ansible脚本中已经固定了,此处的填写必须保持一致:
- 在设置参数的页面,请按照您的硬盘实际情况设置,我这里/home目录下空间充足,因此存储位置都改为/home目录下:
- 等待服务启动:
- 各服务启动完成:
HDFS设置
- 如下图红框所示,HDFS服务存在问题:
- 点击上图中红色感叹号可见问题详情,如下图,是常见的副本问题:
- 操作如下图,在HDFS的参数设置页面,将dfs.replication的值设置为1(只有一个数据节点):
-
经过上述设置,副本数已经调整为1,但是已有文件的副本数还没有同步,需要重新做设置,SSH登录到CDH服务器上;
-
执行命令su - hdfs切换到hdfs账号,再执行以下命令即可完成副本数设置:
hadoop fs -setrep -R 1 /
- 回到网页,重启HDFS服务,如下图:
- 重启后HDFS服务正常:
YARN设置
默认的YARN参数是非常保守的,需要做一些设置才能顺利执行Spark任务:
-
进入YARN管理页;
-
如下图所示,检查参数yarn.nodemanager.resource.cpu-vcores的值,该值必须大于1,否则提交Spark任务后YARN不分配资源执行任务,(如果您的CDH服务器是虚拟机,当CPU只有单核时,则此参数就会被设置为1,解决办法是先提升虚拟机CPU核数,再来修改此参数):
-
yarn.scheduler.minimum-allocation-mb:单个容器可申请的最小内存,我这里设置为1G
-
yarn.scheduler.maximum-allocation-mb:单个容器可申请的最大内存,我这里设置为8G
-
yarn.nodemanager.resource.memory-mb:节点最大可用内存,我这里设置为8G
-
上述三个参数的值,是基于我的CDH服务器有32G内存的背景,请您按照自己硬件资源自行调整;
-
设置完毕后重启YARN服务,操作如下图所示:
Spark设置(CDH服务器)
需要在Spark环境准备一个目录以及相关的jar,否则Kylin启动会报错(提示spark not found, set SPARK_HOME, or run bin/download-spark.sh),以root身份SSH登录CDH服务器,执行以下命令:
mkdir $SPARK_HOME/jars \
&& cp $SPARK_HOME/assembly/lib/*.jar $SPARK_HOME/jars/ \
&& chmod -R 777 $SPARK_HOME/jars
小编13年上海交大毕业,曾经在小公司待过,也去过华为、OPPO等大厂,18年进入阿里一直到现在。
深知大多数初中级Java工程师,想要提升技能,往往是自己摸索成长,但自己不成体系的自学效果低效又漫长,而且极易碰到天花板技术停滞不前!
因此收集整理了一份《2024年最新Java开发全套学习资料》送给大家,初衷也很简单,就是希望能够帮助到想自学提升又不知道该从何学起的朋友,同时减轻大家的负担。
由于文件比较大,这里只是将部分目录截图出来,每个节点里面都包含大厂面经、学习笔记、源码讲义、实战项目、讲解视频
如果你觉得这些内容对你有帮助,可以添加下面V无偿领取!(备注Java)
读者福利
分享一份自己整理好的Java面试手册,还有一些面试题pdf
不要停下自己学习的脚步
读者福利**
分享一份自己整理好的Java面试手册,还有一些面试题pdf
不要停下自己学习的脚步
[外链图片转存中…(img-Qhc5dwD0-1710396038177)]
[外链图片转存中…(img-RQDLTf4T-1710396038178)]