CDH+Kylin三部曲之二:部署和设置(1)

《一线大厂Java面试题解析+核心总结学习笔记+最新讲解视频+实战项目源码》点击传送门,即可获取!
在这里插入图片描述

设置(浏览器操作)

现在CDH服务已经启动了,可以通过浏览器来操作:

  1. 浏览器访问:http://192.168.50.134:7180 ,如下图,账号密码都是admin:

在这里插入图片描述

  1. 一路next,在选择版本页面选择60天体验版:

在这里插入图片描述

  1. 选择主机页面可见CDH服务器(deskmini):

在这里插入图片描述

  1. 在选择CDH版本的页面,请选择下图红框中的5.16.2-1:

在这里插入图片描述

  1. 进入安装Parcel的页面,由于提前上传了离线parcle包,因此下载进度瞬间变成百分之百,此时请等待分配、解压、激活的完成:

在这里插入图片描述

  1. 接下来有一些推荐操作,这里选择如下图红框,即可跳过:

在这里插入图片描述

  1. 接下来是选择服务的页面,我选择了自定义服务,然后选择了HBase、HDFS、Hive、Hue、Oozie、Spark、YARN、Zookeeper这八项,可以满足运行Kylin的需要:

在这里插入图片描述

  1. 在选择主机的页面,都选择CDH服务器:

在这里插入图片描述

  1. 接下来是数据库设置的页面,您填写的内容必须与下图保持一致,即主机名为localhost,Hive的数据库、用户、密码都是hive,Activity Monitor的数据库、用户、密码都是amon,Reports Manager的数据库、用户、密码都是rman,Oozie Server的数据库、用户、密码都是oozie,Hue的数据库、用户、密码都是hue,这些内容在ansible脚本中已经固定了,此处的填写必须保持一致:

在这里插入图片描述

  1. 在设置参数的页面,请按照您的硬盘实际情况设置,我这里/home目录下空间充足,因此存储位置都改为/home目录下:

在这里插入图片描述

  1. 等待服务启动:

在这里插入图片描述

  1. 各服务启动完成:

在这里插入图片描述

HDFS设置

  1. 如下图红框所示,HDFS服务存在问题:

在这里插入图片描述

  1. 点击上图中红色感叹号可见问题详情,如下图,是常见的副本问题:

在这里插入图片描述

  1. 操作如下图,在HDFS的参数设置页面,将dfs.replication的值设置为1(只有一个数据节点):

在这里插入图片描述

  1. 经过上述设置,副本数已经调整为1,但是已有文件的副本数还没有同步,需要重新做设置,SSH登录到CDH服务器上;

  2. 执行命令su - hdfs切换到hdfs账号,再执行以下命令即可完成副本数设置:

hadoop fs -setrep -R 1 /

  1. 回到网页,重启HDFS服务,如下图:

在这里插入图片描述

  1. 重启后HDFS服务正常:

在这里插入图片描述

YARN设置

默认的YARN参数是非常保守的,需要做一些设置才能顺利执行Spark任务:

  1. 进入YARN管理页;

  2. 如下图所示,检查参数yarn.nodemanager.resource.cpu-vcores的值,该值必须大于1,否则提交Spark任务后YARN不分配资源执行任务,(如果您的CDH服务器是虚拟机,当CPU只有单核时,则此参数就会被设置为1,解决办法是先提升虚拟机CPU核数,再来修改此参数):

在这里插入图片描述

  1. yarn.scheduler.minimum-allocation-mb:单个容器可申请的最小内存,我这里设置为1G

  2. yarn.scheduler.maximum-allocation-mb:单个容器可申请的最大内存,我这里设置为8G

  3. yarn.nodemanager.resource.memory-mb:节点最大可用内存,我这里设置为8G

  4. 上述三个参数的值,是基于我的CDH服务器有32G内存的背景,请您按照自己硬件资源自行调整;

  5. 设置完毕后重启YARN服务,操作如下图所示:

在这里插入图片描述

Spark设置(CDH服务器)

需要在Spark环境准备一个目录以及相关的jar,否则Kylin启动会报错(提示spark not found, set SPARK_HOME, or run bin/download-spark.sh),以root身份SSH登录CDH服务器,执行以下命令:

mkdir $SPARK_HOME/jars \

&& cp $SPARK_HOME/assembly/lib/*.jar $SPARK_HOME/jars/ \

&& chmod -R 777 $SPARK_HOME/jars

启动Kylin(CDH服务器)

  1. SSH登录CDH服务器,执行su - hdfs切换到hdfs账号;

  2. 按照官方推荐,先执行检查环境的命令:$KYLIN_HOME/bin/check-env.sh

  3. 检查通过的话控制台输出如下:

在这里插入图片描述

如何快速更新自己的技术积累?

  • 在现有的项目里,深挖技术,比如用到netty可以把相关底层代码和要点都看起来。
  • 如果不知道目前的努力方向,就看自己的领导或公司里技术强的人在学什么。
  • 知道努力方向后不知道该怎么学,就到处去找相关资料然后练习。
  • 学习以后不知道有没有学成,则可以通过面试去检验。

我个人觉得面试也像是一场全新的征程,失败和胜利都是平常之事。所以,劝各位不要因为面试失败而灰心、丧失斗志。也不要因为面试通过而沾沾自喜,等待你的将是更美好的未来,继续加油!

以上面试专题的答小编案整理成面试文档了,文档里有答案详解,以及其他一些大厂面试题目

八年CRUD,疫情备战三个月,三面头条、四面阿里拿offer面经分享

八年CRUD,疫情备战三个月,三面头条、四面阿里拿offer面经分享

《一线大厂Java面试题解析+核心总结学习笔记+最新讲解视频+实战项目源码》点击传送门,即可获取!
转存中…(img-X9b1XUNv-1714469640864)]

[外链图片转存中…(img-eJrYlfzY-1714469640865)]

《一线大厂Java面试题解析+核心总结学习笔记+最新讲解视频+实战项目源码》点击传送门,即可获取!

  • 26
    点赞
  • 10
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值