![](https://img-blog.csdnimg.cn/20201014180756916.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
CDH
文章平均质量分 87
疯狂的暴走蜗牛
这个作者很懒,什么都没留下…
展开
-
CDH5.11添加kafka服务及其初始启动OutOfMemoryError失败解决
简介: CDH的parcel包中是没有kafka的,kafka被剥离了出来,需要从新下载parcel包安装。或者在线安装,但是在线安装都很慢,这里使用下载parcel包离线安装的方式。 PS:kafka有很多版本,CDH也有很多版本,那也许你会疑问如何知道你的CDH应该安装什么kafka版本。这个官方有介绍,文档地址:https://www.cloudera.com/documentation原创 2017-06-23 10:29:00 · 7466 阅读 · 4 评论 -
CDH Can't scan a pre-transactional edit log,Timed out waiting 120000ms ,JournalNode数据文件破坏集群恢复方法
简介: CDH5.11集群,由于停电造成节点全部挂掉,重启后HDFS报错,同时由于HDFS报错,引起其他基于HDFS的应用如HBASE等也报错,恢复方法如下。 报错介绍: 我这里的错误,摘录部分日志如下: 在namenode中的报错如下 2017-07-03 13:53:10,377 FATAL org.apache.hadoop.hdf原创 2017-07-03 15:00:44 · 2827 阅读 · 1 评论 -
CDH5.11 离线安装或者升级spark2.x详细步骤
简介: 在我的CDH5.11集群中,默认安装的spark是1.6版本,这里需要将其升级为spark2.x版本。经查阅官方文档,发现spark1.6和2.x是可以并行安装的,也就是说可以不用删除默认的1.6版本,可以直接安装2.x版本,它们各自用的端口也是不一样的。我尝试了安装spark2.0版本和spark2.1版本,均告成功。这里做一下安装spark2.1版本的步骤记录。 首先贴出一原创 2017-06-23 17:36:15 · 25502 阅读 · 20 评论 -
CentOS7安装CDH5.14过程全纪录
目录 简介 环境及软件说明 环境说明 所需软件及说明 安装前的主机准备 一.安装JDK。(每台主机都要做) 二.配置主机名和hosts(每台主机都要做,并且根据各个主机情况做相应的修改) 三.禁止交换。(每台主机都要做) 四。禁用大页面.(每台主机都要做) 五。配置免密...原创 2018-08-22 11:16:18 · 8103 阅读 · 3 评论