CDH 安装 Flume、Kafka、Kudu

8 篇文章 1 订阅
3 篇文章 0 订阅

日萌社

人工智能AI:Keras PyTorch MXNet TensorFlow PaddlePaddle 深度学习实战(不定时更新)


 

总帖:CDH 6系列(CDH 6.0、CHD6.1等)安装和使用

=============Flume================

 

=============Kafka================

1.kafka的分区数的默认配置:

2.问题:假如消费不出topic中的数据时。
  日志报错:kafka.server.KafkaApis: [KafkaApi-48] Number of alive brokers ‘命令中指定的备份数’ 
       does not meet the required replication factor ‘CDH中kafka配置的备份数’ for the offsets topic
  方法:查看命令中指定的备份数 是否小于 CDH中kafka配置的备份数
  解决:要么修改 命令中指定的备份数 ,和CDH中kafka配置的备份数 一致 或大于 CDH中kafka配置的备份数

=============Kudu================

KUDU 中存在两个角色
    Mater Server:负责集群管理、元数据管理等功能
    Tablet Server:负责数据存储,并提供数据读写服务

为了实现分区容错性,跟其他大数据产品一样,对于每个角色,在 KUDU 中都可以设置特定数量(一般是 3 或 5)的副本。
各副本间通过 Raft 协议来保证数据一致性。Raft 协议与 ZAB 类似,都是 Paxos 协议的工程简化版本,具体细节有兴趣的同学可以搜索相关资料学习。

KUDU Client 在与服务端交互时,先从 Master Server 获取元数据信息,然后去 Tablet Server 读写数据,如下图:

kUDU 架构

 

可以每个节点都执行
    mkdir -p /opt/kudu/master/wal
    mkdir -p /opt/kudu/master/data
    mkdir -p /opt/kudu/master/logs

    mkdir -p /opt/kudu/tserver/wal
    mkdir -p /opt/kudu/tserver/data
    mkdir -p /opt/kudu/tserver/logs

    chown -R kudu:kudu /opt/cloudera

 

配置 Kudu Tablet Server Hard Memory Limit Kudu 的Tablet Server能使用的最大内存。
    Tablet Server在批量写入数据时并非实时写入磁盘,而是先Cache在内存中,在flush到磁盘。
    这个值设置过小时,会造成Kudu数据写入性能显著下降。对于写入性能要求比较高的集群,建议设置更大的值,比如32GB。

 

 

 

 

 

 

 

 

  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

あずにゃん

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值