002.Kafka的Java访问

首先创建Producer,
其次创建Consumer,
最后自定义Partition
 
1)Kafka的生产者 KafkaProducer
package com.sinovatech.framework.kafka;
 
import java.util.Properties;
 
import kafka.javaapi.producer.Producer;
import kafka.producer.KeyedMessage;
import kafka.producer.ProducerConfig;
 
public class KafkaProducer {
 private static String brokers = "192.168.30.104:9092,192.168.30.105:9092,192.168.30.106:9092";
 private static String serializer = "kafka.serializer.StringEncoder";
 private static String partition = "com.sinovatech.framework.kafka.KafkaPartitioner";
 private static final String topic = "mall";
 
 private static Properties props = new Properties();
 
 public static void main(String[] args) {
  // serializer.class为消息的序列化类
  props.put("serializer.class", serializer);
  // 配置metadata.broker.list, 为了高可用, 最好配两个broker实例
  props.put("metadata.broker.list", brokers);
  // ACK机制, 消息发送需要kafka服务端确认
  props.put("request.required.acks", "1");
  props.put("partitioner.class", partition);
 
  ProducerConfig config = new ProducerConfig(props);
  Producer<String, String> producer = new Producer<String, String>(config);
 
  for (int i = 0; i < 500; i++) {
   String message = "hello=" + i;
   String key = i + "";
   producer.send(new KeyedMessage<String, String>(topic, key, message));
  }
 }
}
 
1)Kafka的消费者 KafkaConsumer
package com.sinovatech.framework.kafka;
 
import java.util.HashMap;
import java.util.List;
import java.util.Map;
import java.util.Properties;
 
import kafka.consumer.Consumer;
import kafka.consumer.ConsumerConfig;
import kafka.consumer.ConsumerIterator;
import kafka.consumer.KafkaStream;
import kafka.javaapi.consumer.ConsumerConnector;
 
public class KafkaConsumer extends Thread {
 private static String zookeepers = "192.168.30.104:2181,192.168.30.105:2181,192.168.30.106:2181";
 private static Properties props = new Properties();
 private static String group = "mallGroup";
 private static final String topic = "mall";
 private final ConsumerConnector consumer;
 
 public static void main(String[] args) {
  KafkaConsumer consumerThread = new KafkaConsumer();
  consumerThread.start();
 }
 
 public KafkaConsumer() {
  consumer = Consumer.createJavaConsumerConnector(createConsumerConfig());
 }
 
 private static ConsumerConfig createConsumerConfig() {
  // 设置zookeeper的链接地址
  props.put("zookeeper.connect", zookeepers);
  // 设置group id
  props.put("group.id", group);
  // kafka的group 消费记录是保存在zookeeper上的, 但这个信息在zookeeper上不是实时更新的, 需要有个间隔时间更新
  props.put("auto.commit.interval.ms", "1000");
  props.put("zookeeper.session.timeout.ms", "10000");
  return new ConsumerConfig(props);
 }
 
 public void run() {
  // 设置Topic=>Thread Num映射关系, 构建具体的流
  Map<String, Integer> topickMap = new HashMap<String, Integer>();
  topickMap.put(topic, 1);
 
  Map<String, List<KafkaStream<byte[], byte[]>>> streamMap = consumer
    .createMessageStreams(topickMap);
  KafkaStream<byte[], byte[]> stream = streamMap.get(topic).get(0);
  ConsumerIterator<byte[], byte[]> it = stream.iterator();
 
  System.out.println("*********Results********");
  while (it.hasNext()) {
   System.err.println("get data:" + new String(it.next().message()));
   try {
    Thread.sleep(500);
   } catch (InterruptedException e) {
    e.printStackTrace();
   }
  }
 }
 
}
 
3)Kafka自定义Partition
          发 送一条消息时,可以指定这条消息的key,producer根据这个key和partition机制来判断将这条消息发送到哪个parition。 paritition机制可以通过指定producer的paritition.class这一参数来指定,该class必须实现 kafka.producer.Partitioner 接口。本例中如果key可以被解析为整数则将对应的整数与partition总数取余,该消息会被发送到该数对应的partition。(每个parition都会有个序号)
 
package com.sinovatech.framework.kafka;
 
import kafka.producer.Partitioner;
 
public class KafkaPartitioner implements Partitioner {
// 解决执行报错的问题:Caused by: java.lang.NoSuchMethodException: //com.sinovatech.framework.kafka.KafkaPartitioner.<init>(kafka.utils.VerifiableProperties)
public KafkaPartitioner(VerifiableProperties props) {
 }
 public int partition(Object key, int numPartitions) {
  try {
   return Math.abs(Integer.parseInt((String) key) % numPartitions);
  } catch (Exception e) {
   return Math.abs(key.hashCode() % numPartitions);
  }
 }
 
}
以下是对提供的参考资料的总结,按照要求结构化多个要点分条输出: 4G/5G无线网络优化与网规案例分析: NSA站点下终端掉4G问题:部分用户反馈NSA终端频繁掉4G,主要因终端主动发起SCGfail导致。分析显示,在信号较好的环境下,终端可能因节能、过热保护等原因主动释放连接。解决方案建议终端侧进行分析处理,尝试关闭节电开关等。 RSSI算法识别天馈遮挡:通过计算RSSI平均值及差值识别天馈遮挡,差值大于3dB则认定有遮挡。不同设备分组规则不同,如64T和32T。此方法可有效帮助现场人员识别因环境变化引起的网络问题。 5G 160M组网小区CA不生效:某5G站点开启100M+60M CA功能后,测试发现UE无法正常使用CA功能。问题原因在于CA频点集标识配置错误,修正后测试正常。 5G网络优化与策略: CCE映射方式优化:针对诺基亚站点覆盖农村区域,通过优化CCE资源映射方式(交织、非交织),提升RRC连接建立成功率和无线接通率。非交织方式相比交织方式有显著提升。 5G AAU两扇区组网:与三扇区组网相比,AAU两扇区组网在RSRP、SINR、下载速率和上传速率上表现不同,需根据具体场景选择适合的组网方式。 5G语音解决方案:包括沿用4G语音解决方案、EPS Fallback方案和VoNR方案。不同方案适用于不同的5G组网策略,如NSA和SA,并影响语音连续性和网络覆盖。 4G网络优化与资源利用: 4G室分设备利旧:面对4G网络投资压减与资源需求矛盾,提出利旧多维度调优策略,包括资源整合、统筹调配既有资源,以满足新增需求和提质增效。 宏站RRU设备1托N射灯:针对5G深度覆盖需求,研究使用宏站AAU结合1托N射灯方案,快速便捷地开通5G站点,提升深度覆盖能力。 基站与流程管理: 爱立信LTE基站邻区添加流程:未提供具体内容,但通常涉及邻区规划、参数配置、测试验证等步骤,以确保基站间顺畅切换和覆盖连续性。 网络规划与策略: 新高铁跨海大桥覆盖方案试点:虽未提供详细内容,但可推测涉及高铁跨海大桥区域的4G/5G网络覆盖规划,需考虑信号穿透、移动性管理、网络容量等因素。 总结: 提供的参考资料涵盖了4G/5G无线网络优化、网规案例分析、网络优化策略、资源利用、基站管理等多个方面。 通过具体案例分析,展示了无线网络优化中的常见问题及解决方案,如NSA终端掉4G、RSSI识别天馈遮挡、CA不生效等。 强调了5G网络优化与策略的重要性,包括CCE映射方式优化、5G语音解决方案、AAU扇区组网选择等。 提出了4G网络优化与资源利用的策略,如室分设备利旧、宏站RRU设备1托N射灯等。 基站与流程管理方面,提到了爱立信LTE基站邻区添加流程,但未给出具体细节。 新高铁跨海大桥覆盖方案试点展示了特殊场景下的网络规划需求。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值