一、准备工作
本文用到所有文件均可在资料下载下载,提取码: 6vxp,永久有效
1.1 zookeeper 安装包下载
zookeeper官网下载:链接: zookeper官网下载.
1.2 kafka 安装包下载
kafka官网下载:链接: kafka官网下载
1.3 jdk下载安装及环境变量配置
jdk官网下载:链接: jdk官网下载
二、单机部署
2.1 jdk安装及环境变量配置
2.1.1 安装jdk 代码片
.
chmod +x jdk-8u111-linux-x64.rpm
rpm -ivh jdk-8u111-linux-x64.rpm
java -version
2.1.2 配置环境变量 代码片
.
export JAVA_HOME=/usr/java/jdk1.8.0_111
export JRE_HOME=${JAVA_HOME}/jre
export CLASSPATH=.:${JAVA_HOME}/lib:${JRE_HOME}/lib:$CLASSPATH
export JAVA_PATH=${JAVA_HOME}/bin:${JRE_HOME}/bin
source /etc/profile
2.1.3 配置hosts
vim /etc/hosts
192.168.100.100 mytest
2.2 zookeeper部署
2.2.1 cp配置文件 代码片
.
tar -zxf apache-zookeeper-3.6.4-bin.tar.gz
cd /u02/zookeeper/apache-zookeeper-3.6.4-bin/conf
cp zoo_sample.cfg zoo.cfg
2.2.2 启动
./bin/zkServer.sh start zoo.cfg
2.2.3 查看
jps
./bin/zkServer.sh status zoo.cfg
2.2.4 停止zookeeper服务
./bin/zkServer.sh stop zoo.cfg
2.2.5 注意事项
apache-zookeeper-3.6.4.tar.gz 和 apache-zookeeper-3.6.4-bin.tar.gz 包下载时看清楚。
注意使用——bin的包,要不启动会报错: Could not find or load main class org.apache.zookeeper.server.quorum.QuorumPeerMain
2.3 kafka部署
2.3.1 配置文件 代码片
.
tar -zxf kafka_2.11-2.2.0.tgz
cd /u02/kafka/kafka_2.11-2.2.0/bin
vim ../config/server.properties
listeners=PLAINTEXT://xxx:9092
log.dirs=/u02/kafka/kafka-logs
zookeeper.connect=xxx:2181
# xxx 为/etc/hosts里配置的域名
./kafka-server-start.sh -daemon ../config/server.properties
2.3.2 启动kafka
./kafka-server-start.sh -daemon ../config/server.properties
2.3.3 Kafka常见命令
创建topic: ./kafka-topics.sh --bootstrap-server xxx:9092 --create --topic topic01 --partitions 1 --replication-factor 1
消费消息:./kafka-console-consumer.sh --bootstrap-server xxx:9092 --topic topic01 --group group1
生产消息:./kafka-console-producer.sh --broker-list xxx:9092 --topic topic01
查看topic:./kafka-topics.sh --bootstrap-server xxx:9092 --list
2.3.4 生产者
2.3.5 消费者
2.3.6 停止kafka服务
./bin/kafka-server-stop.sh
三、集群部署
四、项目应用实战
4.1 依赖
<dependency>
<groupId>org.springframework.kafka</groupId>
<artifactId>spring-kafka</artifactId>
<version>2.2.7.RELEASE</version>
</dependency>
4.2 配置
package com.xxx.config;
import com.google.common.collect.Maps;
import lombok.extern.slf4j.Slf4j;
import org.apache.kafka.clients.consumer.ConsumerConfig;
import org.apache.kafka.common.serialization.StringDeserializer;
import org.springframework.beans.factory.annotation.Value;
import org.springframework.context.annotation.Bean;
import org.springframework.context.annotation.Configuration;
import org.springframework.kafka.annotation.EnableKafka;
import org.springframework.kafka.config.ConcurrentKafkaListenerContainerFactory;
import org.springframework.kafka.config.KafkaListenerContainerFactory;
import org.springframework.kafka.core.DefaultKafkaConsumerFactory;
import org.springframework.kafka.listener.ConcurrentMessageListenerContainer;
import org.springframework.kafka.listener.ContainerProperties;
import java.util.Map;
/**
* @version v1.0
* @Author: Mr.xxx
*/
@Configuration
@EnableKafka
@Slf4j
public class KafkaConfig {
/**
* ./kafka-console-consumer.sh --group 123
* @param list
*/
public static final String TEST_ONE_TOPIC = "TEST_ONE_TOPIC";
public static final String TEST_TWO_TOPIC = "TEST_TWO_TOPIC";
@Value("${spring.kafka.soaServers}")
private String soaServers;
@Value("${spring.kafka.soaGroupId}")
private String soaGroupId;
@Value("${spring.kafka.soaMaxPoll}")
private Integer soaMaxPoll;
@Value("${spring.kafka.soaConcurrency}")
private Integer soaConcurrency;
@Bean("soaKafkaListenerContainerFactory")
public KafkaListenerContainerFactory<ConcurrentMessageListenerContainer<String, String>> soaKafkaListenerContainerFactory() {
ConcurrentKafkaListenerContainerFactory<String, String> kafkaListenerFactory =
newBatchAckKafkaListenerFactory(soaServers, soaGroupId, soaMaxPoll, soaConcurrency);
return kafkaListenerFactory;
}
/**
* 创建批量消费,手动提交的kafka消费者
*
* @param produceServers
* @param consumerGroupId
* @param maxPollRecords
* @param concurrency
* @return
*/
public ConcurrentKafkaListenerContainerFactory<String, String> newBatchAckKafkaListenerFactory(String produceServers,
String consumerGroupId, Integer maxPollRecords, Integer concurrency) {
// 创建监听者
ConcurrentKafkaListenerContainerFactory<String, String> factory = new ConcurrentKafkaListenerContainerFactory<>();
Map<String, Object> configMap = getKafkaConsumerConfigMap(produceServers, consumerGroupId, maxPollRecords);
factory.setConsumerFactory(new DefaultKafkaConsumerFactory<>(configMap));
factory.setConcurrency(concurrency);
factory.getContainerProperties().setPollTimeout(1500);
ContainerProperties containerProperties = factory.getContainerProperties();
containerProperties.setAckMode(ContainerProperties.AckMode.MANUAL_IMMEDIATE);
factory.setBatchListener(true);
return factory;
}
/**
* getKafkaConsumerConfigMap
*
* @param produceServers
* @param consumerGroupId
* @param maxPollRecords
* @return
*/
private Map<String, Object> getKafkaConsumerConfigMap(String produceServers, String consumerGroupId, Integer maxPollRecords) {
Map<String, Object> configMap = Maps.newHashMap();
configMap.put(ConsumerConfig.BOOTSTRAP_SERVERS_CONFIG, produceServers);
configMap.put(ConsumerConfig.ENABLE_AUTO_COMMIT_CONFIG, false);
configMap.put(ConsumerConfig.AUTO_OFFSET_RESET_CONFIG, "earliest");
configMap.put(ConsumerConfig.AUTO_COMMIT_INTERVAL_MS_CONFIG, "10000");
configMap.put(ConsumerConfig.SESSION_TIMEOUT_MS_CONFIG, "30000");
configMap.put(ConsumerConfig.MAX_POLL_INTERVAL_MS_CONFIG, "40000");
configMap.put(ConsumerConfig.REQUEST_TIMEOUT_MS_CONFIG, "150000");
configMap.put(ConsumerConfig.GROUP_ID_CONFIG, consumerGroupId);
configMap.put(ConsumerConfig.MAX_POLL_RECORDS_CONFIG, maxPollRecords);
configMap.put(ConsumerConfig.KEY_DESERIALIZER_CLASS_CONFIG, StringDeserializer.class);
configMap.put(ConsumerConfig.VALUE_DESERIALIZER_CLASS_CONFIG, StringDeserializer.class);
return configMap;
}
}
4.3 生产者
package com.xxx.yhb.job;
import com.alibaba.fastjson.JSONObject;
import com.baomidou.mybatisplus.extension.service.IService;
import com.xxl.job.core.biz.model.ReturnT;
import com.xxl.job.core.handler.IJobHandler;
import com.xxl.job.core.handler.annotation.XxlJob;
import com.xxl.job.core.log.XxlJobLogger;
import org.springframework.beans.factory.annotation.Autowired;
import org.springframework.beans.factory.annotation.Value;
import org.springframework.kafka.core.KafkaTemplate;
import org.springframework.stereotype.Component;
import javax.annotation.Resource;
import java.util.List;
/**
* Author:xxx
* Description:
* Date:2023-05-26 13:44
**/
@Component
public class CdrCallTimeDataKafkaJob extends IJobHandler {
@Resource(name = "callDetailKafkaTemplate")
private KafkaTemplate<String, String> kafkaTemplate;
@Value("${cdr.call.kafka.topic}")
private String cdrCallKafkaTopic = "cdr_call_detail";
@Autowired
private IService Service;
@XxlJob("CdrCallTimeDataKafkaJob")
@Override
public ReturnT<String> execute(String param) throws Exception {
XxlJobLogger.log(">>>>>>>>>>>开始! >>>>>>>>>>");
String startTime="";
String endTime="";
List<DTO> resList = Service.getData(startTime, endTime);
if (resList == null || resList.size() == 0) {
return ReturnT.SUCCESS;
} else {
resList.stream().forEach(ct -> {
kafkaTemplate.send(cdrCallKafkaTopic, JSONObject.toJSONString(ct));
XxlJobLogger.log("Send kafka msg to xxx success, the msg is :{}", JSONObject.toJSONString(ct));
});
return ReturnT.SUCCESS;
}
}
}
4.4 消费者
package com.xxx.kafka;
import com.alibaba.fastjson.JSONObject;
import com.alibaba.fastjson.TypeReference;
import lombok.extern.slf4j.Slf4j;
import org.apache.kafka.clients.consumer.ConsumerRecord;
import org.springframework.beans.BeanUtils;
import org.springframework.beans.factory.annotation.Autowired;
import org.springframework.kafka.annotation.KafkaListener;
import org.springframework.kafka.support.Acknowledgment;
import org.springframework.stereotype.Component;
import java.util.List;
import static com.xxx.config.KafkaConfig.*;
/**
* @version v1.0
* @Description:
* @Author: Mr.xxx
* @Date: 2023/7/11 18:28 下午
*/
@Slf4j
@Component
public class SoaBriefNameKafkaConsumer {
@KafkaListener(topics = {TEST_ONE_TOPIC,TEST_TWO_TOPIC},containerFactory = "soaKafkaListenerContainerFactory")
public void soaEmpListener(List<ConsumerRecord<String, String>> list, Acknowledgment acknowledgment){
try {
log.info("Kafka消费开始");
for (ConsumerRecord<String, String> consumerRecord : list) {
try {
String topicName = consumerRecord.topic();
log.info("Service.topic= {}", topicName);
if (SOA_SITE_BRIF_TOPIC.equalsIgnoreCase(topicName)){
}
} catch (Exception e) {
log.error("ServiceErr: {}", e.getLocalizedMessage());
}
}
} finally {
acknowledgment.acknowledge();
}
}
}
序列化
ACK
幂等
功能快捷键
撤销:Ctrl/Command + Z
重做:Ctrl/Command + Y
加粗:Ctrl/Command + B
斜体:Ctrl/Command + I
标题:Ctrl/Command + Shift + H
无序列表:Ctrl/Command + Shift + U
有序列表:Ctrl/Command + Shift + O
检查列表:Ctrl/Command + Shift + C
插入代码:Ctrl/Command + Shift + K
插入链接:Ctrl/Command + Shift + L
插入图片:Ctrl/Command + Shift + G
查找:Ctrl/Command + F
替换:Ctrl/Command + G
合理的创建标题,有助于目录的生成
直接输入1次#,并按下space后,将生成1级标题。
输入2次#,并按下space后,将生成2级标题。
以此类推,我们支持6级标题。有助于使用TOC
语法后生成一个完美的目录。
如何改变文本的样式
强调文本 强调文本
加粗文本 加粗文本
标记文本
删除文本
引用文本
H2O is是液体。
210 运算结果是 1024.
插入链接与图片
链接: link.
图片:
带尺寸的图片:
居中的图片:
居中并且带尺寸的图片:
当然,我们为了让用户更加便捷,我们增加了图片拖拽功能。
如何插入一段漂亮的代码片
去博客设置页面,选择一款你喜欢的代码片高亮样式,下面展示同样高亮的 代码片
.
// An highlighted block
var foo = 'bar';
生成一个适合你的列表
- 项目
- 项目
- 项目
- 项目
- 项目1
- 项目2
- 项目3
- 计划任务
- 完成任务
创建一个表格
一个简单的表格是这么创建的:
项目 | Value |
---|---|
电脑 | $1600 |
手机 | $12 |
导管 | $1 |
设定内容居中、居左、居右
使用:---------:
居中
使用:----------
居左
使用----------:
居右
第一列 | 第二列 | 第三列 |
---|---|---|
第一列文本居中 | 第二列文本居右 | 第三列文本居左 |
SmartyPants
SmartyPants将ASCII标点字符转换为“智能”印刷标点HTML实体。例如:
TYPE | ASCII | HTML |
---|---|---|
Single backticks | 'Isn't this fun?' | ‘Isn’t this fun?’ |
Quotes | "Isn't this fun?" | “Isn’t this fun?” |
Dashes | -- is en-dash, --- is em-dash | – is en-dash, — is em-dash |
创建一个自定义列表
-
Markdown
- Text-to- HTML conversion tool Authors
- John
- Luke
如何创建一个注脚
一个具有注脚的文本。1
注释也是必不可少的
Markdown将文本转换为 HTML。
KaTeX数学公式
您可以使用渲染LaTeX数学表达式 KaTeX:
Gamma公式展示 Γ ( n ) = ( n − 1 ) ! ∀ n ∈ N \Gamma(n) = (n-1)!\quad\forall n\in\mathbb N Γ(n)=(n−1)!∀n∈N 是通过欧拉积分
Γ ( z ) = ∫ 0 ∞ t z − 1 e − t d t . \Gamma(z) = \int_0^\infty t^{z-1}e^{-t}dt\,. Γ(z)=∫0∞tz−1e−tdt.
你可以找到更多关于的信息 LaTeX 数学表达式here.
新的甘特图功能,丰富你的文章
- 关于 甘特图 语法,参考 这儿,
UML 图表
可以使用UML图表进行渲染。 Mermaid. 例如下面产生的一个序列图:
这将产生一个流程图。:
- 关于 Mermaid 语法,参考 这儿,
FLowchart流程图
我们依旧会支持flowchart的流程图:
- 关于 Flowchart流程图 语法,参考 这儿.
导出与导入
导出
如果你想尝试使用此编辑器, 你可以在此篇文章任意编辑。当你完成了一篇文章的写作, 在上方工具栏找到 文章导出 ,生成一个.md文件或者.html文件进行本地保存。
导入
如果你想加载一篇你写过的.md文件,在上方工具栏可以选择导入功能进行对应扩展名的文件导入,
继续你的创作。
注脚的解释 ↩︎