- 博客(17)
- 资源 (1)
- 收藏
- 关注
原创 自建的Saas应用对接企业微信流程
现在公司有一款Saas产品,想对接第三方,以应用的方式集成到钉钉、企业微信、飞书等,这样产品内的租户可以在自己企业的办公产品中使用我们的Saas产品,企业用户可以免登录访问该Saas产品的功能。本方案采用企业微信的服务商代开发模式。方案主要包含两个企业微信主体,服务商企业(Saas产品提供者)和租户企业(授权应用代开发)。前提条件:服务商企业(Saas产品提供者)需要先完成企业微信的认证工作。服务商企业打开企业微信服务商后台(管理员登录)输入应用模板的基础信息:logo、名称、介绍。输入应用模板配置
2025-10-23 15:04:09
1098
原创 EasyExcel实现数据格式List<Map<String, Object>>,追加写入Excel
大部分的示例都是针对Java对象做数据写入,依赖于@ExcelProperty注解实现。而我的数据格式是List<Map<String, Object>>或者List,不同业务场景下我的Map或者JSONObject属性都不一样,这里给一个工具类直接把List<Map<String, Object>>格式的数据通过追加的方式写入Excel。当然另一种实现方式就是针对每一种场景定义单独的Java对象,这里不做实现了。EasyExcel写入数据到本地文件,使用起来确实很方便。
2025-02-17 17:02:38
1084
原创 RocketMQ接入指南
RocketMQ接入指南本篇主要介绍在SpringBoot项目中接入RocketMQ,对于RocketMQ的原理概念请自行了解。RocketMQ 基本概念可参考:【https://help.aliyun.com/document_detail/29533.html】【https://blog.csdn.net/qq_21040559/article/details/122703715】1 对接自己搭建的RocketMQ环境1、引入maven依赖<dependency> <
2022-04-24 14:52:18
5198
原创 SpringBoot整合ES高级查询
SpringBoot整合ES高级查询springboot版本:2.0.5.RELEASEelasticsearch版本:7.9.11、配置引入依赖:<dependency> <groupId>org.elasticsearch.client</groupId> <artifactId>elasticsearch-rest-high-level-client</artifactId> <version>7
2021-11-26 15:07:21
9601
2
原创 Kafka Rebalance测试
Kafka Rebalance测试关于kafka的Rebalance机制,其实就是规定同一个consumer group下所有的consumer如何协调工作的,分配订阅Topic分区的。Rebalance发生时,Group 下所有 consumer 实例都会协调在一起共同参与,kafka 能够保证尽量达到最公平的分配。但是 Rebalance 过程对 consumer group 会造成比较严重的影响。在 Rebalance 的过程中 consumer group 下的所有消费者实例都会停止工作,等待
2021-11-23 18:45:25
1303
原创 Kafka消费者订阅方式
Kafka消费者订阅方式1、指定主题消费2、指定分区消费3、取消订阅4、总结Kafka为消费者提供了三种类型的订阅消费方式:订阅主题集合、正则表达式订阅主题、订阅指定主题的分区集合。三种方式只能使用其中一种。1、指定主题消费一个消费者可以使用KafkaConsumer提供的subscribe()方法订阅一个或多个主题,订阅主题集合和正则表达式订阅主题都使用此方法实现的。下面两种方式都可以订阅topic_1120主题。KafkaConsumer<String, String> consum
2021-11-23 16:13:05
8189
原创 Kafka生产者_消费者实战
Kafka生产者_消费者实战1 生产者2 消费者1 生产者import ch.qos.logback.classic.Level;import ch.qos.logback.classic.Logger;import ch.qos.logback.classic.LoggerContext;import org.apache.kafka.clients.CommonClientConfigs;import org.apache.kafka.clients.admin.ScramMechanism
2021-11-20 17:02:05
831
原创 Kafka Tool工具使用
Kafka Tool工具使用今天介绍一款连接kafka的小工具,可以查看集群信息、topic信息、消费者群组等信息,非常方便。资源下载:Kafka Tool 2.0.8资源我这边kafka环境都采用了SASL方式认证,这里主要介绍下这种模式下工具的配置。kafka的安全认证可以参考我这遍文档:Kafka安全认证配置工具安装好后,打开settings设置下topic的消息格式,这里选择String然后添加集群信息,这里kafka版本感觉默认就行(不选也没报错),填写Zookeeper的地址和端口
2021-11-18 16:52:33
3211
原创 Kafka安全认证授权配置
Kafka安全认证授权配置一 概述1.1 Kafka的权限分类1.2 实现方式二 安全认证授权配置2.1 zookeeper配置2.1.1 引入kafka依赖包2.1.2修改ZK配置文件2.1.3 创建jaas文件2.1.4 修改zkEnv.sh2.1.5 启动zk2.2 Kafka配置2.2.1 创建超级用户2.2.2 创建jaas文件2.2.3 修改kafka配置文件2.2.4启动kafka三 测试连接3.1 生产者测试3.2 消费者测试3.3 beats工具连接3.4 logstash消费一 概述
2021-11-17 16:02:30
10142
2
原创 Kafka Tool 2.0.8资源
Kafka Tool 2.0.8网盘下载链接:https://pan.baidu.com/s/15pOVUWYTYL1wtFyrdsq5og提取码:mbng
2021-11-15 15:29:59
1905
原创 @Scheduled并发执行多个任务配置
@Scheduled并发执行多个任务配置项目中定义多个定时任务@Component@Slf4jpublic class DynamicTask { @Autowired private DynamicTestMapper dynamicTestMapper; @Scheduled(cron = "0 */1 * * * ?") public void test() { log.info("查询系统列表test"); List<
2021-11-13 11:02:24
1516
原创 Linux系统定时任务清除过期日志
Linux系统定时任务清除过期日志1. 自定义清除日志脚本2. linux系统crontab中加入定时任务cron文件语法:最近项目要清理kafka产生的过期日志文件,在kafka的log配置文件中也没找到怎么配置删除策略。于是暂用linux系统的定时任务去删除。1. 自定义清除日志脚本clear-kafka-log.sh 脚本内容如下:#!/bin/bashfind /mnt/datadisk/kafka/logs/ -mtime +7 -name "*.log.*" -exec rm -rf
2021-10-20 15:06:03
500
原创 windows下javaweb项目的守护进程
windows下javaweb项目的守护进程最近公司在服务器上部署的java项目总是自己挂掉,然后需要手动启动,让人很头疼。于是网上找了相关守护进程的脚本,可以自动监测对应的服务运行状况。话不多说,直接上脚本:@echo offset port=8804set _des=start.bat:checkstartfor /f "tokens=1-5" %%n in ('netstat...
2020-01-20 14:11:32
1166
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅