噗呲噗呲咔咔
码龄7年
关注
提问 私信
  • 博客:20,329
    20,329
    总访问量
  • 8
    原创
  • 251,514
    排名
  • 46
    粉丝
  • 0
    铁粉
IP属地以运营商信息为准,境内显示到省(区、市),境外显示到国家(地区)
IP 属地:上海市
  • 加入CSDN时间: 2018-05-23
博客简介:

weixin_42285430的博客

查看详细资料
  • 原力等级
    当前等级
    1
    当前总分
    62
    当月
    0
个人成就
  • 获得52次点赞
  • 内容获得5次评论
  • 获得70次收藏
创作历程
  • 1篇
    2024年
  • 2篇
    2023年
  • 1篇
    2022年
  • 4篇
    2020年
成就勋章
TA的专栏
  • 笔记
    2篇
兴趣领域 设置
  • 大数据
    mysqlredis
  • 后端
    spring架构
  • 服务器
    linux
创作活动更多

超级创作者激励计划

万元现金补贴,高额收益分成,专属VIP内容创作者流量扶持,等你加入!

去参加
  • 最近
  • 文章
  • 代码仓
  • 资源
  • 问答
  • 帖子
  • 视频
  • 课程
  • 关注/订阅/互动
  • 收藏
搜TA的内容
搜索 取消

filebeat处理k8s docker模式下部署导致deviceid改变,进而导致重复消费问题

filebeat 重复消费问题解决
原创
发布博客 2024.05.08 ·
561 阅读 ·
5 点赞 ·
0 评论 ·
5 收藏

如何解决gevent和grpc执行冲突问题

gevent和grpc执行冲突
原创
发布博客 2023.12.18 ·
700 阅读 ·
12 点赞 ·
1 评论 ·
6 收藏

Gunicorn Gevent Worker中使用异步编程

Gunicorn Gevent Worker中使用异步编程
原创
发布博客 2023.12.18 ·
570 阅读 ·
8 点赞 ·
0 评论 ·
11 收藏

Pytorch lstm中batch_first 参数理解使用

可以选择permute函数解决:batch_x = batch_x.permute((1, 0, 2))此方式将一个批次内的shape从例子中的 [2,3] 转置为[3, 2] ,可以在不影响训练速度的原则下解决问题
原创
发布博客 2022.10.16 ·
3974 阅读 ·
13 点赞 ·
1 评论 ·
32 收藏

Flink消费Kafka数据自管理offset

Flink消费Kafka 自管理offsetFlin 消费kafka数据
原创
发布博客 2020.07.23 ·
1114 阅读 ·
1 点赞 ·
3 评论 ·
1 收藏

记一次Flink消费kafka数据恢复机制

现在我有一个数据架构:Flink消费kafka,开启windows窗口聚合存ES。某天的晚上Flink挂机,未加报警机制,3小时后才发现。如何才能把丢失的Kafka数据补充回来?大家都知道Flink可以配置Kafka对offset的处理方式:1)setStartFromLatest //从最后一个Kafka offset开始消费2)setStartFromGroupOffsets //从你的group对应消费的最后一个offset后的数据进行消费3)setStartFromEarliest.
原创
发布博客 2020.06.05 ·
2009 阅读 ·
4 点赞 ·
0 评论 ·
8 收藏

Flink问题排查-Buffer pool is destroyed.

近期Flink 作业偶发报错:java.lang.IllegalStateException: Buffer pool is destroyed.通过GOOGLE和百度查询结果有:1、jdk问题:发送数据源方jdk版本高于Flink使用方,需要提高jdk版本解决2、数据源问题(某个数据源为空),由于这个报错往往与"Could not forward element to next operator"同时存在,很可能会考虑到数据源问题上去,毕竟数据解析失败、使用EventTimeWindows拿不到事件
原创
发布博客 2020.06.05 ·
10579 阅读 ·
8 点赞 ·
0 评论 ·
5 收藏

Flink窗口统计海量数据至ElasticSearch

一、背景: 实现效果数据实时报表二、历史解决方案: 1) 前端发生数据事件时,调用封装好的JS方法,抛出kafka消息,服务端使用Spark 微批消费Kafka数据,使用Redis的incr方法记录每个不同的数据key的发生次数。 2)开启java job程序定时读取redis的打点数据,根据不同维度写入Mysql,实现实时数据报表。三、不足之处: 1)Spark不是真正的流处理,数据非真正实时,使用job定时读取Redis数据也相当古板,...
原创
发布博客 2020.05.28 ·
807 阅读 ·
1 点赞 ·
0 评论 ·
1 收藏