Gmy_brave
码龄6年
关注
提问 私信
  • 博客:7,450
    7,450
    总访问量
  • 6
    原创
  • 1,367,746
    排名
  • 0
    粉丝
  • 0
    铁粉
IP属地以运营商信息为准,境内显示到省(区、市),境外显示到国家(地区)
IP 属地:重庆市
  • 加入CSDN时间: 2018-08-21
博客简介:

weixin_43029346的博客

查看详细资料
个人成就
  • 获得2次点赞
  • 内容获得0次评论
  • 获得7次收藏
创作历程
  • 3篇
    2023年
  • 2篇
    2022年
  • 1篇
    2021年
成就勋章
TA的专栏
  • java
    2篇
  • kafka
    2篇
  • flink
    1篇
兴趣领域 设置
  • Java
    java
  • 编程语言
    scala
  • 大数据
    hbasehadoophiveredisstormsparkflumeflinkcloudera
  • 后端
    scala
  • 云原生
    zookeeper
创作活动更多

超级创作者激励计划

万元现金补贴,高额收益分成,专属VIP内容创作者流量扶持,等你加入!

去参加
  • 最近
  • 文章
  • 代码仓
  • 资源
  • 问答
  • 帖子
  • 视频
  • 课程
  • 关注/订阅/互动
  • 收藏
搜TA的内容
搜索 取消

洛谷P1424 小鱼的航程(改进版)非循环实现

洛谷P1424 小鱼的航程(改进版)非循环实现
原创
发布博客 2023.01.31 ·
325 阅读 ·
0 点赞 ·
0 评论 ·
0 收藏

Kafka SASL认证/消费和生产者使用示例

Kafka SASL认证配置,JAVA消费/生产者使用示例
原创
发布博客 2023.01.30 ·
1659 阅读 ·
0 点赞 ·
0 评论 ·
2 收藏

浅析Flink的Kafka Connector

浅析Flink的Kafka Connector
原创
发布博客 2023.01.10 ·
810 阅读 ·
0 点赞 ·
0 评论 ·
1 收藏

spark通过实现FileFormat方式读取自定义文件格式

Spark内部已经实现了很多常用数据源的适配,对于不支持的自定义的数据源,也提供了相应的接口。最近刚好遇到需要通过Spark读取在HDFS上的自定义文件格式的需求,网上找到的很多资料都以实现 CreatableRelationProvider 接口、继承 BaseRelation 类的方式来实现,这种方式在数据读取时需要实现以下三个 trait 中的一个:@InterfaceStability.Stabletrait TableScan { def buildScan(): RDD[Row]}
原创
发布博客 2022.03.02 ·
2270 阅读 ·
0 点赞 ·
0 评论 ·
0 收藏

Parquet RLE/BitPack编码

默认情况下,Parquet 中根据 Schema 中定义的列类型在 DefaultValuesWriterFactory 进行类型匹配,选择对应的 writer 进行该列数据处理,本文通过 Binary 类型字段的写入过程static DictionaryValuesWriter dictionaryWriter(ColumnDescriptor path, ParquetProperties properties, Encoding dictPageEncoding, Encoding dataPa.
原创
发布博客 2022.01.11 ·
1574 阅读 ·
2 点赞 ·
0 评论 ·
3 收藏

java Kafka客户端通过时间戳查询分区offset信息

java Kafka客户端从指定时间位置消费数据欢迎使用Markdown编辑器你好! 这是你第一次使用 Markdown编辑器 所展示的欢迎页。如果你想学习如何使用Markdown编辑器, 可以仔细阅读这篇文章,了解一下Markdown的基本语法知识。新的改变我们对Markdown编辑器进行了一些功能拓展与语法支持,除了标准的Markdown编辑器功能,我们增加了如下几点新功能,帮助你用它写博客:全新的界面设计 ,将会带来全新的写作体验;在创作中心设置你喜爱的代码高亮样式,Markdown 将
原创
发布博客 2021.11.22 ·
800 阅读 ·
0 点赞 ·
0 评论 ·
1 收藏