matthew-yang
码龄7年
关注
提问 私信
  • 博客:7,396
    7,396
    总访问量
  • 3
    原创
  • 1,936,961
    排名
  • 3
    粉丝
  • 0
    铁粉

个人简介:看看新东西,重要的还是基础。 我要写bug!!!

IP属地以运营商信息为准,境内显示到省(区、市),境外显示到国家(地区)
IP 属地:北京市
  • 加入CSDN时间: 2017-09-15
博客简介:

写bug的码农

查看详细资料
个人成就
  • 获得1次点赞
  • 内容获得3次评论
  • 获得3次收藏
创作历程
  • 3篇
    2018年
TA的专栏
  • BigData
    2篇
兴趣领域 设置
  • 网络空间安全
    系统安全web安全安全架构
创作活动更多

超级创作者激励计划

万元现金补贴,高额收益分成,专属VIP内容创作者流量扶持,等你加入!

去参加
  • 最近
  • 文章
  • 代码仓
  • 资源
  • 问答
  • 帖子
  • 视频
  • 课程
  • 关注/订阅/互动
  • 收藏
搜TA的内容
搜索 取消

0.3 Flink--Kafka2Es之写入Es

前期成功将数据以json形式从kafka中读取出来,此片文档记录数据根据需求录入Es。 需求: index名字: YYYYMMDD-http,YYYYMMDD-dns 其中索引根据数据中的recv_time、log_type字段确定 思路flink类似Flume,数据处理由Source、Sink作为输入输出,因此Es逻辑在自定义的EsSink中实现即可。 参考网页: https://ci.a...
原创
发布博客 2018.07.24 ·
3146 阅读 ·
0 点赞 ·
2 评论 ·
2 收藏

0.2 Flink--Kafka2Es之kakfa数据自定义Schema类,打包上传到本地flink单机运行

文档https://mp.csdn.net/postedit/81179811 记录简单读取kakfa数据,因公司业务数据为特定格式数据,因此需要自定义schema类读取,也就是截取前4个字节获取schemaId,然后根据schemaId读取schema定义的字符串,进而还原存储在topic中的网络日志数据。 直接代码:从zk中读取所有的schema配置 package com.matthe...
原创
发布博客 2018.07.24 ·
2814 阅读 ·
0 点赞 ·
1 评论 ·
1 收藏

0.1 Flink--Kafka2Es之读取kakfa数据

注:本人初次接触Flink,其优点以及优化细节有待后续研究,直接上手业务。 简单业务逻辑: 将kafka多个topic数据由Flink读取写入到Es不同index中。 1.其中topic中数据使用自定义avro格式压缩,前4个字节为数据schemaID,后续数据字节为具体avro格式的二进制数据 2.schema定义以文件形式存储在zookeeper中,文件名为schemaId。 3.to...
原创
发布博客 2018.07.24 ·
1438 阅读 ·
1 点赞 ·
0 评论 ·
1 收藏