啃骨头的代码狗
码龄7年
关注
提问 私信
  • 博客:17,987
    17,987
    总访问量
  • 8
    原创
  • 988,241
    排名
  • 6
    粉丝
  • 0
    铁粉

个人简介:我写的都是骗人的

IP属地以运营商信息为准,境内显示到省(区、市),境外显示到国家(地区)
IP 属地:北京市
  • 加入CSDN时间: 2017-10-05
博客简介:

qq_40498209的博客

查看详细资料
个人成就
  • 获得5次点赞
  • 内容获得2次评论
  • 获得27次收藏
创作历程
  • 1篇
    2022年
  • 1篇
    2021年
  • 8篇
    2020年
成就勋章
TA的专栏
  • prometheus
    2篇
  • hbase
    1篇
  • sftp
    1篇
  • spark
  • kafka
    1篇
  • elasticsearch
    1篇
  • flink
    4篇
创作活动更多

超级创作者激励计划

万元现金补贴,高额收益分成,专属VIP内容创作者流量扶持,等你加入!

去参加
  • 最近
  • 文章
  • 代码仓
  • 资源
  • 问答
  • 帖子
  • 视频
  • 课程
  • 关注/订阅/互动
  • 收藏
搜TA的内容
搜索 取消

clickhouse分析fsimage文件

需求:拉取fsimage文件,解析成csv入库到clickhouse,为监控提供数据1、拉取fsimage在有客户端的机器上执行如下命令,拉取fsimage文件到当前目录下hdfs dfsadmin -fetchImage ./ 2、解析fsimagehdfs oiv -p Delimited -delimiter "|" -i /home/hadoop/fsimage -o fsimage.csv -t /home/hadoop/temp-delimiter:指定分隔符-i:输入文件,
原创
发布博客 2022.04.07 ·
282 阅读 ·
0 点赞 ·
0 评论 ·
1 收藏

flink自定义指标发送到pushgateway写入prometheus

flink官方提供了写metrics的方式,但是相对来说有些不灵活,不符合我当前的要求,也没法自定义动态的label值,于是自定义了sink写入到pushgateway里。代码如下: class MyPushGateWaySink(pushgatewayipport:String) extends RichSinkFunction[(String,String,String)] { var pushgateway:PushGateway = _ var gauge:Gauge = G
原创
发布博客 2021.12.22 ·
2384 阅读 ·
2 点赞 ·
0 评论 ·
2 收藏

Flink异常:java.lang.AbstractMethodError: Method XXX Ljava/lang/Object; is abstract

java.lang.AbstractMethodError: Method flink/connect/kafka/stringTest$1.deserialize(Lorg/apache/flink/kafka/shaded/org/apache/kafka/clients/consumer/ConsumerRecord;)Ljava/lang/Object; is abstract at flink.connect.kafka.stringTest$1.deserialize(stringTest.j
原创
发布博客 2020.12.30 ·
2643 阅读 ·
1 点赞 ·
2 评论 ·
0 收藏

Flink自定义format,实现解析kafka自定义格式的cdc数据

flink自定义format,解析cdc数据
原创
发布博客 2020.11.06 ·
3597 阅读 ·
0 点赞 ·
0 评论 ·
9 收藏

通过region文件实现数据迁移,恢复hbase数据

因为要实现hbase的数据迁移,上游直接下发的region文件即图中文件,要在另一个集群上通过该文件将hbase表恢复步骤如下1.在新集群上创建hbase表,列簇同原表2.将region文件移动到新集群hbase的hdfs上该表的路径下,即图中的/hbase/data/default/hbase_test2下3.开启hbase shell,停用该表(disable ‘hbase_test2’)4.【第一次修复】执行命令: hbase hbck -repair “hbase_test2” &g
转载
发布博客 2020.10.30 ·
400 阅读 ·
0 点赞 ·
0 评论 ·
2 收藏

Sftp上传hdfs文件

仅做记录用package cn.com.xx.sftp;import com.jcraft.jsch.*;import org.apache.commons.lang.StringUtils;import org.apache.hadoop.fs.FSDataInputStream;import org.apache.hadoop.fs.FileSystem;import org.apache.hadoop.fs.Path;import java.io.*;import java.uti
原创
发布博客 2020.10.28 ·
1003 阅读 ·
2 点赞 ·
0 评论 ·
2 收藏

spark2.1.3参数spark.streaming.concurrentJobs大于1报错 KafkaConsumer is not safe fo r multi-threaded access

因为集群比较老,选用的spark为2.1.3版本,消费kafka时发生数据积压现象,在调试过程中,调大启动参数spark.streaming.concurrentJobs发现会报消费者不安全异常,查了好久资料,是官方源码问题,需要改动源码加上线程id,改动的类有两个,代码如下CachedKafkaConsumer/* * Licensed to the Apache Software Foundation (ASF) under one or more * contributor license a
原创
发布博客 2020.09.28 ·
685 阅读 ·
0 点赞 ·
0 评论 ·
3 收藏

读取kafka offset,保存至zk,并处理kafka.common.OffsetOutOfRangeException,offset过期问题

将kafka的offset保存到zk,当任务因为某些原因终止,一段时间内没有发现,再次重启会发生offset越界问题,是因为zk中保存到offset已过期,所以,任务启动时应该做一次判断,将kafka最小的offset与zk中的比较,如果kafka最小的offset还要比zk中保存的大,此时应该从kafka的offset加一点偏移量开始消费,我这边由于数据量比较大,偏移量为50wimport java.util.Propertiesimport kafka.utils.{ZKGroupTopicDir
转载
发布博客 2020.08.21 ·
519 阅读 ·
0 点赞 ·
0 评论 ·
0 收藏

java实现读取文件,通过bulkprocesser入库有用户名密码验证的ES

我尽量写的详细一点,从主函数开始main没啥东西,就是一个方法的调用path:制表符分割的csv文件ip:es的ip地址port:9200,看到网上很多说bulkprocessor用9300的,但是我用一直报错,两个都试一下吧args[2]:ES的用户名args[3]:ES的密码readcsv readcsv = new readcsv();readcsv.readCsv(path,ip,port,args[2],args[3]);readcsvpublic class readcsv
原创
发布博客 2020.08.14 ·
492 阅读 ·
0 点赞 ·
0 评论 ·
1 收藏

flink DataStream[Row]注册为table报错:An input of GenericTypeInfo<Row> cannot be converted to Table.

读取test.csv的内容,map将内容转换为Row类型,然后注册为tableval stream = env.readFile(inputFormat,"D://test.csv",FileProcessingMode.val stream = val stream = env.readFile(inputFormat,"D://fsimage.csv",FileProcessingMode.PROCESS_CONTINUOUSLY,1000L).setParallelism(1)val strea
原创
发布博客 2020.07.31 ·
1675 阅读 ·
0 点赞 ·
0 评论 ·
0 收藏