栗子_yangxw
码龄9年
关注
提问 私信
  • 博客:51,634
    问答:403
    52,037
    总访问量
  • 29
    原创
  • 816,802
    排名
  • 1,014
    粉丝
  • 14
    铁粉

个人简介:有志者、事竟成,破釜沉舟,百二秦关终属楚!

IP属地以运营商信息为准,境内显示到省(区、市),境外显示到国家(地区)
IP 属地:广东省
  • 加入CSDN时间: 2015-09-20
博客简介:

qq_31454379的博客

查看详细资料
个人成就
  • 获得32次点赞
  • 内容获得47次评论
  • 获得130次收藏
  • 代码片获得380次分享
创作历程
  • 3篇
    2022年
  • 7篇
    2021年
  • 19篇
    2020年
成就勋章
TA的专栏
  • 大数据开发排错
    4篇
  • 大数据组件知识
    11篇
  • 个人学习笔记
    4篇
  • spark源码精读
    1篇
兴趣领域 设置
  • 大数据
    mysqlhadoophiveredissparketl
  • 后端
    spring架构
  • 搜索
    elasticsearch
  • 服务器
    linux
创作活动更多

2024 博客之星年度评选报名已开启

博主的专属年度盛宴,一年仅有一次!MAC mini、大疆无人机、华为手表等精美奖品等你来拿!

去参加
  • 最近
  • 文章
  • 代码仓
  • 资源
  • 问答
  • 帖子
  • 视频
  • 课程
  • 关注/订阅/互动
  • 收藏
搜TA的内容
搜索 取消

scala语言下使用protobuf协议解析数据

文章目录scala语言下使用protobuf协议解析数据背景存在的问题解决pom文件proto文件生成源码scala语言下使用protobuf协议解析数据背景kafka数据源是protobuf格式,需要反序列化,并取出相关字段。已有xxx.proto文件,需要生成解析类。存在的问题protoc命令行,不支持直接生成scala文件网上寻找工具,转了一圈各大论坛,基本都是 先生成 java文件,然后再scala里面引用,这样不符合需求,不愿仅仅因为解析protobuf而引入java语言
原创
发布博客 2022.04.13 ·
2752 阅读 ·
0 点赞 ·
0 评论 ·
4 收藏

01-spark源码走读本地环境搭建

本地环境准备必备环境spark源码导入IDE安装必备ide插件IDE配置默认maven环境项目配置jdk项目增加scala支持项目切换3.2分支编译源码运行测试类必备环境IDE ideaIU-2021.3.2安装jdk并配置环境变量maven安装,并配置环境变量spark源码导入IDEhttps://github.com/apache/sparkgit clone https://github.com/apache/sparkcd spark## 这里主要以3.2分支为主,比较稳
原创
发布博客 2022.03.19 ·
2329 阅读 ·
0 点赞 ·
0 评论 ·
0 收藏

StreamX1.2.1+flink1.12.7 平台部署

StreamX1.2.1+flink1.12.7 平台部署1. 必须环境准备StreamX最新版本1.2.1支持用户上传jar包的方式运行代码,目前支持flink版本为1.12以上前后端混合编译得到StreamX最新安装包 streamx-console-service-1.2.1-bin.tar.gzhadoop环境准备flink安装包准备,本例使用flink1.12.7 https://dlcdn.apache.org/flink/flink-1.12.7/flink-1.12.7-bin-
原创
发布博客 2022.01.19 ·
2102 阅读 ·
0 点赞 ·
0 评论 ·
1 收藏

StreamX1.2.1+flink1.12.7 平台部署

StreamX1.2.1+flink1.12.7 平台部署1. 必须环境准备StreamX最新版本1.2.1支持用户上传jar包的方式运行代码,目前支持flink版本为1.12以上前后端混合编译得到StreamX最新安装包 streamx-console-service-1.2.1-bin.tar.gzhadoop环境准备flink安装包准备,本例使用flink1.12.7 https://dlcdn.apache.org/flink/flink-1.12.7/flink-1.12.7-bin-
原创
发布博客 2022.01.19 ·
2102 阅读 ·
0 点赞 ·
0 评论 ·
1 收藏

kudu1.15.zip

发布资源 2021.10.08 ·
zip

【flink】一个TaskManager 实例下,多个slot线程分别执行不同job任务,如何隔离jar包资源以及计算资源

文章目录问题思考?官网解析源码走读动手写个任务提交demo回归问题结论问题思考?官网解析源码走读动手写个任务提交demo回归问题结论
原创
发布博客 2021.08.11 ·
1707 阅读 ·
0 点赞 ·
0 评论 ·
6 收藏

kudu1.14.tar.gz

发布资源 2021.06.07 ·
gz

kudu+impala表名、字段名大小敏感问题

文章目录背景1. 表名大小写 实践通过impala 建表 `AbTest_log`查询测试写入测试2. 字段名大小写 实践3. 结论背景表DDL语句通过impala进行,比如建表,新增列等等表数据插入通过kudu client客户端进行数据插入问题: 当表名有大小写,或者属性名有大小写的时候,有的数据不能插入的情况1. 表名大小写 实践通过impala 建表 AbTest_log通过impala查询,表名是小写 abtest_log通过kudu客户端查询,表名是AbTest_log
原创
发布博客 2021.05.18 ·
1148 阅读 ·
0 点赞 ·
0 评论 ·
0 收藏

kudu_1.13.tgz

发布资源 2021.04.08 ·
tgz

Elasticsearch 集群未授权访问使用ReadOnly REST插件修复(elasticsearch增加http鉴权)

这里写自定义目录标题欢迎使用Markdown编辑器新的改变功能快捷键合理的创建标题,有助于目录的生成如何改变文本的样式插入链接与图片如何插入一段漂亮的代码片生成一个适合你的列表创建一个表格设定内容居中、居左、居右SmartyPants创建一个自定义列表如何创建一个注脚注释也是必不可少的KaTeX数学公式新的甘特图功能,丰富你的文章UML 图表FLowchart流程图导出与导入导出导入欢迎使用Markdown编辑器你好! 这是你第一次使用 Markdown编辑器 所展示的欢迎页。如果你想学习如何使用Mar
原创
发布博客 2021.04.07 ·
1296 阅读 ·
0 点赞 ·
0 评论 ·
1 收藏

flink1.12 2 2.zip

发布资源 2021.03.16 ·
zip

spark任务写入kudu表报错Failed to write at least 1000 rows to Kudu

报错内容如下:关键词:Failed to write at least 1000 rows to KuduNot found: ([0x0000000081346280, 0x00000001813461CC))Not found: ([0x0000000081346280, 0x00000001813461CC))Not found: ([0x0000000081346280, 0x00000001813461CC))Not found: ([0x0000000081346280, 0x00000
原创
发布博客 2021.03.08 ·
1352 阅读 ·
0 点赞 ·
2 评论 ·
1 收藏

cdh6.3.2配置Sentry+Hue权限管理

文章目录Sentry安装部署添加Sentry服务定义角色分配节点配置数据库完成服务添加Sentry与Hive/Impala集成取消HiveServer2用户模拟确保hive用户能够提交MR任务配置Hive使用Sentry配置Impala使用Sentry配置HDFS权限与Sentry同步Sentry授权HUE授权配置命令行权限配置Sentry安装部署添加Sentry服务定义角色分配节点配置数据库完成服务添加服务启动失败的话可以排查: cdh6.3.2添加sentry服务启动失败排查Sen
原创
发布博客 2021.03.04 ·
3043 阅读 ·
3 点赞 ·
1 评论 ·
11 收藏

cdh6.3.2添加sentry服务启动失败排查

报错信息关键词:Could not create org.apache.sentry.provider.db.service.persistent.SentryStorejava.sql.SQLException: Column name pattern can not be NULL or empty.Exception in thread "main" java.lang.IllegalStateException: Could not create org.apache.sentry.pro
原创
发布博客 2021.03.03 ·
866 阅读 ·
1 点赞 ·
3 评论 ·
0 收藏

spark亿级数据写入kudu报错complete before timeout

目录spark任务submit后运行一段时间输出日志sparkui上看到失败task输出日志问题定位spark任务submit后运行一段时间输出日志Delayed: (UNKNOWN, [ Write, 21 ]))}Timed out: cannot complete before timeout: Batch{operations=256, tablet="4a02e65bac264694b14faeee40998735" [0x00000002, 0x00000003), ignoredError
原创
发布博客 2021.02.04 ·
2309 阅读 ·
0 点赞 ·
2 评论 ·
3 收藏

scala与java混合开发,导致jdk8接口静态方法不能编译打包的问题

异常背景jdk1.8中支持接口定义default方法与static静态方法,我的项目中两者都有使用场景,项目在ide本地运行没有问题,但是执行 maven 打包 maven assembly:assembly报错如下:原因分析与解决因为scala的编译插件,检测到java接口内的静态方法不是以“ ;”结束,所以报错,但是显然这是不正确的,所以需要加上以下配置,排除scala插件干扰 .java文件的编译。顺便一提: 如果你遇到的是编译打包没有把scala代码打包进去,也是这两个插件没有配置好。
原创
发布博客 2020.12.10 ·
433 阅读 ·
0 点赞 ·
0 评论 ·
0 收藏

flink-1.10.2-bin-scala_2.12.tgz

发布资源 2020.12.01 ·
tgz

cdh6.3.2集成flink1.10.2-parcel包(亲测可用)

发布资源 2020.12.01 ·
zip

CDH6.3.2集成安装flink on yarn服务(编译源码,制作parcel)(更新:flink1.12.2版本测试也可用)

目录一:环境准备二:下载安装包1. Flink-shaded包2. flink1.10.2 源码包3. maven配置文件三:编译flink-shaded版本1. 解压tar包2. 解压文件后目录结构3. 修改pom文件4. 开始编译四:编译Flink1.10.2源码1. 解压tar包2. 执行编译3. 等待编译成功4. 打包编译好的文件五:制作parcel包1. 下载git开源制作parcel包的项目2. 修改配置文件 flink-parcel.properties3. 赋予build.sh文件执行权限4
原创
发布博客 2020.12.01 ·
8070 阅读 ·
5 点赞 ·
26 评论 ·
36 收藏

spark on yarn执行完hsql命令 yarn队列一直没有释放资源

现象描述这个任务已经执行完毕,但是任务状态一致是running导致队列资源没有释放由于是测试服务器,队列资源较少,导致后面任务阻塞。原因:spark on hive本质是spark-shell.sh,spark-shell.sh会一直占用进程,这样后面提交的hive on spark任务就不需要重复上传spark依赖,加速任务执行速度解决方法:如果是hive命令行客户端提交的job,退出hive命令行,资源自动释放如果是脚本提交的job,最好在脚本末尾加入 !quit 主动释放资源..
原创
发布博客 2020.07.27 ·
2917 阅读 ·
0 点赞 ·
1 评论 ·
4 收藏
加载更多