落鱼...
码龄7年
关注
提问 私信
  • 博客:231,444
    社区:1
    231,445
    总访问量
  • 51
    原创
  • 1,146,206
    排名
  • 43
    粉丝
  • 0
    铁粉

个人简介:乘风破浪会有时,你只欠一个坚持

IP属地以运营商信息为准,境内显示到省(区、市),境外显示到国家(地区)
IP 属地:湖北省
  • 加入CSDN时间: 2018-03-09
博客简介:

yumingzhu1的博客

查看详细资料
个人成就
  • 获得67次点赞
  • 内容获得54次评论
  • 获得348次收藏
  • 代码片获得404次分享
创作历程
  • 1篇
    2023年
  • 3篇
    2022年
  • 18篇
    2021年
  • 14篇
    2020年
  • 4篇
    2019年
  • 17篇
    2018年
成就勋章
TA的专栏
  • maxcompute
    5篇
  • flink
    4篇
  • kettle
    5篇
  • hive
    1篇
  • yarn
    2篇
  • 数仓
    1篇
  • clickhose
    2篇
  • spark
  • datax
    1篇
  • 力扣
    1篇
  • xjar 源码分析
    2篇
兴趣领域 设置
  • 大数据
    hadoopspark
创作活动更多

超级创作者激励计划

万元现金补贴,高额收益分成,专属VIP内容创作者流量扶持,等你加入!

去参加
  • 最近
  • 文章
  • 代码仓
  • 资源
  • 问答
  • 帖子
  • 视频
  • 课程
  • 关注/订阅/互动
  • 收藏
搜TA的内容
搜索 取消

一次复杂场景处理

maxcompute 练习题
原创
发布博客 2023.01.05 ·
204 阅读 ·
0 点赞 ·
0 评论 ·
0 收藏

maxcompute 表数据恢复

maxcompute 表恢复
原创
发布博客 2022.09.21 ·
885 阅读 ·
0 点赞 ·
0 评论 ·
1 收藏

dataworks 下载表数据

背景:dataworks 下载只能下载10000条数据,如果表大小超出大小,需要limit 几次,或者导出到数据库,再从数据库中进行下载。 pyodps 可以通过python代码的方式操作表,这样就可以将表数据下载到文件,之后将文件通过邮件的方式发送给自己(这里还可以用来所pyodps数据推送,集成在dataworks上)邮件推送csv格式文件from odps import ODPSimport csvfrom email.mime.multipart import MIMEMultipar
原创
发布博客 2022.04.19 ·
2396 阅读 ·
2 点赞 ·
6 评论 ·
7 收藏

dataworks 生成表血缘依赖

背景: 工作中用到了阿里云的dataworks,业务需求还没有到购买更高级的版本必要,没法查看表的血缘依赖。需要自己去实现血缘依赖。思路: maxcompute 提供Information_Schema元数据查询,可以其中TASKS_HISTORY 表,可以查询到任务执行的日志, sql任务对应的执行sql 放在了operation_text,存在执行的sql,可以通过...
原创
发布博客 2022.04.12 ·
1939 阅读 ·
0 点赞 ·
0 评论 ·
0 收藏

dataworks 小时任务同步设置

背景: 在用dataworks的时候,有一个场景,存在任务a,b a依赖于b, b需要执行2次, 但是a不必等b二次都执行完再执行,需要执行顺序为 b->a->b。 b可以设置为小时任务,a设置为日任务b 任务配置如下: 00:10和08:10分别执行一次,调度依赖上周期,这样a任务就不用等b都执行完再执行。生成的血缘依赖如下:...
原创
发布博客 2021.12.15 ·
934 阅读 ·
0 点赞 ·
0 评论 ·
3 收藏

maxcompute导出到polardb 特殊符号不支持

背景从maxcompute 将数据导出到polardb, 由于string 内容中包含特殊字符,emoji符号,导致同步数据时候,自动剔除含有特殊字符的数据。问题排查方案:1数据库和客户端编码格式不一致,需先修改编码格式。 浏览器编码和数据库或客户端编码格式不一致,需先统一编码格式,然后进行数据预览。 修改数据库相关的编码格式为utf8mb4。例如,在RDS控制台修改RDS的数据库编码格式。 说明 设置RDS数据源编码格式命令:set names utf8mb4。查看RDS数据库编.
原创
发布博客 2021.09.27 ·
308 阅读 ·
0 点赞 ·
0 评论 ·
0 收藏

Flink之状态管理--容错--检查点

有状态的分布式流式处理流式处理流式处理简单地说就是一个无穷尽的数据源在持续的收数据,以代码作为数据处理的基础逻辑,然后输出,这就是流式处理的基本原理。分布式流式处理Stream需要做分区,设置相同的Key,并让同样的Key流到一个computition instance做相同的运算。有状态分布式流式处理代码中定义了变量X,X在数据处理过程会进行读写操作,变量X会影响最后的结果输出。比如计算每个使用者出现的次数,次数即所谓的状态。Checkpointing作..
转载
发布博客 2021.08.17 ·
403 阅读 ·
0 点赞 ·
0 评论 ·
0 收藏

kettle 数据库资源库

一、简介 资源库,顾名思义,是存放转换和作业脚本的地方。不是业务数据库。文件资源库: 将脚本保存在本地创建的目录中,打开资源库可以管理所有的脚本。可以解决在作业中引用其它脚本带来的路径问题,避免因不同平台(如Windows 和 Linux )中的路径分隔符不同,造成运行失败。因为脚本文件为文本文件,通过与其他版本管理工具(如 SVN 和 GIT )配合,可以管理不同版本的脚本。但是因为脚本保存在本地计算机中,只能在本地运行,不能远程调用。数据库资源库: 将脚本保存数据库中,kettle...
原创
发布博客 2021.08.17 ·
1955 阅读 ·
1 点赞 ·
0 评论 ·
2 收藏

Hive 数据倾斜问题定位排查及解决(实际案例)

多数介绍数据倾斜的文章都是以大篇幅的理论为主,并没有给出具体的数据倾斜案例。当工作中遇到了倾斜问题,这些理论很难直接应用,导致我们面对倾斜时还是不知所措。今天我们不扯大篇理论,直接以例子来实践,排查是否出现了数据倾斜,具体是哪段代码导致的倾斜,怎么解决这段代码的倾斜。当执行过程中任务卡在 99%,大概率是出现了数据倾斜,但是通常我们的 SQL 很大,需要判断出是哪段代码导致的倾斜,才能利于我们解决倾斜。通过下面这个非常简单的例子来看下如何定位产生数据倾斜的代码。表结构描述先来了解下这些表中我
转载
发布博客 2021.08.05 ·
2877 阅读 ·
10 点赞 ·
2 评论 ·
47 收藏

yarn 资源调度之Capacity Scheduler

什么是capacity schedulerCapacity Scheduler调度器以队列为单位划分资源。简单通俗点来说,就是一个个队列有独立的资源,队列的结构和资源是可以进行配置的,如下图:default队列占30%资源,analyst和dev分别占40%和30%资源;类似的,analyst和dev各有两个子队列,子队列在父队列的基础上再分配资源。队列以分层方式组织资源,设计了多层级别的资源限制条件以更好的让多用户共享一个Hadoop集群,比如队列资源限制、用户资源限制、用户应用程序数目限
原创
发布博客 2021.07.26 ·
2101 阅读 ·
1 点赞 ·
0 评论 ·
2 收藏

flink on yarn Per-job模式High Availability 配置

背景:flink on yarn Per-job 模式下flink 程序会经常挂掉,直接原因是是对应节点上的 flink的 job manager 挂掉了,导致程序失败,flink的重启策略,只对于task manager生效 。 因此为保证稳定性,需要配置job manager 高可用。实现方案官方:当运行一个高可用的 YARN 集群时,我们不会运行多个 JobManager(ApplicationMaster) 实例,而是只运行一个,在失败时由 YARN 重新启动。确切的行为取决于您使用...
原创
发布博客 2021.07.22 ·
2249 阅读 ·
0 点赞 ·
0 评论 ·
7 收藏

yarn flink,spark实时程序监控

背景: 生产上的spark和flink程序偶尔会挂掉,虽然是基于阿里云配置了邮箱告警,但是由于程序的重启策略配置,导致重启后的程序,下次挂掉不会再被监控到。所以需要手动监控yarn,实现方案yarn 提供的api, 可以访问集群yarn web ui 接口数据,对Application Type进行过滤 ,每2分钟调用api,对比前后2次运行的实时程序,判断第一次的列表是否都还存在,不存在则发送邮件1.环境配置 导入依赖,导入相关hadoop配置文件yarn-site...
原创
发布博客 2021.07.20 ·
714 阅读 ·
0 点赞 ·
1 评论 ·
1 收藏

Yarn 调度器Scheduler详解

理想情况下,我们应用对Yarn资源的请求应该立刻得到满足,但现实情况资源往往是有限的,特别是在一个很繁忙的集群,一个应用资源的请求经常需要等待一段时间才能的到相应的资源。在Yarn中,负责给应用分配资源的就是Scheduler。其实调度本身就是一个难题,很难找到一个完美的策略可以解决所有的应用场景。为此,Yarn提供了多种调度器和可配置的策略供我们选择。一、调度器的选择在Yarn中有三种调度器可以选择:FIFO Scheduler ,Capacity Scheduler,FairS cheduler
转载
发布博客 2021.07.20 ·
531 阅读 ·
0 点赞 ·
0 评论 ·
0 收藏

kettle集群模式部

1下载安装 官方地址,下载khttps://sourceforge.net/projects/pentaho/files/
原创
发布博客 2021.06.16 ·
1181 阅读 ·
0 点赞 ·
0 评论 ·
2 收藏

数据仓库如何确定主题域

什么是主题主题是在较高层次上将企业信息系统中的数据进行综合、归类和分析利用的一个抽象概念,每一个主题基本对应一个宏观的分析领域。在逻辑意义上,它是对应企业中某一宏观分析领域所涉及的分析对象。简单说,一个主题对应一个分析对象。分析对象就是在决策、分析时重点关注的东西,这个东西其实是非常主观的,在不同的企业,或者企业的不同发展时期,所关注的点会不一样,从而影响有些主题可能存在或者不存在。数据仓库是面向主题的应用,主要功能是将数据综合、归类并进行分析利用。数据仓库模型设计除横向的分层外,通常还需要根据
转载
发布博客 2021.06.09 ·
1471 阅读 ·
1 点赞 ·
0 评论 ·
6 收藏

kettle操作hive数据

需求: 需要对hive表中的数据进行操作,比如说读取a表中的数据,写入b表实现fan
原创
发布博客 2021.06.02 ·
1193 阅读 ·
0 点赞 ·
0 评论 ·
1 收藏

kettle设置共享数据库连接

kettle设置共享数据库连接,用于多个转换之间共用数据库连接,不用每次都手动创建主对象树->转换->xxx->DB连接->需要共享的连接名称
原创
发布博客 2021.06.02 ·
1208 阅读 ·
0 点赞 ·
0 评论 ·
1 收藏

kettle整合 java代码

需求: 通过kettle脚本控件调用java项目的中方法步骤: 1 创建输入
原创
发布博客 2021.06.02 ·
1912 阅读 ·
0 点赞 ·
1 评论 ·
2 收藏

clickhouse实现rank,row_number,dense_rank

clickhouse实现排序的开窗函数, 学习这个需要先了解clickhouse 一些函数,了解过直接跳到步骤31.数组相关函数arrayEnumerate -- 传入数组,返回序号数组,序号不重复arrayEnumerateDense -- 传入数组,返回序号数组,序号可重复arrayEnumerateUniq -- 传入数组,根据数组位置返回当前元素出现的次数SELECT arrayEnumerate([10, 20, 30,...
原创
发布博客 2021.04.30 ·
3022 阅读 ·
1 点赞 ·
0 评论 ·
7 收藏

spark编写工具根据参数,和文件创建对应的hive表

背景 由于经常给业务做一些导数工作,他们回提供一些id,数量2000以内的时候,可以直接用in 但是记录多了,需要再hive中创建对应表,关联查询得到结果集,经常需要通过hue创建表,上传文件,为了能够偷懒,编写文件,打算实现一个功能。 通过传参方式,根据文件地址,表名称,表字段结构。生成对应的hive表。实现过程 步骤通过spark 连接hive 通过不同参数,创建所对应的表(难点) 传参中可能每次所需创建表的字段都不一样,如何动态的创建不同的表,实现方法有...
原创
发布博客 2021.04.27 ·
742 阅读 ·
0 点赞 ·
0 评论 ·
0 收藏
加载更多