flink on yarn paimon(1),50w字+的大数据开发技术类校招面试题汇总

);

USE CATALOG paimon;

DROP TABLE IF EXISTS xx_REFDES_KAFKA;
CREATE TEMPORARY xx_REFDES_KAFKA
( PCBID STRING
,RID STRING
,REFDES STRING
,BM\_CIRCUIT\_NO DECIMAL(38,0)
,TIMESTAMP TIMESTAMP
,PICKUPSTATUS STRING
,SERIAL\_NUMBER STRING
,FLAG DECIMAL(2,0)
,KITID STRING
,ID STRING
,CREATEDATE TIMESTAMP
,ETL STRING COMMENT ‘etl标识’
,OPT1 STRING COMMENT ‘备用1’
,OPT2 STRING COMMENT ‘备用2’
,OPT3 STRING COMMENT ‘备用3’
,OPT4 STRING COMMENT ‘备用4’
,OPT5 STRING COMMENT ‘备用5’
,NOZZLEID STRING COMMENT ‘nxt的NOZZLEID’
,LANENO STRING COMMENT ‘nxt的LANENO’
,COMPONENTBARCODE STRING COMMENT ‘asm的componentBarcode nxt的Part2DCode’
,PN STRING
,LOTCODE STRING
,DATECODE STRING
,VERDOR STRING
,WORKORDER STRING
,primary key(ID) not enforced)
WITH(
‘connector’ = ‘kafka’,
‘topic’ = ‘TRACE_LOG_REFDES’,
‘properties.bootstrap.servers’ = ‘10.xx.xx.30:9092’,
‘properties.group.id’ = ‘xx_REFDES_GROUP’,
‘scan.startup.mode’ = ‘earliest-offset’,
‘format’ = ‘ogg-json’
);

create table if not exists yy_refdes_hive_ro
( pcbid string
,rid string
,refdes string
,bm\_circuit\_no decimal(38,0)
,timestamp string COMMENT ‘{“type”:“DATE”}’
,pickupstatus string
,serial\_number string
,flag decimal(2,0)
,kitid string
,id string
,createdate string COMMENT ‘{“type”:“DATE”}’
,etl string comment ‘etl标识’
,opt1 string comment ‘备用1’
,opt2 string comment ‘备用2’
,opt3 string comment ‘备用3’
,opt4 string comment ‘备用4’
,opt5 string comment ‘备用5’
,nozzleid string comment ‘nxt的nozzleid’
,laneno string comment ‘nxt的laneno’
,componentbarcode string comment ‘asm的componentbarcode nxt的part2dcode’
,pn string
,lotcode string
,datecode string
,verdor string
,workorder string
,dt string
,primary key (id,dt) not enforced)
partitioned by (dt) with (
‘connector’ = ‘paimon’,
‘file.format’ = ‘parquet’,
‘metastore.partitioned-table’ = ‘true’,
‘bucket’ = ‘-1’,
‘partition.expiration-time’ = ‘730 d’,
‘partition.expiration-check-interval’ = ‘1 d’,
‘partition.timestamp-formatter’ = ‘yyyy-MM-dd’,
‘partition.timestamp-pattern’ = ‘$dt’
);

INSERT INTO yy_refdes_hive_ro SELECT
PCBID,RID,REFDES,BM_CIRCUIT_NO,DATE_FORMAT(TIMESTAMP,‘yyyy-MM-dd HH:mm:ss’),PICKUPSTATUS,SERIAL_NUMBER,FLAG,KITID,ID,DATE_FORMAT(CREATEDATE,‘yyyy-MM-dd HH:mm:ss’),ETL,OPT1,OPT2,OPT3,OPT4,OPT5,NOZZLEID,LANENO,COMPONENTBARCODE,PN,LOTCODE,DATECODE,VERDOR,WORKORDER,DATE_FORMAT(TIMESTAMP,‘yyyy-MM-dd’)
FROM xx_REFDES_KAFKA;


## 结束


ogg数据通过 flink 写入 paimon至此结束。







**自我介绍一下,小编13年上海交大毕业,曾经在小公司待过,也去过华为、OPPO等大厂,18年进入阿里一直到现在。**

**深知大多数大数据工程师,想要提升技能,往往是自己摸索成长或者是报班学习,但对于培训机构动则几千的学费,着实压力不小。自己不成体系的自学效果低效又漫长,而且极易碰到天花板技术停滞不前!**

**因此收集整理了一份《2024年大数据全套学习资料》,初衷也很简单,就是希望能够帮助到想自学提升又不知道该从何学起的朋友。**
![img](https://img-blog.csdnimg.cn/img_convert/12852accc8c979169e8e373fabf39ba9.png)
![img](https://img-blog.csdnimg.cn/img_convert/9baf0bdf2bd498e90672c382bd4b11b8.png)
![img](https://img-blog.csdnimg.cn/img_convert/6350dfe54d3eea8828609e97718b28ca.png)
![img](https://img-blog.csdnimg.cn/img_convert/ea14f351e2fcb99c95334a6e35a7508b.png)
![img](https://img-blog.csdnimg.cn/img_convert/7d30b360caf589f12abc29d47d429cfd.png)

**既有适合小白学习的零基础资料,也有适合3年以上经验的小伙伴深入学习提升的进阶课程,基本涵盖了95%以上大数据开发知识点,真正体系化!**

**由于文件比较大,这里只是将部分目录大纲截图出来,每个节点里面都包含大厂面经、学习笔记、源码讲义、实战项目、讲解视频,并且后续会持续更新**

**如果你觉得这些内容对你有帮助,可以添加VX:vip204888 (备注大数据获取)**
![img](https://img-blog.csdnimg.cn/img_convert/6528ed21f0c5c854aac47db229b7adbe.png)

**一个人可以走的很快,但一群人才能走的更远。不论你是正从事IT行业的老鸟或是对IT行业感兴趣的新人,都欢迎扫码加入我们的的圈子(技术交流、学习资源、职场吐槽、大厂内推、面试辅导),让我们一起学习成长!**

2961449678)]

**一个人可以走的很快,但一群人才能走的更远。不论你是正从事IT行业的老鸟或是对IT行业感兴趣的新人,都欢迎扫码加入我们的的圈子(技术交流、学习资源、职场吐槽、大厂内推、面试辅导),让我们一起学习成长!**

  • 4
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值