Hudi:问题总结(2)Flink-1.13.1消费kafka并插入hudi

问题一:java.lang.ClassNotFoundException: com.google.protobuf.MessageOrBuilder)

解决:字面意思,没找到类,将protobuf-java-3.2.0-jar包放到fink/lib/下

如果报commons-cli相关的错,就将commons-cli-1.4.jar放到flink/lib/下

问题二:Size of the state is larger than the maximum permitted memory-backed state. Size=5269207 , maxSize=5242880

解决:这是没有开启checkpoint状态后端,导致都将checkpoint放在内存里了,开启checkpoint就行。env.setStateBackend(new FsStateBackend("hdfs:///user/xx/flink_checkpoint"));

问题三:The heartbeat of TaskManager with id container ....... timed out

解决:修改flink-conf.yml里的参数

akka.ask.timeout: 100s

web.timeout: 100000

heartbeat.timeout: 500000

问题四:yment took more than 60 seconds. Please check if the requested resources are available in the YARN cluster

解决:字面意思,超过60s没分到资源。要么等一会让yarn自动分配,要是长时间启动不起来检查下yarn集群

问题五:项目正常运行,hudi长时间没有数据

解决:flink-shaded-hadoop的包版本不匹配。hudi0.9.0用2.75-10.0的,hudi0.10的用2.83-10.0

问题六:

Failed to rollback hdfs://ns1/hudi/xx表 commits 20230310104805769

Cannot use marker based rollback strategy on completed instant:[20230310104805769__deltacommit__COMPLETED]

解决:hdfs dfs -rm -f /hudi/xx/.hoodie/20230310104805769*。然后重启就没问题了

问题七:java.lang.ClassCastException:org.apache.hadoop.io.LongWritable cannot be cast to org.apache.hadoop.hive.serde2.io.TimestampWritable

解决:hudi加ts时用的timestamp类型,但是在parquet中timestamp类型是用int96存储的,如果在执行hive建表时将表字段定义为timestamp类型,那么在查询时会出现转换异常错误,若将hive表字段变为bigint,查询结果回是时间的长整型表示形式:长度为10位,即表示的是秒数,从1970年1月1日开始的。这种长整型格式在使用时还需要进行数据格式转换,才能转换成“yyyyMMdd”类型,所以我们采用的策略是:将timestamp类型从数据源头抽取时就转换为string类型

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
随着互联网的发展,数据的不断膨胀,从刚开始的关系型数据库到非关系型数据库,再到大数据技术,技术的不断演进最终是随着数据膨胀而不断改变,最初的数据仓库能解决我们的问题,但是随着时代发展,企业已经不满足于数据仓库,希望有更强大的技术来支撑数据的存储,包括结构化,非结构化的数据等,希望能够积累企业的数据,从中挖掘出更大的价值。基于这个背景,数据湖的技术应运而生。本课程基于真实的企业数据湖案例进行讲解,结合业务实现数据湖平台,让大家在实践中理解和掌握数据湖技术,未来数据湖的需求也会不断加大,希望同学们抓住这个机遇。项目中将以热门的互联网电商业务场景为案例讲解,具体分析指标包含:流量分析,订单分析,用户行为分析,营销分析,广告分析等,能承载海量数据的实时分析,数据分析涵盖全端(PC、移动、小程序)应用。Apache Hudi代表Hadoop Upserts anD Incrementals,管理大型分析数据集在HDFS上的存储。Hudi的主要目的是高效减少摄取过程中的数据延迟。Hudi的出现解决了现有hadoop体系的几个问题:1、HDFS的可伸缩性限制 2、需要在Hadoop中更快地呈现数据 3、没有直接支持对现有数据的更新和删除 4、快速的ETL和建模 5、要检索所有更新的记录,无论这些更新是添加到最近日期分区的新记录还是对旧数据的更新,Hudi都允许用户使用最后一个检查点时间戳,此过程不用执行扫描整个源表的查询。 本课程包含的技术: 开发工具为:IDEA、WebStorm Flink1.9.0、HudiClickHouseHadoop2.7.5 Hbase2.2.6Kafka2.1.0 Hive2.2.0HDFS、MapReduceSpark、ZookeeperBinlog、Canal、MySQLSpringBoot2.0.2.RELEASE SpringCloud Finchley.RELEASEVue.js、Nodejs、HighchartsLinux Shell编程课程亮点: 1.与企业接轨、真实工业界产品 2.ClickHouse高性能列式存储数据库 3.大数据热门技术Flink4.Flink join 实战 5.Hudi数据湖技术6.集成指标明细查询 7.主流微服务后端系统 8.数据库实时同步解决方案 9.涵盖主流前端技术VUE+jQuery+Ajax+NodeJS 10.集成SpringCloud实现统一整合方案 11.互联网大数据企业热门技术栈 12.支持海量数据的实时分析 13.支持全端实时数据分析 14.全程代码实操,提供全部代码和资料 15.提供答疑和提供企业技术方案咨询企业一线架构师讲授,代码在老师的指导下企业可以复用,提供企业解决方案。  版权归作者所有,盗版将进行法律维权。  
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值