![](https://img-blog.csdnimg.cn/20201014180756930.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
doris
摸石头过河的少年
这个作者很懒,什么都没留下…
展开
-
java.lang.NoClassDefFoundError: com/zaxxer/hikari/HikariConfig
由于我这边使用的是 doris 官方的来连接器,它这个自己集成了 flinkcdc,然而查看自己的 flink 的lib目录发现,目录里面还有一个 flink-connector-mysql-cdc-2.4.1.jar,所以导致了依赖冲突。利用 doris 官网的方式,用flink CDC 同步mysql整库数据至doris。注释掉 lib 目录里的依赖,重启 flink 集群,再重新执行任务。找不到类,一般情况下要么是 jar 包冲突,要么是没有依赖包。原创 2024-07-10 17:39:58 · 224 阅读 · 0 评论 -
Caused by: org.apache.flink.table.api.ValidationException: ‘scan.incremental.snapshot.chunk.key-...
翻译过来就是:没有主键的源表同步时,需要设置参数 'scan.incremental.snapshot.chunk.key-column'利用 doris 官网的方式,用flink CDC 同步mysql整库数据至doris。,不同的库表列之间用。原创 2024-07-10 17:21:36 · 200 阅读 · 0 评论 -
Caused by: java.lang.ClassNotFoundException: com.ververica.cdc.debezium.DebeziumDeserializationSchem
利用 doris 官网的方式,用flink CDC 同步mysql整库数据至dorisflink 1.18。原创 2024-07-10 17:10:03 · 326 阅读 · 0 评论 -
Reason: no partition for this tuple.
112 2017-04-09 2017-04-01 11:00:00 上海 20 1 2017-04-01 10:00:00 80 15 10。112 2019-04-01 2017-04-01 11:00:00 上海 20 1 2017-04-01 10:00:00 80 15 10。报错字面意思:这组数据没有对应的分区。doris 导入本地数据报错。原创 2024-03-02 10:00:00 · 724 阅读 · 0 评论 -
Reason: column(date) values is null while columns is not nullable.
111 '2017-04-01' '2017-04-01 12:00:00' '上海' 20 1 '2017-04-01 11:00:00' 100 20 15。原因:个人理解,应该是分割符之内的数据就是对应的列的数据,但是带有单引号的数据不是表中想要的日期格式,所以报错。理解:date 列不允许为 null ,但是导入数据给的是 null,所以任务失败。解决方案:去除本地文件内容中的代表字符串或日期格式的所有单引号。打开 errorUrl 链接。原创 2024-03-01 14:43:11 · 806 阅读 · 0 评论 -
Reason: actual column number in csv file is less than schema column number.actual number 1
报错: actual column number in csv file is less than schema column number.actual number 1。解决方案:加入分隔符条件 “ -H "column_separator:|" ”原因:导入时,未指定列的分割符,导致一行数据被解析为 1列。字面意思:导入文件的列数小于表的列数,实际只有 1 列。用浏览器打开错误的url,查看详细信息。使用 doris 本地导入数据失败。原创 2024-03-01 14:21:36 · 887 阅读 · 0 评论