自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(15)
  • 收藏
  • 关注

原创 mybatis设置一个或多个mapper.xml路径

(告诉 Mapper 所对应的 XML 文件位置)多个目录用逗号或者分号分隔。

2024-05-21 14:25:28 97 1

原创 Pypi Python本地上传

PyPI 是 Python 社区共享的一个仓库,用于存储和分享 Python 包和软件。开发者可以将他们编写的 Python 包发布到 PyPI,从而使其他人能够方便地下载、安装和使用这些包。PyPI 提供了一个庞大的包集合,涵盖了各种领域的软件库、工具和框架,从数据科学到网络编程,从Web开发到机器学习,应有尽有。通过 PyPI,Python 社区的成员可以分享他们的代码,并且其他人可以轻松地通过 pip 工具来安装这些包,从而加速软件开发过程。在。

2024-05-07 11:44:08 1045

原创 PyPi token创建

PyPI 是 Python 社区共享的一个仓库,用于存储和分享 Python 包和软件。开发者可以将他们编写的 Python 包发布到 PyPI,从而使其他人能够方便地下载、安装和使用这些包。PyPI 提供了一个庞大的包集合,涵盖了各种领域的软件库、工具和框架,从数据科学到网络编程,从Web开发到机器学习,应有尽有。通过 PyPI,Python 社区的成员可以分享他们的代码,并且其他人可以轻松地通过 pip 工具来安装这些包,从而加速软件开发过程。在。

2024-05-07 10:54:53 386

原创 pyflinksql部署会分裂为多个任务,已解决

pyflink sql在进行多sink插入操作时,因为一个execute_sql()算子只能执行一句sql,我们会使用以下写法.通过查询flink官方网站 sql 文档后得出下述优化写法,可以把部署的任务变为一个。目前这样的写法会使部署的任务变为两个。版本:flink1.16.1。

2024-04-23 15:15:34 166 2

原创 Microsoft Visual C++ 14.0 is required亲测有效解决方法

点击继续 安装。

2024-04-10 17:06:01 579 1

原创 pyflink部署报错:Cannot instantiate the coordinator for operator Source: xxx

今天测试pyflink的任务,pycharm本地测试完以后进入linux进行standalone模式部署。缺少kafka的包,上传上去遇到了这个报错。无kafka包时部署报错。

2024-04-10 09:44:46 342 1

原创 idea普通项目添加maven

2024-04-08 11:16:21 93 1

原创 mysql8忘记密码,远程连接测试成功,yum安装版

通过select * from mysql.user where user = 'root';查看连接权限(因为我之前已经更改过所以只把可以连接成功的展示给大家 host为% 其余大部分为Y)1 首先在 my.cnf 添加以下配置(一般为 /etc/my.cnf)点击此处打开连接设置,在密码处右键设置空密码。退出后将上述配置注释并再次重启mysql。然后使用以下命令无密码进入mysql。使用以下命令将root密码更改为空。通过下方密码测试是否可以无密码进入。提示:我的mysql为yum安装。

2024-04-07 17:34:28 113

原创 No module named ‘pyflink‘

为此专门去pypi看了一眼,然后在想是不是应该在下载一个apache-flink。发现使用pycharm下载完pyflink包后还是不能找到关键模块。今天测试pyflink,从零开始搭建python环境。(下载模块时,记得要把高科技关掉,不然会报错)在setting内看也是有pyflink模块。下载对应flink版本后,多了很多包。发现不会报错可以正常使用了。

2024-04-02 18:26:12 174 1

原创 FlinkSQLAPi设置job名

StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();StreamTableEnvironment tableEnv = StreamTableEnvironment.create(env);Configuration configuration = tableEnv.getConfig().getConfiguration();configuration.setString("pip

2024-04-02 16:05:33 164 1

原创 flinkclass org.codehaus.janino.CompilerFactory cannot be cast to class org.codehaus.commons.compiler

表示 Flink 的类加载器将优先从父级类加载器中查找类。意思为当 Flink 需要加载类时,首先会尝试使用系统类加载器或父级类加载器加载,然后才会尝试使用 Flink 的自定义类加载器。通常用于避免类冲突。这种问题由类加载问题引起,不同的类加载器独立加载相同的类,导致类型不兼容。要解决这个问题,需要确保两个类由同一个类加载器加载。在flink-conf.yaml文件下加入以下配置。flinkSQL任务部署报错。

2024-04-02 15:59:48 228 1

原创 flinksql测试无法达到效果

这会导致你测试结果的误差,比如相同的窗口计算图二可以输出结果,图一却没有反应。这通常是由于 Kafka 主题的分区数量与 Flink Job 的并行度不匹配引起。为了确保 Flink 作业能够有效地消费 Kafka 主题中的所有数据,需要确保 Flink Job 的并行度等于或大于 Kafka 主题的分区数。测试环境中,有一种情况将无法达到你想要的测试结果。下面是两个几乎一样的flinksql demon。而他们的kafkaSource的分区数却不一样。

2024-04-01 11:06:12 191

原创 k8s calico MountVolume.SetUp failed for volume “bpffs“ : hostPath type check failed: /sys/fs/bpf

这个问题的根本原因在于Linux内核版本较低,无法支持Calico所需的某些特性。为了解决这个问题,一个有效的方法是升级Linux内核。在使用Kubernetes(k8s)时,很多用户可能会遇到各种各样的问题。其中之一就是在安装Calico网络插件时,可能会遇到如下报错信息:“在执行升级之前,首先需要了解当前系统的内核版本。在进行内核升级之前,请确保备份了重要的数据,以防万一发生意外情况。列出yum仓库的内核包版本,本次实践用的是阿里的。直接更新内核版本,此方法适用于更新内核补丁。

2024-01-16 11:35:10 895 2

原创 k8s增加node报错:this Docker version is not on the list of validated versions: 24.0.7.

如果你的Docker版本不在Kubernetes验证列表中,你可以考虑升级或降级Docker,以符合Kubernetes的要求。当你在使用Kubernetes(k8s)时,有时候可能会遇到一个报错:“” 这个错误通常是由于Docker版本不在Kubernetes验证列表中引起的。使用下方命令从高到低列出yum源中各个版本的docker然后安装。这边就不教大家导入yum源了,一般到这步的都已经导入过了。无法解析主机名的问题需要再hosts文件中声明。一般解决这个问题需要先卸载docker。

2024-01-15 17:31:15 565

原创 k8s无法初始化解决: Get “http://localhost:10248/healthz“: dial tcp [::1]:10248: connect: connection refused.

文件是否添加的逗号(,),一般在此时发生docker无法重启问题都是json文件中没有填写逗号(,)造成。但在这里这个解决方法在这里是错误的,他可以让docker进行重启,但是在进行k8s初始化时会发生问题。因为我这边事前已经测试成功需要执行kubeadm reset还原初始化,然后再重新进行初始化验证。在我们解决k8s无法初始化问题钱请先回顾docker重启是否遇到以下问题。后docker无法进行重启,网上找到修改为了。请检查/etc/docker目录下的。正确↓↓↓↓↓↓↓↓↓↓↓↓↓↓。

2024-01-10 17:43:02 612 1

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除