- 博客(9)
- 收藏
- 关注
原创 pyspark报错解决
(Anaconda3的编译路径)org.apache.spark.SparkException: Python worker failed to connect back.如下图所示。SPARK_HOME=E:\spark\spark-3.2.4 (spark的路径)应用之后退出,运行代码即可。
2024-02-26 17:35:12 334 1
原创 CentOS重装内核版本为7.9.2009版本的yum
注意:创建两个文件夹:python和yum用于存放python依赖和yum依赖,自行创建,并在对应的文档中下载后续对应依赖。第三步:安装python和yum。
2024-02-23 11:45:47 824 4
原创 docker常用命令大合集
docker exec -it <container-id> <command>: 在运行中的容器中执行命令。docker build -t <image-name> <path>: 在指定路径下构建镜像。docker build -t <image-name> <path>: 在指定路径下构建镜像。docker run <options> <image-name>: 运行一个新容器。docker rm -f <container-id>: 强制删除一个运行中的容器。
2023-12-22 15:29:53 133
原创 Flink安装教程
3、修改配置文件:flink-conf.yaml,将文件内的 jobmanager.rpc.address: node01(此处为主机名,依自己而定)修改。(以上是修改)添加如下配置:taskmanager.tmp.dir:/opt/software/flink-1.18.0/tmp(此处为添加)取消 rest.port: 8081的注释,释放Flink的WebUi端口,4.在bin目录下启动Flink:./start-cluster.sh。安装最新版即可,也可根据自我选择相应版本。修改完成之后保存退出。
2023-12-15 17:40:10 176
原创 Linux使用kyuubi代替spark sql命令行操作超简单步骤
修改配置文件 :将kyuubi-defaults.conf 文件中kyuubi.frontend.bind.host 设置为 0.0.0.0。5、使用dbeaver连接kyuubi即可操作spark sql,替代命令行操作此处用户和密码并未定义,只需任意用户名即可,密码无需操作。2.上传压缩包至software,目录下,解压:tar -zxvf apache-kyuubi-1.8.0-bin.tgz。修改配置文件:将kyuubi-env.sh 文件中的spark_home修改。
2023-12-15 17:04:17 481
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人