错误问题集锦

**

1.idea运行时报错“HADOOP_HOME and hadoop.home.dir are unset”

**
原因:windows下的hadoop环境未配置完成,环境变量、系统变量等未设置完成
解决:重新配置完整的windows下的hadoop环境
**

2.SpringBoot报错Error running ‘Application’: Command line is too long.Shorten command line for Application or also for Spring Boot default configuration.

**
原因:springboot项目启动命令过长
解决:在项目启动配置项中,配置shorten command line 选项为classpath file 或 java manifest 选项
在这里插入图片描述
在这里插入图片描述点击ok即可;
**

3.redis启动失败报错Could not connect to Redis at 127.0.0.1:6379: Connection refused

原因:redis设置了用户名密码
解决: 启动命令修改为:src/redis-cli -h 用户名 -p 6379 -a 密码

**
**

4.spring boot加载配置文件的中文时出现乱码问题

**
原因:未配置正确的格式
解决:以下步骤可一步一步进行,有时一步就可成功;
1.在引用properties中的属性内容的类上添加添加上一句注解:
@PropertySource(value = “classpath:config/model.properties”,encoding = “UTF-8”)

2.application.properties添加配置

spring.banner.charset=UTF-8
server.tomcat.uri-encoding=UTF-8
spring.http.encoding.charset=UTF-8
spring.http.encoding.enabled=true
spring.http.encoding.force=true
spring.messages.encoding=UTF-8

3.pom.xml添加配置

<project.build.sourceEncoding>UTF-8</project.build.sourceEncoding>
<project.reporting.outputEncoding>UTF-8</project.reporting.outputEncoding>
<java.version>1.8</java.version>

4.File->Setting->Editor->File Enodings
在这里插入图片描述
全部设成UTF-8格式;

5.docker安装spark-jobserver时运行sh server_deploy.sh local报错: server_deploy.sh: 24: server_deploy.sh: [[: not found Please specify SCALA_VERSION in /install/spark/spark-2.4.0-bin-hadoop2.6/spark-jobserver/config/local.sh

原因:docker容器启动的是ubuntu系统,ubuntu默认的sh是连接到dash的,又因为dash跟bash的不兼容所以出错了
解决:执行时可以把sh换成 ’ bash 文件名.sh ’ 来执行,成功。

6.docker安装spark-jobserver时运行sh server_deploy.sh local报错: Switch failed: no subprojects list “2.12.6” (or compatible version) in crossScalaVersions setting.

原因:配置文件build.sbt的scala版本选择没找到
解决:更改build.sbt里scala 的版本选择配置。

7.docker安装spark-jobserver时运行sh server_deploy.sh local报错:

在这里插入图片描述原因:未知
解决:未解决,放弃docker启动了

8.spark-jobserver创建常驻context时,报超时异常:

“status”: “ERROR”,
“result”: {
“message”: “Ask timed out on [Actor[akka.tcp://JobServer@127.0.0.1:39420/user/jobManager-f1fedc64-5dc0-4454-9fac-f47fb864c0aa#-575788223]] after [10000 ms]. Sender[null] sent message of type “spark.jobserver.JobManagerActor$StartJob”.”,
“errorClass”: “akka.pattern.AskTimeoutException”,
“stack”: "akka.pattern.AskTimeoutException: Ask timed out on [Actor[akka.tcp://JobServer@127.0.0.1:。。。
原因:sql表内存在异常killed状态的context记录
解决:1.如果有需要,直接清空contexts表,即可创建成功
2.如果存在有用的context,删除对应异常状态的context记录即可

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

@huangcl

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值