**
1.idea运行时报错“HADOOP_HOME and hadoop.home.dir are unset”
**
原因:windows下的hadoop环境未配置完成,环境变量、系统变量等未设置完成
解决:重新配置完整的windows下的hadoop环境
**
2.SpringBoot报错Error running ‘Application’: Command line is too long.Shorten command line for Application or also for Spring Boot default configuration.
**
原因:springboot项目启动命令过长
解决:在项目启动配置项中,配置shorten command line 选项为classpath file 或 java manifest 选项
点击ok即可;
**
3.redis启动失败报错Could not connect to Redis at 127.0.0.1:6379: Connection refused
原因:redis设置了用户名密码
解决: 启动命令修改为:src/redis-cli -h 用户名 -p 6379 -a 密码
**
**
4.spring boot加载配置文件的中文时出现乱码问题
**
原因:未配置正确的格式
解决:以下步骤可一步一步进行,有时一步就可成功;
1.在引用properties中的属性内容的类上添加添加上一句注解:
@PropertySource(value = “classpath:config/model.properties”,encoding = “UTF-8”)
2.application.properties添加配置
spring.banner.charset=UTF-8
server.tomcat.uri-encoding=UTF-8
spring.http.encoding.charset=UTF-8
spring.http.encoding.enabled=true
spring.http.encoding.force=true
spring.messages.encoding=UTF-8
3.pom.xml添加配置
<project.build.sourceEncoding>UTF-8</project.build.sourceEncoding>
<project.reporting.outputEncoding>UTF-8</project.reporting.outputEncoding>
<java.version>1.8</java.version>
4.File->Setting->Editor->File Enodings
全部设成UTF-8格式;
5.docker安装spark-jobserver时运行sh server_deploy.sh local报错: server_deploy.sh: 24: server_deploy.sh: [[: not found Please specify SCALA_VERSION in /install/spark/spark-2.4.0-bin-hadoop2.6/spark-jobserver/config/local.sh
原因:docker容器启动的是ubuntu系统,ubuntu默认的sh是连接到dash的,又因为dash跟bash的不兼容所以出错了
解决:执行时可以把sh换成 ’ bash 文件名.sh ’ 来执行,成功。
6.docker安装spark-jobserver时运行sh server_deploy.sh local报错: Switch failed: no subprojects list “2.12.6” (or compatible version) in crossScalaVersions setting.
原因:配置文件build.sbt的scala版本选择没找到
解决:更改build.sbt里scala 的版本选择配置。
7.docker安装spark-jobserver时运行sh server_deploy.sh local报错:
原因:未知
解决:未解决,放弃docker启动了
8.spark-jobserver创建常驻context时,报超时异常:
“status”: “ERROR”,
“result”: {
“message”: “Ask timed out on [Actor[akka.tcp://JobServer@127.0.0.1:39420/user/jobManager-f1fedc64-5dc0-4454-9fac-f47fb864c0aa#-575788223]] after [10000 ms]. Sender[null] sent message of type “spark.jobserver.JobManagerActor$StartJob”.”,
“errorClass”: “akka.pattern.AskTimeoutException”,
“stack”: "akka.pattern.AskTimeoutException: Ask timed out on [Actor[akka.tcp://JobServer@127.0.0.1:。。。
原因:sql表内存在异常killed状态的context记录
解决:1.如果有需要,直接清空contexts表,即可创建成功
2.如果存在有用的context,删除对应异常状态的context记录即可