UNIX上安装JRE设置java-home

Spark安装与JDK配置
本文介绍了在安装和运行Spark过程中遇到的Java环境未设置问题的解决方案。详细步骤包括下载安装JDK,配置环境变量JAVA_HOME,并验证安装是否成功。

安装运行spark时,提醒我java home no set ,java运行环境没有设置,原来spark是scala编写,scala又是基于java.

  1. 要安装 JDK,请转至 URL http://java.sun.com/javase/downloads/index.jsp

  2. 找到相应的 JDK 并单击 "Download"。

  3. 编译配置文件
    vim /etc/profile

     

JAVA_HOME=后面的路径根据自己JRE包所在位置改为自己的,然后保存退出!

4.输入指令立即生效配置文件

source /etc/profile

  5.查看配置情况.

[root@localhost bin]# java -version
java version "10.0.1" 2018-04-17
Java(TM) SE Runtime Environment 18.3 (build 10.0.1+10)
Java HotSpot(TM) 64-Bit Server VM 18.3 (build 10.0.1+10, mixed mode)

  出现这些信息表示安装成功了,spark也就能运行了

 

转载于:https://www.cnblogs.com/hanshuai0921/p/8944674.html

[root@yfw ~]# cd /opt/openfire/enterprise/spark/Spark [root@yfw Spark]# ls /usr/lib/jvm/ java jre java-1.8.0 jre-1.8.0 java-1.8.0-openjdk jre-1.8.0-openjdk java-1.8.0-openjdk-1.8.0.312.b07-2.el8_5.x86_64 jre-1.8.0-openjdk-1.8.0.312.b07-2.el8_5.x86_64 java-11 jre-11 java-11-openjdk jre-11-openjdk java-11-openjdk-11.0.13.0.8-4.el8_5.x86_64 jre-11-openjdk-11.0.13.0.8-4.el8_5.x86_64 java-openjdk jre-openjdk [root@yfw Spark]# export JAVA_HOME=/usr/lib/jvm/jre-1.8.0-openjdk-1.8.0.312.b07-2.el8_5.x86_64 [root@yfw Spark]# export PATH=$JAVA_HOME/bin:$PATH [root@yfw Spark]# $JAVA_HOME/bin/java -version openjdk version "1.8.0_312" OpenJDK Runtime Environment (build 1.8.0_312-b07) OpenJDK 64-Bit Server VM (build 25.312-b07, mixed mode) [root@yfw Spark]# #!/bin/bash [root@yfw Spark]# # 文件:/opt/openfire/enterprise/spark/start-spark.sh [root@yfw Spark]# [root@yfw Spark]# APP_DIR="/opt/openfire/enterprise/spark/Spark" [root@yfw Spark]# LOCK_FILE="/tmp/spark-running.pid" [root@yfw Spark]# LOG_FILE="/var/log/spark-client.log" [root@yfw Spark]# [root@yfw Spark]# # --- 关键修复:正确设置 JAVA_HOME 和 PATH --- [root@yfw Spark]# export JAVA_HOME=/usr/lib/jvm/jre-1.8.0-openjdk [root@yfw Spark]# export PATH=$JAVA_HOME/bin:/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin [root@yfw Spark]# [root@yfw Spark]# # 检查是否已有实例运行 [root@yfw Spark]# if pgrep -f "jivesoftware.launcher.Startup" > /dev/null; then > echo "$(date): 错误:Spark 客户端已在运行。" >> $LOG_FILE > exit 1 > fi logout 连接已断开,按回车将尝试重新连接! 正在尝试重新连接! Welcome to Huawei Cloud Service Last login: Thu Oct 30 10:33:08 2025 from 127.0.0.1 ✅ JAVA_HOME: /usr/lib/jvm/java-11-openjdk ✅ Maven home: /opt/maven ✅ Java version: openjdk version "11.0.13" 2021-10-19 LTS [root@yfw ~]# chmod +x /opt/openfire/enterprise/spark/start-spark.sh chmod: cannot access '/opt/openfire/enterprise/spark/start-spark.sh': No such file or directory [root@yfw ~]# su - sparkuser Last login: Thu Oct 30 10:31:05 CST 2025 on pts/1 ✅ JAVA_HOME: /usr/lib/jvm/java-11-openjdk ✅ Maven home: /opt/maven ✅ Java version: openjdk version "11.0.13" 2021-10-19 LTS [sparkuser@yfw ~]$ /opt/openfire/enterprise/spark/start-spark.sh -bash: /opt/openfire/enterprise/spark/start-spark.sh: No such file or directory [sparkuser@yfw ~]$ [sparkuser@yfw ~]$
最新发布
10-31
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值