Spark的安装和使用
提示:这里可以添加系列文章的所有文章的目录,目录需要自己手动添加
提示:写完文章后,目录可以自动生成,如何生成可参考右边的帮助文档
前言
提示:这里可以添加本文要记录的大概内容:
例如:随着人工智能的不断发展,机器学习这门技术也越来越重要,很多人都开启了学习机器学习,本文就介绍了机器学习的基础内容。
提示:以下是本篇文章正文内容,下面案例可供参考
一、安装Spark
跟之前的Hadoop相关安装一致,即安装下载包到对应位置进行解压(注意:这里更改了文件名为spark),然后修改Spark的配置文件spark-env.sh
cd /opt/modules/spark
cp conf/spark-env.sh.template conf/spark-env.sh
编辑spark-env.sh文件(vi conf/spark-env.sh),添加以下配置信息:
export JAVA_HOME=