- 博客(1)
- 收藏
- 关注
原创 Saprk运行环境配置
掌握Spark运行环境 掌握Spark运行环境的搭建 掌握运行环境的验证 1.在官网下载所需要的安装包,spark-3.1.1-bin-hadoop2.7,scala-2.13.6,然后导入到linux操作系统中的相应位置中,然后开始解压。 tar -zxvfspark tar -zxvf scala 2.解压完毕后开始修改profile(将下列信息填入profile配置文件中) vim /etc/profile SCALA_HOME=/hadoop/software/scala-2.13.
2021-09-01 15:14:54 171
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人