spark的安装过程记录

下载spark的网址:http://spark.apache.org/downloads.html

根据各自hadoop版本,选择相迎的spark版本即可。

本文是hadoop集群安装好的前提下,进行安装spark的安装。

安装spark之前,先安装scala,具体要求什么样的scala版本,可以将下载的spark解压,在根目录下有个README.md文件。里面有写明你下载的spark版本需要哪个scala版本的支持。这里下载的是0.9版本的spark,对应的scala是2.10.x即可。


scala的下载地址(各个版本):http://www.scala-lang.org/download/all.html

解压,设置环境变量。我所有的环境变量都是在~/.bashrc文件中设置的(下面会贴出我设置的所有的环境变量的图,scala就在其中)。

测试scala有没有安装成功,使用命令行:scala -h 即可。

安装好scala之后,就是安装spark了。

下载制定的spark版本后,第一步先是:build spark。具体命令上在上面的图中就有:./sbt/sbt assembly,这个编译需要花一些时间。

编译成功以后,修改配置,主要是./conf下面的slaves和spark-env.sh文件。

修改配置,和运行spark集群可参考的是网址:http://blog.csdn.net/hxpjava1/article/details/19177913


如果你不编译就启动集群,就会报这样子的错误:

提示先build spark,在启动集群


最后贴一张环境变量的图,手打一边,加深影响

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
安装和配置Spark SQL需要以下步骤: 1. 下载Spark:首先需要下载Spark安装包。 2. 配置环境变量:将Spark安装路径添加到系统的环境变量中,以便可以在任何位置使用Spark。 3. 配置spark-env.sh:在Spark安装目录中,找到spark-env.sh文件并进行配置。这个文件包含了一些Spark的运行参数和环境变量的设置。 4. 配置works:在Spark安装目录中,找到works文件并进行配置。这个文件用于配置Spark的集群管理器。 5. 配置历史服务器:如果需要使用Spark的历史服务器功能,可以进行相关配置。 6. Spark整合Hive的MetaStore:如果需要将Spark与Hive整合使用,需要配置Spark与Hive的元数据仓库。 7. 启动Spark:根据需要选择启动Spark的方式,可以是在本地环境下启动,也可以是在Standalone模式下启动。 8. 查看Spark Web接口位置:Spark提供了Web接口用于监控和管理Spark应用程序,可以查看Spark Web接口的位置。 需要注意的是,Spark在运行过程中可能需要读取Hive和HDFS的配置信息,所以需要将hive-site.xml、core-site.xml和hdfs-site.xml文件拷贝到Spark的conf目录下,以便Spark可以正确读取相关配置信息。\[2\]\[3\] #### 引用[.reference_title] - *1* *2* [Spark SQL配置记录总结-20230410](https://blog.csdn.net/u010503464/article/details/130061457)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^koosearch_v1,239^v3^insert_chatgpt"}} ] [.reference_item] - *3* [Spark Sql 安装](https://blog.csdn.net/weixin_33881753/article/details/92443668)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^koosearch_v1,239^v3^insert_chatgpt"}} ] [.reference_item] [ .reference_list ]
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值