SparkSQL:如何找到与Spark版本对应的jar包

原创 2017年09月06日 09:18:33

方法:进入Spark官网,下载对应版本的Spark,注意相应版本号,以及直接下载预编译的版本,不要下源码包
这里写图片描述

下载之后,解压,到该文件夹下的jars目录,对应Spark版本的相应jar包均在其中,再导入IDE既可以进行开发了
这里写图片描述

版权声明:本文为博主原创文章,未经博主允许不得转载。

相关文章推荐

spark sql scala 开发环境搭建 以及必要jar包导入

1. scala 环境安装及安装 (官网下载) 2.检验 scala 是否安装成功 3.安装 scala 集成开发环境 IDEA (官网自行下载安装) 4.在 IDEA 上 安装 sca...

执行spark sql 遇到的问题

总结一下执行spark sql遇到的问题: 没

Delphi7高级应用开发随书源码

  • 2003年04月30日 00:00
  • 676KB
  • 下载

Delphi7高级应用开发随书源码

  • 2003年04月30日 00:00
  • 676KB
  • 下载

Spark学习: Spark-Scala-IntelliJ开发环境搭建和编译Jar包流程

spark-scala使用IntelliJ搭建的开发环境。

spark从入门到放弃 之 分布式运行jar包

scala代码如下: import org.apache.spark.SparkConf import org.apache.spark.SparkContext import org.apache....

IntelliJ IDEA开发Spark、打JAR包

清明假期折腾了两天,总结了两种方式使用IDE进行spark程序,记录一下: 第一种方法比较简单,两种方式都是采用SBT进行编译的。 注意:本地不需要安装Scala程序,否则在编译程序时有版...

Hive<找不到Spark-assemblyJar包>

版本:apache-hive-1.2.1-bin.tar.gz spark-2.1.1-bin-hadoop2.7.tgz1.问题陈述:启动Hive的时候会说找不到spark-assembly相关的J...
  • Gpwner
  • Gpwner
  • 2017年06月19日 09:48
  • 814

Spark-SQL的安装及使用

安装步骤 下载编译了Hive的Spark版本 官网下载链接给出的都是编译过Hive的(至少1.6版可以确定是)。CDH自带的Spark都是没有带Hive的,若直接运行./spark-sql,会报错如...

基于spark1.3.1的spark-sql实战-01

OK !好久不见,大家都忙着各自的事情,me too, 博客也好久木有更新了,因为一直比较忙 spark sql 三个核心部分: 1. 可以加载各种结构化数据源(e.g., JSON, Hive, a...
内容举报
返回顶部
收藏助手
不良信息举报
您举报文章:SparkSQL:如何找到与Spark版本对应的jar包
举报原因:
原因补充:

(最多只允许输入30个字)