livy0.5.0安装

本文详细介绍了如何安装Apache Livy 0.5.0,包括解压安装包、配置环境变量、启动服务,并提供安装成功的验证方法。Livy作为一个Spark REST服务,允许通过REST接口提交代码到Spark集群执行。
摘要由CSDN通过智能技术生成

安装步骤

livy是一个基于Spark的开源REST服务,它能够通过REST的方式将代码片段或是序列化的二进制代码提交到Spark集群中去执行。livy的安装起因是因为griffin质量分析组件的依赖,故有此文。
下载链接:http://livy.apache.org/download/

解压livy压缩包

[hadoop@master ~]$ unzip livy-0.5.0-incubating-bin.zip

更改压缩包名称(个人习惯)

[hadoop@master ~]$ mv livy-0.5.0-incubating-bin/ livy-0.5.0/

复制所有模板

[hadoop@master ~]$ cd livy-0.5.0/conf/
[hadoop@master conf]$ cp livy-client.conf.template livy-client.conf
[hadoop@master conf]$ cp livy-env.sh.template livy-env.sh
[hadoop@master conf]$ cp spark-blacklist.conf.template spark-blacklist.conf
[hadoop@master conf]$ cp livy.conf.template livy.conf<

  • 0
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Apache Livy是一个开源项目,它提供了一种RESTful接口,用于在Apache Spark集群上运行交互式和批处理作业。这个接口使得在Java或其他编程语言中使用Spark变得更加简单和方便。 安装 1. 安装Java和Scala Livy需要Java 8或更高版本和Scala 2.11.x或2.12.x。您可以从官方网站下载Java和Scala,也可以使用包管理器进行安装。 2. 下载和编译Livy源代码 您可以从Apache Livy的官方网站https://livy.apache.org/download/下载最新版本的源代码。下载后,解压缩文件并使用以下命令编译: ``` $ mvn clean package -DskipTests ``` 3. 配置Livy 在编译完成后,将生成一个目录livy-0.7.1-incubating-bin。在该目录中,找到conf目录并编辑livy.conf文件。在该文件中,您需要配置以下参数: ``` livy.server.port = 8998 livy.file.local-dir-whitelist = /tmp livy.spark.master = spark://<spark-master>:7077 ``` 其中,livy.server.port是Livy服务器的端口号,livy.file.local-dir-whitelist是本地目录的白名单,livy.spark.master是Spark master的URL。 4. 启动Livy 在配置完成后,使用以下命令启动Livy: ``` $ bin/livy-server ``` 在启动完成后,您可以使用http://localhost:8998/访问Livy的RESTful API。 使用 在Java中使用Livy,您需要使用Livy的Java客户端库。您可以在Maven中添加以下依赖项: ```xml <dependency> <groupId>org.apache.livy</groupId> <artifactId>livy-client-common</artifactId> <version>0.7.1-incubating</version> </dependency> <dependency> <groupId>org.apache.livy</groupId> <artifactId>livy-client-spark_2.11</artifactId> <version>0.7.1-incubating</version> </dependency> ``` 1. 创建LivyClient对象 使用以下代码创建一个LivyClient对象: ```java LivyClient client = new LivyClientBuilder() .setURI(new URI("http://localhost:8998")) .build(); ``` 其中,URI参数是Livy服务器的URL。 2. 提交Spark作业 使用以下代码提交一个Spark作业: ```java JavaSparkContext spark = new JavaSparkContext("spark://<spark-master>:7077", "MyApp"); List<Integer> data = Arrays.asList(1, 2, 3, 4, 5); JavaRDD<Integer> distData = spark.parallelize(data); int result = distData.reduce((a, b) -> a + b); ``` 其中,spark参数是Spark master的URL,data是一个包含整数的列表,distData是一个JavaRDD对象,result是reduce操作的结果。 使用以下代码将作业提交到Livy服务器: ```java JobHandle<Integer> handle = client.submit(new JavaSparkJob<>(MyApp.class.getName(), result)); ``` 其中,JavaSparkJob是一个用于包装Spark作业的类,MyApp是您的Spark作业的类名,result是作业的结果。 3. 获取作业结果 使用以下代码获取作业的结果: ```java int result = handle.get(); ``` 其中,handle是提交作业后返回的JobHandle对象,result是作业的结果。 4. 关闭LivyClient对象 使用以下代码关闭LivyClient对象: ```java client.stop(true); ``` 其中,true参数表示在关闭之前等待所有作业完成。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值