Apache spark2.1.0编译hadoop-2.6-cdh5.11.2的对应版本

Apache spark2.1.0 编译 hadoop-2.6-cdh5.11.2 的对应版本

搞了两天,终于把spark编译成功了,把编译过程记录一下

编译失败的坑:

  1)linux内存不足,maven编译过程中内存溢出

  2)找不到cloudera仓库

  3)报各种错误

考虑到maven下载可能会被墙,于是买了国外的云主机,内存4g,终于编译成功了,并且编译速度相当快,只花了8分钟

成功编译Apaceh spark成对应的chd版本基本步骤如下(使用make-distribution.sh打包编译):

1.安装maven,有版本要求3.x以上的,用最新的就行了

2.安装jdk 1.7+,2.x以上的spark尽量使用 jdk1.8,并且不要使用自带的open jdk ,下载oracle的jdk

3.确认maven,jdk都配置完成

4.下载spark,解压

5.因为要编译成对应hadoop cdh版本,所以需要在spark HOME目录下的pom.xml文件找到repository位置添加

<repository>
<id>cloudera</id>
<name>cloudera repository</name>
<url>https://repository.cloudera.com/artifactory/cloudera-repos/</url>
</repository> 

 

6.为了加快编译速度,修改dev/make-distribution.sh文件

添加以下内容,并把之前的内容注释,因为默认是通过扫描来获得这些值的,会消耗一些时间

VERSION=2.1.0  #spark的版本
SCALA_VERSION=2.10.6  #scala的版本,可以在pom.xml文件的scala.version中找到
SPARK_HADOOP_VERSION=2.6.0-cdh5.11.2 #编译对应具体的hadoop版本
SPARK_HIVE=1  #支持HIVE

7.避免内存溢出

export MAVEN_OPTS="-Xmx2g -XX:MaxPermSize=512M -XX:ReservedCodeCacheSize=512m"

可以根据自己电脑内存情况调整

8.开始编译

./dev/make-distribution.sh --name spark2.1.0-cdh5.11.2  --tgz   -Phadoop-2.6 -Dhadoop.version=2.6.0-cdh5.11.2 -Phive -Phive-thriftserver  -Pyarn


--tgz 打包成 tgz
--name 编译打包的名称 spark2.1.0-cdh5.11.2 默认会在前面添加spark2.1.0-bin,如果编译成功那么全名应该是 spark2.1.0-bin-spark2.1.0-cdh5.11.2 -Phadoop 对应hadoop的大版本 -Dhadoop.version 对应hadoop的具体版本 -Phive -Pyarn 支持hive,yarn

 

9.等待完成,编译成功后会在 spark 的home目录下生成打包的文件

10.然后使用xftp软件把编译成功的包传回本地就行

 ps:博客上的代码,直接复制到linux文件上可能会用问题,所以建议手动输入

转载于:https://www.cnblogs.com/Thomas-blog/p/9835687.html

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
apache-atlas-2.1.0-hive-hook.tar.gz是Apache Atlas项目中的一个软件包。Apache Atlas是一个开源的数据治理和元数据框架,用于收集、集成、索引和搜索数据资产。它提供了一个统一的视图来管理企业中的所有数据资产,包括表、列、模式、实体和关系等。而apache-atlas-2.1.0-hive-hook.tar.gz是Atlas项目为了与Hive集成而提供的一个插件。 Hive是一个构建在Hadoop之上的数据仓库基础设施工具,用于处理大规模的结构化数据。它提供了类似于SQL的查询和分析功能,可以将数据批量导入、导出和查询。通过与Apache Atlas的集成,可以实现对Hive中数据资产的元数据管理和治理。 在实际的应用中,apache-atlas-2.1.0-hive-hook.tar.gz可以被部署到Hive的服务器上,并与Hive的插件机制进行集成。通过配置Hive的元数据存储URL、用户名和密码等信息,Atlas可以自动从Hive中提取元数据,并将其索引到Atlas的元数据仓库中。这样,用户可以在Atlas的界面中浏览和搜索Hive中的表、列和关系,并进行数据资产的管理和治理。 此外,apache-atlas-2.1.0-hive-hook.tar.gz还提供了一些其他功能,如基于分类标签的权限控制、数据血缘追踪、数据脱敏等。通过这些功能,用户可以更好地理解和管理Hive中的数据资产,提高数据治理的效率和质量。 总之,apache-atlas-2.1.0-hive-hook.tar.gz是Apache Atlas项目中用于与Hive集成的插件,通过它可以实现对Hive中数据资产的元数据管理和数据治理。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值