Spark 与 Hive 的定义
  • JDK :Hadoop和Spark 依赖的配置,官方建议JDK版本在1.7以上!!!
  • Scala:Spark依赖的配置,建议版本不低于spark的版本。
  • Hadoop: 是一个分布式系统基础架构。
  • Spark: 分布式存储的大数据进行处理的工具。
  • zookeeper:分布式应用程序协调服务,HBase集群需要。
  • HBase: 一个结构化数据的分布式存储系统。
  • Hive: 基于Hadoop的一个数据仓库工具,目前的默认元数据库是mysql。
阅读更多
版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/wrh_csdn/article/details/80336287
个人分类: 大数据
想对作者说点什么? 我来说一句

数仓ETL任务规范

2018年03月07日 7.89MB 下载

bigBench.pdf

2016年08月07日 3.11MB 下载

没有更多推荐了,返回首页

不良信息举报

Spark 与 Hive 的定义

最多只允许输入30个字

加入CSDN,享受更精准的内容推荐,与500万程序员共同成长!
关闭
关闭