Spark 与 Hive 的定义

  • JDK :Hadoop和Spark 依赖的配置,官方建议JDK版本在1.7以上!!!
  • Scala:Spark依赖的配置,建议版本不低于spark的版本。
  • Hadoop: 是一个分布式系统基础架构。
  • Spark: 分布式存储的大数据进行处理的工具。
  • zookeeper:分布式应用程序协调服务,HBase集群需要。
  • HBase: 一个结构化数据的分布式存储系统。
  • Hive: 基于Hadoop的一个数据仓库工具,目前的默认元数据库是mysql。
阅读更多
版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/wrh_csdn/article/details/80336287
想对作者说点什么? 我来说一句

没有更多推荐了,返回首页

关闭
关闭
关闭