Spark 与 Hive 的定义

版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/wrh_csdn/article/details/80336287
  • JDK :Hadoop和Spark 依赖的配置,官方建议JDK版本在1.7以上!!!
  • Scala:Spark依赖的配置,建议版本不低于spark的版本。
  • Hadoop: 是一个分布式系统基础架构。
  • Spark: 分布式存储的大数据进行处理的工具。
  • zookeeper:分布式应用程序协调服务,HBase集群需要。
  • HBase: 一个结构化数据的分布式存储系统。
  • Hive: 基于Hadoop的一个数据仓库工具,目前的默认元数据库是mysql。
阅读更多
想对作者说点什么?

博主推荐

换一批

没有更多推荐了,返回首页