- 博客(2)
- 收藏
- 关注
原创 hive+hbase+zookeeper+spark2.3.0环境搭建
2.spark2.3.0环境安装和启动 根据spark Application的Driver Program是否在集群中运行,spark应用的运行方式又可以分为Cluster模式和Client模式。 1.编译spark2.3.0源码 spark里面是包含spark-sql的,spark-sql是使用修改过的hive和spark相结合的组件,因为spark-sql里面的hive和我们用的hiv...
2018-08-23 20:47:33 773
原创 Hadoop2.9.1环境搭建
Typically one machine in the cluster is designated asthe NameNode and another machine as the ResourceManager, exclusively. These arethe masters. Other services (such as Web App Proxy Server and MapRed...
2018-08-17 16:16:45 2146 1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人