Spark环境搭建
前言
因为公司项目有用到,整理了一下,特此记录 .网上教程几乎都是全家桶,上来就是安装Scala,Spark,Hadoop.不清楚为什么要安装,自己是否需要安装.又因为安装环境是学习的第一步,所以基本处于懵逼状态!
Scala,Spark,Hadoop介绍
什么是spark?
Apache Spark 是专为大规模数据处理而设计的快速通用的计算引擎。Spark是UC Berkeley AMP ...
原创
2019-01-31 15:17:15 ·
361 阅读 ·
1 评论