Spark
lin502
这个作者很懒,什么都没留下…
展开
-
CDH5.15.0安装spark2.3
简介: 在我的CDH5.15.0集群中,默认安装的spark是1.6版本,这里需要将其升级为spark2.x版本。经查阅官方文档,发现spark1.6和2.x是可以并行安装的,也就是说可以不用删除默认的1.6版本,可以直接安装2.x版本,它们各自用的端口也是不一样的。我尝试了安装spark2.3版本,大告成功,这里做一下安装spark2.3版本的步骤记录。 一. 安装准备 所需软件 ...原创 2018-11-30 15:10:48 · 1724 阅读 · 2 评论 -
代码 | Spark读取mongoDB数据写入Hive普通表和分区表
版本: spark 2.2.0 hive 1.1.0 scala 2.11.8 hadoop-2.6.0-cdh5.7.0 jdk 1.8 MongoDB 3.6.4 一 原始数据及Hive表 MongoDB数据格式 { "_id" : ObjectId("5af65d86222b639e0c2212f3"), "id" : "1", "name" : ...转载 2018-12-28 12:18:03 · 825 阅读 · 0 评论 -
Spark学习之路 (一)Spark2.4 HA集群的分布式安装
一、下载Spark安装包 1、从官网下载 http://spark.apache.org/downloads.html 2、从微软的镜像站下载 http://mirrors.hust.edu.cn/apache/ 3、从清华的镜像站下载 https://mirrors.tuna.tsinghua.edu.cn/apache/ 二、安装基础 1、Java8安装成功 2、z...原创 2019-01-28 17:21:30 · 1166 阅读 · 0 评论 -
Apache Spark 2.4 新增内置函数和高阶函数使用介绍
转载自过往记忆(https://www.iteblog.com/) 本文链接: 【Apache Spark 2.4 新增内置函数和高阶函数使用介绍】(https://www.iteblog.com/archives/2459.html) Apache Spark 2.4 新增了24个内置函数和5个高阶函数,本文将对这29个函数的使用进行介绍。关于 Apache Spark 2.4 的新特性,可以...转载 2019-01-29 16:27:23 · 406 阅读 · 0 评论
分享