- 博客(2)
- 资源 (9)
- 收藏
- 关注
转载 spark详解
转载自:http://blog.csdn.net/princemrgao/article/details/52397444 1. 概述:什么是spark Spark是UC Berkeley AMP lab所开源的类Hadoop MapReduce的通用的并行计算框架,Spark基于map reduce算法实现的分布式计算,拥有hadoopMapReduce所具有的优点;但不同于M
2017-07-14 08:38:24 417
cdh-hive2.1.1版本orc格式表读取包数组越界替换包
cdh-hive2.1.1版本orc文件读取数据报错替换包:
Caused by: java.lang.ArrayIndexOutOfBoundsException: 7
at org.apache.orc.OrcFile$WriterVersion.from(OrcFile.java:145)
at org.apache.orc.impl.OrcTail.getWriterVersion(OrcTail.java:74)
at org.apache.orc.impl.ReaderImpl.<init>(ReaderImpl.java:385)
at org.apache.hadoop.hive.ql.io.orc.ReaderImpl.<init>(ReaderImpl.java:62)
at org.apache.hadoop.hive.ql.io.orc.OrcFile.createReader(OrcFile.java:89)
at org.apache.hadoop.hive.ql.io.orc.VectorizedOrcInputFormat.getRecord
2022-05-18
flink1.13.2集成到cdh集群安装包
包含flink1.13.2针对cdh6.2-6.4版本的编译包 parcel,parcel.sha manifect.json FLINK_ON_YARN.下载后可直接添加到cdh集群中
2021-08-18
spark-rdd-APi
内容根据spark rdd.scala和ParRDDFunctions.scala源码中rdd顺序整理,包含rdd功能解释。对熟悉spark rdd很有用
2017-12-14
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人