hadoop和spark读取GBK编码乱码
转自:http://www.cnblogs.com/teagnes/p/6112019.html首先来看一下为什么会出现这个问题, 下面是一个最简单的spark的wordcount程序,sc.textFile(filePath)方法从文本文件创建RDD,传入文件路径filePath,查看textFile方法, 可以看到,实际上调用了TextInputformat类来解析文本文件,熟悉had
hadoop/spark
Hadoop
Apache开源项目
web开发
机器学习
开源软件 
