- 博客(1)
- 收藏
- 关注
转载 hadoop和spark读取GBK编码乱码
转自:http://www.cnblogs.com/teagnes/p/6112019.html 首先来看一下为什么会出现这个问题, 下面是一个最简单的spark的wordcount程序,sc.textFile(filePath)方法从文本文件创建RDD,传入文件路径filePath,查看textFile方法, 可以看到,实际上调用了TextInputformat类来解析文本文件,熟悉had
2017-07-27 09:58:17 2178
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人