MapReduce
文章平均质量分 62
HHHBan
小学生
展开
-
单机多线程模拟 MapReduce 思想完成超大文件的 WordCount 计算
之前看过一些 MapReduce 的源码,所以按照源码中的思路进行了回答,感觉还不错,于是回来后尝试写了代码。最近面试遇到了一个问题,就是有个 100G 的文件,里面的内容都是单词,请问在单机笔记本的情况下,怎么使用 MapReduce 的思想完成 WordCount 的计算。大概耗时变成了 15 秒左右,大约快了 3 倍左右。由于都是空格,也不涉及什么正则啥的,于是换成 StringTokenizer 类来切割,代码如下。1)首先,需要模拟出对应的数据,我这里模拟了 1G 左右的数据测试,代码如下。原创 2023-09-22 21:53:07 · 241 阅读 · 0 评论 -
org.apache.hadoop.io.nativeio.NativeIO$Windows.access0(Ljava/lang/String;I)Z 解决方案
解决下面两种异常的思路及其方案:org.apache.hadoop.io.nativeio.NativeIO$Windows.access0(Ljava/lang/String;I)Z(null) entry in command string: null chmod 0700发现问题:在windows上运行WordCount程序报错Exception in thread "main" java.lang.UnsatisfiedLinkError: org.apache.hadoop.io.nativ原创 2020-10-05 17:53:05 · 1411 阅读 · 4 评论