Hadoop
yumowutong
这个作者很懒,什么都没留下…
展开
-
Hadoop Streaming和Pipes理解
原始问题的引出见:http://bbs.hadoopor.com/viewthread.php?tid=542 在论坛里搜索了下,发现了两篇利用C/C++编写mapreduce的文章.如下: http://bbs.hadoopor.com/thread-256-1-1.html http://bbs.hadoopor.com/thread-420-1-2.html 一. 其中,利用stream的文章中提到,利用stream编写mapreduce程序,其reduce任务要等到所有map原创 2010-10-16 21:52:00 · 11484 阅读 · 4 评论 -
How MapReduce Works
从Live Space –> wordpress –> 到这儿, 先测试一下功能,转一篇文章, http://blog.endlesscode.com/2010/06/24/how-mapreduce-works/ 一、从Map到Reduce MapReduce其实是分治算法的一种实现,其处理过程亦和用管道命令来处理十分相似,一些简单的文本字符的处理甚至也可以使用Unix的管道命令来替代,从处理流程的角度来看大概如下: 简单的流程图如下: 对于Shuffle,简单地说就是将Map的输出通过一定原创 2010-10-16 21:25:00 · 1155 阅读 · 0 评论 -
HDFS 简介
一、HDFS HDFS全称是Hadoop Distributed System。HDFS是为以流的方式存取大文件而设计的。适用于几百MB,GB以及TB,并写一次读多次的场合。而对于低延时数据访问、大量小文件、同时写和任意的文件修改,则并不是十分适合。 目前HDFS支持的使用接口除了Java的还有,Thrift、C、FUSE、WebDAV、HTTP等。HDFS是以block-sized chunk组织其文件内容的,默认的block大小为64MB,对于不足64MB的文件,其会占用一个block,但实际上不用原创 2010-10-16 21:34:00 · 1057 阅读 · 0 评论