分布式缓存一个最重要的应用就是在进行join操作的时候,如果一个表很大,另一个表很小很小,我们就可以将这个小表进行广播处理,即每个计算节点上都存一份,然后进行map端的连接操作,经过我的实验验证,这种情况下处理效率大大高于一般的reduce端join,广播处理就运用到了分布式缓存的技术。
DistributedCache将拷贝缓存的文件到Slave节点在任何Job在节点上执行之前,文件在每个Job中只会被拷贝一次,缓存的归档文件会被在Slave节点中解压缩。将本地文件复制到HDFS中去,接着J哦不Client会通过addCacheFile() 和addCacheArchive()方法告诉DistributedCache在HDFS中的位置。当文件存放到文地时,JobClient同样获得DistributedCache来创建符号链接,其形式为文件的URI加fragment标识。当用户需要获得缓存中所有有效文件的列表时,JobConf 的方法 getLocalCacheFiles() 和getLocalArchives()都返回一个指向本地文件路径对象数组。
下面贴一下我的部分代码:在run函数中
- DistributedCache.createSymlink(job.getConfiguration());//
- try {//#的作用是以后用的时候直接input就可以了
- DistributedCache.addCacheFile(new URI(args[1]+"/#input"), job.getConfiguration());
- } catch (URISyntaxException e1) {
- // TODO Auto-generated catch block
- e1.printStackTrace();
- }
- private Hashtable<String, DefinedMyself> word_hash = new Hashtable<String,DefinedMyself<span style="text-indent: 118px; ">>();</span>
- public void setup(Context context) throws IOException, InterruptedException{
- String[] selected_region = null;
- Path p[] = DistributedCache.getLocalCacheFiles(context.getConfiguration());
- FileReader reader = new FileReader("input");
- BufferedReader br = new BufferedReader(reader);
- System.out.println("this is OK");
- String s1 = null;
- int i=0;
- while((s1 = br.readLine())!=null){
- String[] word = s1.split("\\|");
- //do something you want
- }
- }
- br.close();
- reader.close();
注意:
1. DistributedCache将拷贝缓存的文件到所有Slave节点
2.包含两种DistributedCache.getLocalCacheFiles(job),DistributedCache.getLocalArchives(job)
3.具体的流程
(1) distributeCatch 上传到HDFS
(2) jobtracker端的任务调度器将作业分发到各个tasktracker
(3)任何一个tasktracker收到第一个任务后,由distributeCache自动将作业文件缓存到本地目录,自动解压,然后启动任务
(4)其他的tasktracker自动运行,distributeCache不在进行重复下载
4.具体的源代码类包括3个 org.apache.hadoop.filecache包中
(1) DistributeCache类:用户直接使用的外部类,通过addXX,setXXX,getXXX来配置
(2)TaskDistributeCacheManager类:hadoop内部类,管理一个作业相关的缓存文件
(3)TrackerDistributeCacheManager类:Hadoop内部类,管理一个tasktracker上的所有缓存文件