- 博客(10)
- 资源 (16)
- 问答 (1)
- 收藏
- 关注
转载 十分钟轻松理解yarn原理
背景Yarn是一个分布式的资源管理系统,用以提高分布式的集群环境下的资源利用率,这些资源包括内存、IO、网络、磁盘等。其产生的原因是为了解决原MapReduce框架的不足。最初MapReduce的committer们还可以周期性的在已有的代码上进行修改,可是随着代码的增加以及原MapReduce框架设计的不足,在原MapReduce框架上进行修改变得越来越困难,所以MapReduce的comm
2014-05-22 13:16:21 1003
转载 Hadoop InputFormat定制时必须知道的原理---如何划分split,split如何调度,如何读取
在执行一个Job的时候,Hadoop会将输入数据划分成N个Split,然后启动相应的N个Map程序来分别处理它们。数据如何划分?Split如何调度(如何决定处理Split的Map程序应该运行在哪台TaskTracker机器上)?划分后的数据又如何读取?这就是本文所要讨论的问题。先从一张经典的MapReduce工作流程图出发:1、运行mapred程序;2、本次
2014-05-21 15:55:31 2032
原创 dotNet源码解读--HashTable目录扩展的奥秘
摘要:为了探索dotnet中hashtable的目录结构及与目录扩展相关的算法,本文通过对相关源码的阅读与分析,得出如下结论,hashtable的目录是由数组组织,目录元素代表一个数据节点,不是数据桶。目录扩展是扩展当前目录长度2倍往1遍历过程中遇到的第一个素数。目录扩展触发条件:装载因子式的触发,同时考虑到“杂乱程度”需要进行重新散列。目录扩展时需要遍历原有目录中所有的元素。查询过程与探测再散列类似。关键词:dotnet,hashmap,目录扩展方法,目录扩展触发条件
2014-05-20 14:55:57 933
转载 JAVA源码注释---hashmap源码中文注释
package java.util; import java.io.*; public class HashMap extends AbstractMap implements Map, Cloneable, Serializable { // 系统默认初始容量,必须是2的n次幂,这是出于优化考虑的 static final
2014-05-19 14:19:09 1257
原创 JAVA源码解读---HashMap目录扩展的奥秘
摘要:为了探索JAVA1.7源码中HashMap类数据的组织方法与目录扩展方法,通过对JAVA1.7源码中HashMap类源码的阅读与分析,得出结论:hashmap中存储数据的数据结构采用的是链表数组,目录是个数组,数组的成员是链表。冲突解决方法:典型的链地址法,冲突后,在链表头部插入数据。目录扩展方法:已二倍的方式扩展,一直到目录的最大上限。目录扩展的触发条件:装载因子的方式触发。从java中hashmap的实现可以看出,桶数据的组织方式并不是一种非常高效的方式。对检索效率不利。同时,数据扩展简单的采用二
2014-05-19 13:10:17 1872
转载 xpdf读取pdf文件并根据pdf内容修改文件名称
1:准备工作上网查资料,C++读取pdf库,java读取pdf库,最后找到了xpdf库,还好,下载地址【下载xpdf地址】,我下载的是windows版的,然后按照步骤实验了一下实验,打开压缩包,读了读readme,然后进入bin32文件夹,里面好多exe可执行文件,好吧,开始搞起拷贝一个pdf文件进去,然后cmd命令行进入bin32文件夹,[html] view plaincopy
2014-05-15 22:26:51 1480
原创 java连接SqlServer2008
package org.apache.hadoop.examples;import java.io.FileInputStream;import java.io.FileNotFoundException;import java.io.IOException;import java.lang.reflect.Field;import java.lang.reflect.Method;
2014-05-15 14:17:26 717
转载 Hive优化总结(转)
Hive优化总结 ---by 食人花 优化时,把hive sql当做map reduce程序来读,会有意想不到的惊喜。理解hadoop的核心能力,是hive优化的根本。这是这一年来,项目组所有成员宝贵的经验总结。 长期观察hadoop处理数据的过程,有几个显著的特征:1.不怕
2014-05-08 13:11:27 1086
转载 MapReduce原理浅析(转)
------------------------每天学习一点点^_^-------------------------- 一个简单的应用了Map/Reduce模式的例子:http://wiki.apache.org/hadoop/WordCount 用 Mapeduce 来处理大数据集的过程, 这个 MapReduce 的计算过程简而言之,就是将大数据
2014-05-07 15:42:11 577
\symbian s60 入门详细材料和程序实例
2012-10-12
基于ASP.NET企业销售管理系统论文
2010-05-16
Java程序测试性能发现执行时间随着循环次数会明显降低
2014-08-07
TA创建的收藏夹 TA关注的收藏夹
TA关注的人