独自登高楼 望断天涯路

学lucene 学hadoop,Google/baidu搜:“独自登高楼”,进入本博客

排序:
默认
按更新时间
按访问量

正方形数量问题终极解答

废了不少脑细胞 public static int newsquareCount(int a , int b){ int k=a<b?a:b; return k*(k+1)*(2*k+1)/6+(Math.abs(a-b)*k*(k+1)/2); ...

2016-04-01 15:01:54

阅读数:4425

评论数:0

C++的Name lookup之qualified name lookup

1. 简介C++中Name lookup的过程就是一个通过name找到对应申明的过程。对于函数来说,name lookup可能会匹配出很多个申明,然后如果是函数再通过Argument-dependent lookup去查找,如果是函数模板那么通过Template argument deductio...

2015-10-27 17:50:14

阅读数:2518

评论数:0

C++中definition与declaration的区别

翻了好几篇关于definition与declaration和博客,都写的很坑人 ,看来我得写一篇了,避免很多新手一入门就被坑了。definition是通过declaration完整的定义了实体,每个declaration都是definition。

2015-10-22 17:28:56

阅读数:3124

评论数:1

OpenCms9学习笔记(二)——OpenCms9下载安装

此篇文章只包括OpenCms的本地安装,服务器的安装方法我会在以后的文章中提到,你可以本地做开发,然后发布时在上传到服务端,非常简单。下载下载最新版本,地址http://www.opencms.org/en/download/ ,下载后是一个压缩包的形式:opencms.zip,解压后得到open...

2015-03-30 17:17:51

阅读数:5229

评论数:0

OpenCms9学习笔记(一)——OpenCms9简介

以前没接触过opencms,接触时发现版本已经9.5了,网上大多是7.0的版本,但9.5版本有了较大的变化,一时很难找到相关的资料

2015-03-26 17:37:12

阅读数:4507

评论数:0

Mac OS X中MacPorts安装和使用

Mac下面除了用dmg、pkg来安装软件外,比较方便的还有用MacPorts来帮助你安装其他应用程序,跟BSD中的ports道理一样。MacPorts就像apt-get、yum一样,可以快速安装些软件。下面将MacPorts的安装和使用方法记录在这里以备查。访问官方网站http://www.mac...

2014-04-01 16:08:56

阅读数:3961

评论数:0

您的鼓励,我的动力!(CSDN 2013年度博客之星评选)

亲爱的小伙伴们,大家好!很荣幸我能够成为CSDN 2013年度博客之星评选的候选人,希望继续得到大家的支持与鼓励,sweetop一定会继续努力!        投票地址:http://vote.blog.csdn.net/blogstaritem/blogstar2013/lastsweetop ...

2013-12-16 16:25:31

阅读数:1495

评论数:4

hadoop深入研究:(十八)——Avro schema兼容

转载请写明来源地址:http://blog.csdn.net/lastsweetop/article/details/9817999所有源码在github上,https://github.com/lastsweetop/styhadoop

2013-08-23 15:19:38

阅读数:9439

评论数:1

hadoop深入研究:(十七)——Avro Datafile

转载请写明来源地址:http://blog.csdn.net/lastsweetop/article/details/9773233所有源码在github上,https://github.com/lastsweetop/styhadoop

2013-08-09 16:48:18

阅读数:8418

评论数:1

hadoop深入研究:(十六)——Avro序列化与反序列化

转载请写明来源地址:http://blog.csdn.net/lastsweetop/article/details/9664233所有源码在github上,https://github.com/lastsweetop/styhadoop

2013-08-06 15:33:31

阅读数:20838

评论数:3

hadoop深入研究:(十五)——Avro Schemas

转载请写明来源地址:http://blog.csdn.net/lastsweetop/article/details/9448961所有源码在github上,https://github.com/lastsweetop/styhadoop

2013-08-05 19:39:39

阅读数:7997

评论数:0

hadoop深入研究:(十四)——Avro简介

转载请写明来源地址:所有源码在github上,https://github.com/lastsweetop/styhadoop

2013-07-30 11:58:33

阅读数:8753

评论数:0

hadoop深入研究:(十三)——序列化框架

转载请写明来源地址:http://blog.csdn.net/lastsweetop/article/details/9360075所有源码在github上,https://github.com/lastsweetop/styhadoop框架简介MapReduce仅仅可以支持Writable做ke...

2013-07-22 21:36:44

阅读数:7989

评论数:2

hadoop深入研究:(十二)——自定义Writable

hadoop虽然已经实现了一些非常有用的Writable,而且你可以使用他们的组合做很多事情,但是如果你想构造一些更加复杂的结果,你可以自定义Writable来达到你的目的,我们以注释的方式对自定义Writable进行讲解(不许说我只帖代码占篇幅哦,姿势写在注释里了)

2013-07-18 19:19:32

阅读数:15983

评论数:12

hadoop深入研究:(十一)——序列化与Writable实现

转载请写明来源地址:所有源码在github上,https://github.com/lastsweetop/styhadoop简介在hadoop中,Writable的实现类是个庞大的家族,我们在这里简单的介绍一下常用来做序列化的一部分。java原生类型除char类型以外,所有的原生类型都有对应的W...

2013-07-17 12:03:30

阅读数:15909

评论数:5

hadoop深入研究:(十)——序列化与Writable接口

序列化和反序列化就是结构化对象和字节流之间的转换,主要用在内部进程的通讯和持久化存储方面。hadoop自身的序列化存储格式就是实现了Writable接口的类,他只实现了前面两点,压缩和快速。但是不容易扩展,也不跨语言。

2013-07-05 01:41:44

阅读数:14728

评论数:3

hadoop深入研究:(九)——mapreduce中的压缩

转载请注明出处:http://blog.csdn.net/lastsweetop/article/details/9187721作为输入 当压缩文件做为mapreduce的输入时,mapreduce将自动通过扩展名找到相应的codec对其解压。作为输出 当mapreduce的输出文件需要压缩时,可...

2013-06-28 09:20:46

阅读数:13960

评论数:2

hadoop深入研究:(八)——codec

转载请注明出处:http://blog.csdn.net/lastsweetop/article/details/9173061所有源码在github上,https://github.com/lastsweetop/styhadoop简介codec其实就是coder和decoder两个单词的词头组...

2013-06-27 12:09:23

阅读数:11319

评论数:3

hadoop深入研究:(七)——压缩

转载请标明出处:hadoop深入研究:(七)——压缩文件压缩主要有两个好处,一是减少了存储文件所占空间,另一个就是为数据传输提速。在hadoop大数据的背景下,这两点尤为重要,那么我现在就先来了解下hadoop中的文件压缩。hadoop里支持很多种压缩格式,我们看一个表格:DEFLATE是同时使用...

2013-06-24 16:27:32

阅读数:10867

评论数:1

hadoop深入研究:(六)——HDFS数据完整性

转载请注明出处:hadoop深入研究:(六)——HDFS数据完整性数据完整性 IO操作过程中难免会出现数据丢失或脏数据,数据传输得量越大出错得几率越高。校验错误最常用得办法就是传输前计算一个校验和,传输后计算一个校验和,两个校验和如果不相同就说明数据存在错误,比较常用得错误校验码是CRC32.hd...

2013-06-24 11:52:03

阅读数:10771

评论数:4

提示
确定要删除当前文章?
取消 删除
关闭
关闭