自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(4)
  • 资源 (2)
  • 收藏
  • 关注

原创 云存储数据的一般完整性验证

最近毕设做的是云存储数据的完整性研究,因而现在对这里有了一点了解,现在把自己的理解写下来,也是为了加深理解吧! 数据的完整性验证是指验证收到的数据和原来的数据是否保持完全一致的证明手段成为完整性验证。完整性验证也分为一般完整性验证和远程完整性验证,一般完整性验证是指从服务器中读出的数据和之前写入的数据是否一致,验证方法是基于用户访问的。最初的一般完整性验证中,就是需要从服务器上面下载数据到本地然

2015-05-15 12:12:19 3894

原创 菜鸟的hadoop的学习笔记--HDFS笔记

本人纯属菜鸟,写这个博客目的主要是为了加深理解,高手勿喷! MapReduce的补充:完整的Map/Reduce的作业过程会把输入的数据分成很多独立的块,Map任务以完全独立的方式来处理他们,Map处理后的中间结果会被排序,然后分组进入到Reduce任务中,作业的输入输出都会放在文件系统中,Map/Reduce框架和HDFS运行在相同的节点,那么计算和存储操作都会在同一个节点上面进行。Mas

2015-05-14 22:16:51 442

原创 hadoop菜鸟学习笔记--MapReduce笔记

MapReduce处理大数据集的过程是把大数据集分解成为成百上千个小数据集,每个数据集分别由整个HDFS集群中一个节点进行处理并生成中间结果,然后将这些中间结果又由大量的节点合并,形成最终结果。其原理是 1、数据的分布式存储 HDFS和普通的文件系统一据,每一份Block还会复制成数份数据存储到不同的DataNode上,而NameNode成为整个HDFS的核心,它通过维护一些数据结构来记录每一

2015-05-14 16:22:48 495

原创 hadoop菜鸟的学习笔记---Hadoop体系结构

语言是表达思想最有利的武器! HDFS和MapReduce是Hadoop体系结构的核心,HDFS在集群上实现了分布式文件系统,MapReduce在集群上实现了分布式计算和处理任务。HDFS在MapReduce任务处理过程中提供了对文件操作和存储的支持,MapReduce在HDFS基础上实现了任务的分发、跟踪、执行等工作,并收集结果。 HDFS采用了主从Master/Slave结构模型,HDFS

2015-05-14 15:36:04 425

2ask与2dpsk仿真系统的设计

一个在MATLAB中实现的2ask与2dpsk的仿真与设计,如果有需要的朋友可以看一下

2012-01-05

用c语言编写的留言板程序

c语言编写的CGI留言版程序,如果有谁对c开发的留言板程序有兴趣,可以看一下在

2011-04-28

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除