自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

  • 博客(12)
  • 资源 (2)
  • 收藏
  • 关注

转载 servlet总结

CSDN日报20170707——《稀缺:百分之二的选择》    征文 | 你会为 AI 转型么?    每周荐书 | Android、Keras、ES6(评论送书)[置顶] Servlet入门总结及第一个Servlet程序标签: Servlet入门Helloworld2015-04-20 17:26 25315人阅读 评论(3)收藏举报

2017-07-10 13:43:02 373

转载 Oracle DBA全攻略

Oracle DBA全攻略之一:必备16大技能和经典书籍汇总 一个称职的数据库DBA仅仅取得ORACLE厂家认证是不够的,关键是真实环境的历练,笔者从事ORACLE DBA多年,经历ORACLE版本从8i到10g(注:对于一个公司或单位的真实环境,对于版本的追求首要的,关键的稳定

2011-07-28 18:09:33 935

转载 linux字符集

/etc/sysconfig/i18n  locale 是国际化与本土化过程中的一个非常重要的概念,个人认为,对于中文用户来说,通常会涉及到的国际化或者本土化,大致包含三个方面:看中文,写中文,与 window中文系统的兼容和通信。从实际经验上看来,locale的设定与看中文关系

2011-07-21 13:48:04 947

转载 linux内核参数修改

转载:linux内核参数修改 来源: ChinaUnix博客  日期: 2006.07.10 15:33 (共有0条评论) 我要评论  实时管理 Linux - 使用 /proc 文件系统来控制系统 发布日期:2003-08-16 文摘内容:  -----------------

2011-07-21 13:24:15 915

转载 oracle用户

一、用户与模式 用户:对数据库的访问,需要以适当用户身份通过验证,并具有相关权限来完成一系列动作 SYS用户,缺省始终创建,且未被锁定,拥有数据字典及其关联的所有对象 SYSTEM用户,缺省始终创建,且未被锁定,可以访问数据库内的所有对象 模式

2011-07-20 11:06:53 261

原创 网摘

【第四者新概念】什么叫第四者?就是知识、兴趣、观念相近,相互吸引,相互欣赏的男女,以相互之间的情感为前题,以不影响双方工作、家庭为基础,以相知、相惜、精神享受为主,以吃饭、喝茶、旅游为辅,偶尔也有顺其自然的肌肤之亲。不同于谋求取代的第三者,称第四者。其层次高于红颜知己、蓝颜知己。

2011-07-20 09:13:35 229

原创 oracle表空间维护

用户表空间--表空间改名: --必须在open状态下,system , sysaux 不能改名 ALTER TABLESPACE XXX RENAME TO YYY --表空间的扩容: 表空间的大小由组成它的所有数据文件的大小之和来决定

2011-07-19 15:32:56 678

原创 oracle创建system file表空间

--==============================--Oracle 创建system file表空间--==============================了解相关概念:oracle的sga和pgaOracle数据块原理一、概念 表空间:是一个或多个数

2011-07-19 14:41:07 838

转载 oracle表空间类型

表空间可以按4种方式分类一、按数据文件的类型,分为:大文件表空间(bigfile tablespace)此为10g新增功能小文件表空间(smallfile tablespace)此为创建时默认值大文件表空间的优点有:1、在一个表空间里只有一个大的数据文件,以后不需要再去管理数据文

2011-07-19 11:50:49 680

转载 oracle创建数据库 linux/oracle10g

部分转载:http://blog.csdn.net/robinson_0612/article/details/5478362oracle创建数据库操作环境: linux suse 10上oracle10gOracle提供了DBCA来创建数据库,对于初学者来说使用DBCA创建数据

2011-07-19 10:40:14 852

转载 oracle的sga和pga

转载:oracle中的sga包含了几个主要的部分1.shared pool 共享池2.database buffer cache数据库高速缓冲区3.redo log buffers 重做日志缓冲区4.large pool 大池5.java pooljava池a.shared po

2011-07-19 09:50:28 541

原创 基于linuxsuse10安装db2 8.2.4

基于linuxsuse10安装db2 8.2.4 1,建立用户和组 ,如下:----------------------------------------------------------------------组

2011-07-19 08:22:52 745

Hadoop权威指南(3中文版+4英文版)

第Ⅰ部分 Hadoop基础知识 第1章初识Hadoop 3 1.1 数据!数据! 3 1.2 数据的存储与分析 5 1.3 查询所有数据 6 1.4 不仅仅是批处理 7 1.5 相较于其他系统的优势 8 1.5.1 关系型数据库管理系统 8 1.5.2 网格计算 10 1.5.3 志愿计算 11 1.6 Apache Hadoop发展简史 12 1.7 本书包含的内容 16 第2章关于MapReduce 19 2.1 气象数据集 19 2.2 使用Unix工具来分析数据 21 2.3 使用Hadoop来分析数据 22 2.3.1 map和reduce 23 2.3.2 Java MapReduce 24 2.4 横向扩展 31 2.4.1 数据流 31 2.4.2 combiner函数 35 2.4.3 运行分布式的 MapReduce作业 37 2.5 Hadoop Streaming 37 2.5.1 Ruby版本 38 2.5.2 Python版本 40 第3章 Hadoop分布式文件系统 42 3.1 HDFS的设计 42 3.2 HDFS的概念 44 3.2.1 数据块 44 3.2.2 namenode和datanode 45 3.2.3 块缓存 46 3.2.4 联邦HDFS 47 3.2.5 HDFS的高可用性 47 3.3 命令行接口 50 3.4 Hadoop文件系统 52 3.5 Java接口 56 3.5.1 从Hadoop URL读取 数据 56 3.5.2 通过FileSystem API 读取数据 58 3.5.3 写入数据 61 3.5.4 目录 63 3.5.5 查询文件系统 63 3.5.6 删除数据 68 3.6 数据流 68 3.6.1 剖析文件读取 68 3.6.2 剖析文件写入 71 3.6.3 一致模型 74 3.7 通过distcp并行复制 76 第4章关于YARN 78 4.1 剖析YARN应用运行机制 79 4.1.1 资源请求 80 4.1.2 应用生命期 81 4.1.3 构建YARN应用 81 4.2 YARN与MapReduce 1相比 82 4.3 YARN中的调度 85 4.3.1 调度选项 85 4.3.2 容量调度器配置 87 4.3.3 公平调度器配置 89 4.3.5 延迟调度 93 4.3.5 主导资源公平性 94 4.4 延伸阅读 95 第5章 Hadoop的I/O操作 96 5.1 数据完整性 96 5.1.1 HDFS的数据完整性 97 5.1.2 LocalFileSystem 98 5.1.3 ChecksumFileSystem 98 5.2 压缩 99 5.2.1 codec 100 5.2.2 压缩和输入分片 105 5.2.3 在MapReduce中使用 压缩 106 5.3 序列化 109 5.3.1 Writable接口 110 5.3.2 Writable类 112 5.3.3 实现定制的Writable 集合 121 5.3.4 序列化框架 125 5.4 基于文件的数据结构 127 5.4.1 关于SequenceFile 127 5.4.2 关于MapFile 135 5.4.3 其他文件格式和 面向列的格式 136 第Ⅱ部分关于MapReduce 第6章 MapReduce应用开发 141 6.1 用于配置的API 142 6.1.1 资源合并 143 6.1.2 变量扩展 144 6.2 配置开发环境 144 6.2.1 管理配置 146 6.2.2 辅助类GenericOptionsParser, Tool和ToolRunner 149 6.3 用MRUnit来写单元测试 152 6.3.1 关于Mapper 152 6.3.2 关于Reducer 156 6.4 本地运行测试数据 156 6.4.1 在本地作业运行器上 运行作业 156 6.4.2 测试驱动程序 158 6.5 在集群上运行 160 6.5.1 打包作业 160 6.5.2 启动作业 162 6.5.3 MapReduce的Web 界面 165 6.5.4 获取结果 167 6.5.5 作业调试 168 6.5.6 Hadoop日志 171 6.5.7 远程调试 173 6.6 作业调优 174 6.7 MapReduce的工作流 176 6.7.1 将问题分解成 MapReduce作业 177 6.7.2 关于JobControl 178 6.7.3 关于Apache Oozie 179 第7章 MapReduce的工作机制 184 7.1 剖析MapReduce作业运行 机制 184 7.1.1 作业的提交 185 7.1.2 作业的初始化 186 7.1.3 任务的分配 187 7.1.4 任务的执行 188 7.1.5 进度和状态的更新 189 7.1.6 作业的完成 191 7.2 失败 191 7.2.1 任务运行失败 191 7.2.2 application master 运行失败 193 7.2.3 节点管理器运行失败 193 7.2.4 资源管理器运行失败 194 7.3 shuffle和排序 195 7.3.1 map端 195 7.3.2 reduce端 197 7.3.3 配置调优 199 7.4 任务的执行 201 7.4.1 任务执行环境 201 7.4.2 推测执行 202 7.4.3 关于 OutputCommitters 204 第8章 MapReduce的 类型与格式 207 8.1 MapReduce的类型 207 8.1.1 默认的MapReduce 作业 212 8.1.2 默认的Streaming 作业 216 8.2 输入格式 218 8.2.1 输入分片与记录 218 8.2.2 文本输入 229 8.2.3 二进制输入 233 8.2.4 多个输入 234 8.2.5 数据库输入(和输出) 235 8.3 输出格式 236 8.3.1 文本输出 236 8.3.2 二进制输出 237 8.3.3 多个输出 237 8.3.4 延迟输出 242 8.3.5 数据库输出 242 第9章 MapReduce的特性 243 9.1 计数器 243 9.1.1 内置计数器 243 9.1.2 用户定义的Java 计数器 248 9.1.3 用户定义的Streaming 计数器 251 9.2 排序 252 9.2.1 准备 252 9.2.2 部分排序 253 9.2.3 全排序 255 9.2.4 辅助排序 259 9.3 连接 264 9.3.1 map端连接 266 9.3.2 reduce端连接 266 9.4 边数据分布 270 9.4.1 利用JobConf来配置 作业 270 9.4.2 分布式缓存 270 9.5 MapReduce库类 276 第Ⅲ部分 Hadoop的操作 第10章构建Hadoop集群 279 10.1 集群规范 280 10.1.1 集群规模 281 10.1.2 网络拓扑 282 10.2 集群的构建和安装 284 10.2.1 安装Java 284 10.2.2 创建Unix 用户账号 284 10.2.3 安装Hadoop 284 10.2.4 SSH配置 285 10.2.5 配置Hadoop 286 10.2.6 格式化HDFS 文件 系统 286 10.2.7 启动和停止守护 进程 286 10.2.8 创建用户目录 288 10.3 Hadoop配置 288 10.3.1 配置管理 289 10.3.2 环境设置 290 10.3.3 Hadoop守护进程的 关键属性 293 10.3.4 Hadoop守护进程的 地址和端口 300 10.3.5 Hadoop的其他属性 303 10.4 安全性 305 10.4.1 Kerberos和Hadoop 306 10.4.2 委托令牌 308 10.4.3 其他安全性改进 309 10.5 利用基准评测程序测试 Hadoop集群 311 10.5.1 Hadoop基准评测 程序 311 10.5.2 用户作业 313 第11章管理Hadoop 314 11.1 HDFS 314 11.1.1 永jiu性数据结构 314 11.1.2 安全模式 320 11.1.3 日志审计 322 11.1.4 工具 322 11.2 监控 327 11.2.1 日志 327 11.2.2 度量和JMX(Java 管理扩展) 328 11.3 维护 329 11.3.1 日常管理过程 329 11.3.2 委任和解除节点 331 11.3.3 升级 334 第Ⅳ部分 Hadoop相关开源项目 第12章关于Avro 341 12.1 Avro数据类型和模式 342 12.2 内存中的序列化和 反序列化特定API 347 12.3 Avro数据文件 349 12.4 互操作性 351 12.4.1 Python API 351 12.4.2 Avro工具集 352 12.5 模式解析 352 12.6 排列顺序 354 12.7 关于Avro MapReduce 356 12.8 使用Avro MapReduce 进行排序 359 12.9 其他语言的Avro 362 第13章关于Parquet 363 13.1 数据模型 364 13.2 Parquet文件格式 367 13.3 Parquet的配置 368 13.4 Parquet文件的读/写 369 13.4.1 Avro、Protocol Buffers 和Thrift 371 13.4.2 投影模式和读取 模式 373 13.5 Parquet MapReduce 374 第14章关于Flume 377 14.1 安装Flume 378 14.2 示例 378 14.3 事务和可靠性 380 14.4 HDFS Sink 382 14.5 扇出 385 14.5.1 交付保证 386 14.5.2 复制和复用选择器 387 14.6 通过代理层分发 387 14.7 Sink组 391 14.8 Flume与应用程序的集成 395 14.9 组件编目 395 14.10 延伸阅读 397 第15章关于Sqoop 398 15.1 获取Sqoop 398 15.2 Sqoop连接器 400 15.3 一个导入的例子 401 15.4 生成代码 404 15.5 深入了解数据库导入 405 15.5.1 导入控制 407 15.5.2 导入和一致性 408 15.5.3 增量导入 408 15.5.4 直接模式导入 408 15.6 使用导入的数据 409 15.7 导入大对象 412 15.8 执行导出 414 15.9 深入了解导出功能 416 15.9.1 导出与事务 417 15.9.2 导出和SequenceFile 418 15.10 延伸阅读 419 第16章关于Pig 420 16.1 安装与运行Pig 421 16.1.1 执行类型 422 16.1.2 运行Pig程序 423 16.1.3 Grunt 424 16.1.4 Pig Latin编辑器 424 16.2 示例 425 16.3 与数据库进行比较 428 16.4 PigLatin 429 16.4.1 结构 430 16.4.2 语句 431 16.4.3 表达式 436 16.4.4 类型 437 16.4.5 模式 438 16.4.6 函数 443 16.4.7 宏 445 16.5 用户自定义函数 446 16.5.1 过滤UDF 447 16.5.2 计算UDF 450 16.5.3 加载UDF 452 16.6 数据处理操作 455 16.6.1 数据的加载和存储 455 16.6.2 数据的过滤 455 16.6.3 数据的分组与连接 458 16.6.4 数据的排序 463 16.6.5 数据的组合和切分 465 16.7 Pig实战 465 16.7.1 并行处理 465 16.7.2 匿名关系 466 16.7.3 参数代换 467 16.8 延伸阅读 468 第17章关于Hive 469 17.1 安装Hive 470 Hive的shell环境 471 17.2 示例 472 17.3 运行Hive 473 17.3.1 配置Hive 473 17.3.2 Hive服务 476 17.3.3 Metastore 478 17.4 Hive与传统数据库相比 480 17.4.1 读时模式vs.写时 模式 480 17.4.2 更新、事务和索引 481 17.4.3 其他SQL-on-Hadoop 技术 482 17.5 HiveQL 483 17.5.1 数据类型 484 17.5.2 操作与函数 487 17.6 表 488 17.6.1 托管表和外部表 488 17.6.2 分区和桶 490 17.6.3 存储格式 494 17.6.4 导入数据 498 17.6.5 表的修改 500 17.6.6 表的丢弃 501 17.7 查询数据 501 17.7.1 排序和聚集 501 17.7.2 MapReduce脚本 502 17.7.3 连接 503 17.7.4 子查询 506 17.7.5 视图 507 17.8 用户定义函数 508 17.8.1 写UDF 510 17.8.2 写UDAF 512 17.9 延伸阅读 516 第18章关于Crunch 517 18.1 示例 518 18.2 Crunch核心API 521 18.2.1 基本操作 522 18.2.2 类型 527 18.2.3 源和目标 530 18.2.4 函数 532 18.2.5 物化 535 18.3 管线执行 537 18.3.1 运行管线 538 18.3.2 停止管线 539 18.3.3 查看Crunch计划 540 18.3.4 迭代算法 543 18.3.5 给管线设置检查点 544 18.4 Crunch库 545 18.5 延伸阅读 547 第19章关于Spark 548 19.1 安装Spark 549 19.2 示例 549 19.2.1 Spark应用、作业、 阶段和任务 551 19.2.2 Scala独立应用 552 19.2.3 Java示例 553 19.2.4 Python示例 554 19.3 弹性分布式数据集 555 19.3.1 创建 555 19.3.2 转换和动作 557 19.3.3 持久化 561 19.3.4 序列化 563 19.4 共享变量 564 19.4.1 广播变量 564 19.4.2 累加器 565 19.5 剖析Spark作业运行机制 565 19.5.1 作业提交 566 19.5.2 DAG的构建 566 19.5.3 任务调度 569 19.5.4 任务执行 570 19.6 执行器和集群管理器 570 19.7 延伸阅读 574 第20章关于HBase 575 20.1 HBase基础 575 20.2 概念 576 20.2.1 数据模型的 “旋风之旅” 576 20.2.2 实现 578 20.3 安装 581 20.4 客户端 584 20.4.1 Java 584 20.4.2 MapReduce 588 20.4.3 REST和Thrift 589 20.5 创建在线查询应用 589 20.5.1 模式设计 590 20.5.2 加载数据 591 20.5.3 在线查询 595 20.6 HBase和RDBMS的比较 598 20.6.1 成功的服务 599 20.6.2 HBase 600 20.7 Praxis 601 20.7.1 HDFS 601 20.7.2 用户界面 602 20.7.3 度量 602 20.7.4 计数器 602 20.8 延伸阅读 602 第21章关于ZooKeeper 604 21.1 安装和运行ZooKeeper 605 21.2 示例 607 21.2.1 ZooKeeper中的 组成员关系 608 21.2.2 创建组 608 21.2.3 加入组 611 21.2.4 列出组成员 612 21.2.5 删除组 614 21.3 ZooKeeper服务 615 21.3.1 数据模型 615 21.3.2 操作 618 21.3.3 实现 622 21.3.4 一致性 624 21.3.5 会话 626 21.3.6 状态 628 21.4 使用ZooKeeper来构建 应用 629 21.4.1 配置服务 629 21.4.2 可复原的ZooKeeper 应用 633 21.4.3 锁服务 637 21.4.4 更多分布式数据 结构和协议 639 21.5 生产环境中的ZooKeeper 640 21.5.1 可恢复性和性能 641 21.5.2 配置 642 21.6 延伸阅读 643 第Ⅴ部分案例学习 第22章医疗公司塞纳(Cerner) 的可聚合数据 647 22.1 从多CPU到语义集成 647 22.2 进入Apache Crunch 648 22.3 建立全貌 649 22.4 集成健康医疗数据 651 22.5 框架之上的可组合性 654 22.6 下一步 655 第23章生物数据科学: 用软件拯救生命 657 23.1 DNA的结构 659 23.2 遗传密码:将DNA字符 转译为蛋白质 660 22.3 将DNA想象成源代码 661 23.4 人类基因组计划和参考 基因组 663 22.5 DNA测序和比对 664 23.6 ADAM,一个可扩展的 基因组分析平台 666 23.7 使用Avro接口描述语言进行 自然语言编程 666 23.8 使用Parquet进行面向列的 存取 668 23.9 一个简单例子:用Spark和 ADAM做k-mer计数 669 23.10 从个性化广告到个性化 医疗 672 23.11 联系我们 673 第24章开源项目Cascading 674 24.1 字段、元组和管道 675 24.2 操作 678 24.3 Taps,Schemes和Flows 680 24.4 Cascading实践应用 681 24.5 灵活性 684 24.6 ShareThis中的Hadoop和 Cascading 685 24.7 总结 689 附录A 安装Apache Hadoop 691 附录B 关于CDH 697 附录C 准备NCDC气象数据 699 附录D 新版和旧版Java MapReduce API 702

2018-04-03

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除