自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(23)
  • 资源 (2)
  • 收藏
  • 关注

转载 Flume的描述和使用

一,Flume的描述1、Flume的概念Flume是分布式的日志收集系统,它将各个服务器中的数据收集起来并送到指定的地方去,比如说送到HDFS,Kafka,MySql;简单来说flume就是收集日志的。 2、Event的概念   Flume中event的相关概念:Flume的核心是把数据从数据源(source)收集过来,在将收集到的数据送到指定的目的地(sink)。为了保证输送...

2018-07-26 09:55:28 1160

原创 Spark共享变量

Spark共享变量的描述(http://spark.apache.org/docs/1.6.3/programming-guide.html#shared-variables)  Normally, when a function passed to a Spark operation (such as map or reduce) is executed on a remote cluste...

2018-07-25 10:19:10 3025

原创 Strom的描述和安装

一,Strom的特点1,架构:1.1,Nimbus1.2,Supervisor1.3,Worker2.2,编程模型:2.1,DAG2.2,Spout2.3,Bolt3,数据传输:3.1,Zmq         Zmq也是开源的消息传递的框架,虽然叫mq,但它并不是一个message queue,而是一个封装的比较好的3.2,Netty       netty是NIO...

2018-07-23 23:11:01 881

原创 Kafka的描述和安装

一,Kafka的特性1,消息列队的特点2,生产者消费者模式3,先进先出(FIFO)顺序保证4,可靠性保证   4.1,自己不丢数据   4.2,消费者不丢数据:“至少一次,严格一次”5,至少一次就是可能会有两次,会重6,严格一次机制就会负责一点 二,Kafka的架构1,producer:消息生存者2,consumer:消息消费者3,broker:...

2018-07-23 12:10:57 522

原创 Spark的RDD操作和描述_1

本次博客分发三大部分一,Spark的RDD用JAVA的实现二,Spark的RDD的说明三,Spark的Scala的实现1,Map算子1.1 Java代码实现package com.lyl.it;import java.util.Arrays;import java.util.List;import org.apache.spark.SparkConf;impo...

2018-07-19 11:14:50 452

原创 Spark DAG优化的解读

一,Spark专业术语的解析1,Application基于Spark的用户程序,包含了driver程序和集群上的executor2,Driver Program运行main函数并且新建SparkContext的程序3,Cluster Manager在集群上获取资源的外部服务(例如standalone,Mesos,Yarn)4,Worker Node是集群中任何可以运行用代码的节点5...

2018-07-15 16:15:08 2191

原创 Spark RDD容错率描述

1,Spark RDD如果其中的RDD计算错误,重算它会找与之前的RDD2,Spark RDD如果RDD做了缓存策略,计算错误的RDD重算就会从缓存里面找3,Spark RDD如果Lineage过长对RDD做doCheckpoint(),计算错误的RDD重算就会从磁盘里面找到...

2018-07-14 16:44:53 487

原创 Spark缓存策略的优化

一,Spark缓存优化的方案class StorageLevel private( private var _useDisk:Boolean,//缓存磁盘 private var _useMemory:Boolean,//缓存内存 private var _useOffHead:Boolean,//缓存远离堆内存 private var _deserialized:Bool...

2018-07-14 09:12:22 529

原创 Spark运行时程序调度

一,Spark运行时程序调度       1,Spark应用程序会在一个物理节点上有驱动程序(Driver)       2,驱动程序(Driver)会分发每个tasks到Worker节点       3,Worker节点就会返回result到Dirver节点二,Spark程序运行流程      1,分布式文件系统(File system)--加载数据集(RDD)      2,transform...

2018-07-13 22:41:52 232

原创 Spark RDD的概念

Resilient Distributed Dataset :弹性分布式数据集五大特性:1,A list of partitions   是由一系列一片连续的数据组成的;   一个partitions只能是在一个节点上;   一个节点可以有多个partitions;   每个partitions的数据是不一样的;2,A function for computing each split   一般情...

2018-07-11 21:59:51 604

原创 Spark并不都是基于内存计算

大多数的人会认为Spark都是基于内存的计算的,但是基于如下两个情况,Spark会落地于磁盘1,Spark避免不了shuffle2,如果数据过大(比服务器的内存还大)也会落地于磁盘...

2018-07-11 21:06:48 2649

原创 Hadoop角色的作用

NameNode(NN)作用:主要是接受客户端的读写服务但同时也保存metadate信息。                     NameNode保存metadate信息包括                    1,文件owership和permissions                    2,文件包含哪些块                    3,Block保存在哪个DataNod...

2018-07-10 20:27:31 921

原创 如何编写高效的SQL

1,在select子句中只指定必须的列,不要滥用*2,避免在索引列上用函数或表达式避免在索引列上用函数或表达式3,避免使用前置通配符4,若可以用union all,就避免用union若可以用union all,就避免用union5,避免对索引列用not,<>,!=6,尽量用where代替having(需要过滤分组结果时,尽量用Where而非having子句,但where子句中不能使用分...

2018-07-09 13:02:15 262

原创 MapReduce计算框架

下面是MapReduce的流程架构图:下面是MapReduce简单的word count的流程下面是MapReduce简单的word count的代码1,主类import org.apache.hadoop.conf.Configuration;import org.apache.hadoop.fs.FileSystem;import org.apache.hadoop.fs.Path;im...

2018-07-09 11:26:13 291

原创 Spark on Yarn和MapReduce on Yarn区别

  Apache Spark的高性能一定程度上取决于它采用的异步并发模型(这里指server/driver端采用的模型),这与Hadoop 2.X(包括YARN和MapReduce)是一致的。Hadoop2.X自己实现了类似Actor的异步并发模型,实现方式是epoll+状态机,而Apache Spark则直接采用了开源软件Akka,该软件实现了Actor模型,性能非常高。尽管二者在server端...

2018-07-09 10:04:05 936

原创 Hadoop2.X中的描述

一,Hadoop 2.x产生背景1,Hadoop 1.0中HDFS和MapReduce在高可用、扩展性等方面存在问题2,HDFS存在的问题     NameNode单点故障,难以应用于在线场景     NameNode压力过大,且内存受限,影响系统扩展性3,MapReduce存在的问题     JobTracker单点故障     JobTracker访问压力大,影响系统扩展性     难以支持除...

2018-07-08 10:03:57 342

原创 HDFS读写流程

2018-07-07 22:52:55 145

原创 Spark的安装和测试

部署是环境为3台服务器 ,里面安装了相关的hadoop集群,安装的spark1.6.3总共分为如下安装方式1,单机模式测试安装2,Standalone集群模式3,Standalone集群HA模式4,Yarn集群模式 一,单机模式测试安装1,解压安装包[root@hadoop01 bigdata]# pwd/home/tools/bigdata[root@h...

2018-07-07 18:21:08 4523

原创 Liunx保持源数据5天的定时任务

例如:对/home/tuomingftp/data/alarm/目录下的tm_alarm_开头的数据进行的5天的保存1,创建shell脚本[tuomingftp@hadoop02 sh]$ vi auto_del_day5.sh [tuomingftp@hadoop02 sh]$ cat auto_del_day5.sh find /home/tuomingftp/data/alarm -mt...

2018-07-05 21:47:09 210

原创 HDFS中的一些缺点和优点

HDFS优点:一,高容错性1,数据自动保存多个副本2,副本丢失后,自动恢复二,适合批处理1,移动计算而非数据2,数据位置暴露给计算框架三,适合大数据处理1,GB,TB,甚至PB级数据2,百万规模以上的文件数量3,10K+节点四,可构建在廉价机器上1,通过多副本提高可靠性2,提供了容错和恢复机制HDFS缺点:一,低延迟数据访问1,比如毫秒级2,低延迟与高吞吐率二,小文件存取1,占用NameNode大...

2018-07-03 11:20:17 8197

原创 Sqoop的安装和基本应用

本次大数据环境有三个节点,所扮演的角色如下:hadoop01所扮演的角色如下:[root@hadoop01 ~]# jps18186 DataNode18606 DFSZKFailoverController5780 Jps17905 QuorumPeerMain18708 ResourceManager18068 NameNode18400 JournalNode192...

2018-07-03 08:30:54 201

转载 Hbase shell的基本操作

HBase Shell一些基本操作命令的说明:base shell命令  描述 alter修改列族(column family)模式count统计表中行的数量create创建表describe显示表相关的详细信息delete删除指定对象的值(可以为表,行,列对应的值,另外也可以指定时间戳的值)deleteall删除指定行的所有元素值disable使表无效drop删除表enable使表有效exist...

2018-07-02 17:25:33 2509

原创 Hive中关于表join....on....的问题

Hive中关于表join....on....的问题1,判断每张表关联的字段是否唯一或者是多个字段组合关联是否是唯一2,判断每张表关联的字段是否有空值和null   帅选字段为空值的的操作   关联的字段 index is not null   关联的字段 index!=''   关联的字段 index!='null'   关联的字段 index!='NULL'如果字段join...on...用不好...

2018-07-02 10:41:59 1403

XFTP_XSHELL的客户端工具

主要是用来连接Liunx服务器,作为部署和维护服务器的。

2018-07-06

SecureCRT工具

主要是来连接linux服务端工具,作为服务器的维护和开发

2018-07-06

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除