kafkaday03

Spark对接Hive(必会)

Spark操作Hive相比较Hive执行的MR,效率要高,因为Spark是基于DAG有向无环图,实现的内存迭代式计算,MR是基于磁盘计算引擎,相比Spark的迭代计算,要慢的多,并且磁盘IO太大,没有太好的优化,Spark是内存处理,速度要快的多,所以使用Spark对接Hive已经成为主流,例如:SparkSQL来实现的数仓操作

实现方式:将Hive中的hive-site.xml文件和hdfs-site.xml、core-site.xml拷贝过来,放入idea中resource中即可

Kafka

消息中间件、消息队列

在这里插入图片描述

Kafka适合什么样的场景?

它可以用于两大类别的应用:

  1. 构造实时流数据管道,它可以在系统或应用之间可靠地获取数据。 (相当于message queue)
  2. 构建实时流式应用程序,对这些流数据进行转换或者影响。 (就是流处理,通过kafka stream topic和topic之间内部进行变化)

kafka的组件:

  1. 消息生产者:Producer,是消息的生产源头,负责生产消息并发送到Kafka服务器上

  2. 消息消费者:Consumer,是消息的使用方,负责消费Kafka服务器上的消息

  3. 主题:Topic,由用户定义在Kafka服务器上面,用于建立生产者和消费者之间的消费关系,生产者生产消息到指定Topic下面,消费者从这个Topic消费数据

  4. 分区:Partition,一个Topic下面会有多个分区主要是做备份,实现高容错性,每个分区都有一台 server 作为 “leader”,零台或者多台server作为 follwers 。leader server 处理一切对 partition (分区)的读写请求,而follwers只需被动的同步leader上的数据。当leader宕机了,followers 中的一台服务器会自动成为新的 leader。每台 server 都会成为某些分区的 leader 和某些分区的 follower,因此集群的负载是平衡的。

  5. Broker:kafka的服务器,用户存储消息,分布式

  6. 消费者组:Group,用于归纳组别,主要是在消费的时候,可以定义多个消费者,同时消费数据,保证在一个组别下即可,注意:消费者组可以消费一个或者多个分区的数据,但是一个分区的数据同一时刻只能被一个消费者来消费,防止重复消费

  7. Offset:消息的偏移量,在消费Kafka分区内数据的时候,Kafka会记录消息消费的偏移量,在内部也会被存储

Kafka集群:

  1. Kafka集群可以保存多种数据类型的数据,每个数据都会保存到Topic下面
  2. Kafka集群可以创建多个Topic,并且每个Topic的分区都有副本机制,可以自己指定
  3. 每个分区的数据是由多个segment组成,里面包含一个或者多个Index文件和.log文件
  4. 每个分区的副本,不会和主分区在一起,会分发到其他节点

ActionMQ、RabbitMQ、Kafka(支持动态扩容)

Kafka的常用命令(0.8):

注意:Kafka1.0以上版本的命令和0.8有些不同

新建主题:

./bin/kafka-topics.sh --create --zookeeper node4:2181 --partitions 3 --replication-factor 3 --topic sz1901

查看主题:

./bin/kafka-topics.sh --list --zookeeper node4:2181

查看主题详情:

./bin/kafka-topics.sh --describe --zookeeper node4:2181 --topic sz1901test

删除主题:

./bin/kafka-topics.sh --delete --zookeeper node4:2181 --topic sz1901test
注意:需要添加相关参数  server.properties中设置delete.topic.enable=true

修改分区数量(只能增加不能减少)

bin/kafka-topics.sh --zookeeper  node4:2181 --alter --partitions 5 --topic sz1901

启动生产者(0.8):

./bin/kafka-console-producer.sh --broker-list node1:9092 --topic sz1901

启动消费者(0.8):

./bin/kafka-console-consumer.sh --zookeeper node4:2181 --topic sz1901 --from-beginning

Kafka文件存储机制

如果我们在往Kafka内部生产数据的话,那么Kafka会根据分区进行分配数据,并且每个分区内都会有一个log文件,和一个Index索引文件,log文件内存储的是消息(数据),而index索引文件,存储的是offset索引信息

Kafka分区和消费者的消费策略

通过轮循的方式将每个分区轮循到相应的消费者组里面的每个消费者身上。

在这里插入图片描述

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
在MATLAB,NURBS(非均匀有理B样条)是一种强大的数学工具,用于表示和处理复杂的曲线和曲面。NURBS在计算机图形学、CAD(计算机辅助设计)、CAM(计算机辅助制造)等领域有着广泛的应用。下面将详细探讨MATLABNURBS的绘制方法以及相关知识点。 我们需要理解NURBS的基本概念。NURBS是B样条(B-Spline)的一种扩展,其特殊之处在于引入了权重因子,使得曲线和曲面可以在不均匀的参数空间进行平滑插值。这种灵活性使得NURBS在处理非均匀数据时尤为有效。 在MATLAB,可以使用`nurbs`函数创建NURBS对象,它接受控制点、权值、 knot向量等参数。控制点定义了NURBS曲线的基本形状,而knot向量决定了曲线的平滑度和分布。权值则影响曲线通过控制点的方式,大的权值会使曲线更靠近该点。 例如,我们可以使用以下代码创建一个简单的NURBS曲线: ```matlab % 定义控制点 controlPoints = [1 1; 2 2; 3 1; 4 2]; % 定义knot向量 knotVector = [0 0 0 1 1 1]; % 定义权值(默认为1,如果未指定) weights = ones(size(controlPoints,1),1); % 创建NURBS对象 nurbsObj = nurbs(controlPoints, weights, knotVector); ``` 然后,我们可以用`plot`函数来绘制NURBS曲线: ```matlab plot(nurbsObj); grid on; ``` `data_example.mat`可能包含了一个示例的NURBS数据集,其可能包含了控制点坐标、权值和knot向量。我们可以通过加载这个数据文件来进一步研究NURBS的绘制: ```matlab load('data_example.mat'); % 加载数据 nurbsData = struct2cell(data_example); % 转换为cell数组 % 解析数据 controlPoints = nurbsData{1}; weights = nurbsData{2}; knotVector = nurbsData{3}; % 创建并绘制NURBS曲线 nurbsObj = nurbs(controlPoints, weights, knotVector); plot(nurbsObj); grid on; ``` MATLAB还提供了其他与NURBS相关的函数,如`evalnurbs`用于评估NURBS曲线上的点,`isoparm`用于生成NURBS曲面上的等参线,以及`isocurve`用于在NURBS曲面上提取特定参数值的曲线。这些工具对于分析和操作NURBS对象非常有用。 MATLAB的NURBS功能允许用户方便地创建、编辑和可视化复杂的曲线和曲面。通过对控制点、knot向量和权值的调整,可以精确地控制NURBS的形状和行为,从而满足各种工程和设计需求。通过深入理解和熟练掌握这些工具,可以在MATLAB环境实现高效的NURBS建模和分析。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值