GStreamer Basic tutorial 学习笔记(七)

多线程处理

目标:GStreamer可以自动处理多线程,但在某些情况下,可能需要手动分离线程。
介绍:GStreamer 是一个多线程框架。这意味着在内部,它根据需要创建和销毁线程,例如将流媒体与应用程序线程分离。此外,插件还可以自由地为它们自己的处理创建线程,例如,视频解码器可以创建 4 个线程以充分利用具有 4 个核心的 CPU。

此外,在构建管道时,应用程序可以显式指定分支(管道的一部分)在不同的线程上运行(例如,使音频和视频解码器同时执行)。

这可以通过使用队列元素来实现。队列元素的工作原理如下:接收端简单地将数据入队并返回控制权。在不同的线程上,数据被出队并向下游推送。此元素还用于缓冲,后续在流媒体教程中会看到。可以通过属性控制队列的大小。

Request pads

在基础教程 3:动态管道中,我们看到了一个元素(uridecodebin),它一开始没有 pad,而是在数据开始流动,并且元素获得媒体信息时出现的。这些被称为“Sometimes Pads”,与随时可用的常规 pad 相对应,后者称为“Always pads”。

第三种类型的 padRequest pads,它是根据需要创建的。经典的例子是 tee 元素,它有一个sink pad 和没有初始化的source pads:它们需要被请求,然后 tee 添加它们。通过这种方式,输入流可以被复制任意多次。缺点是与“Sometimes Pads”连接元素不像与“Always pads”连接那样自动。

注意:在 PLAYINGPAUSED 状态下请求(或释放)pad 时,需要采取额外的注意事项(pad 阻塞),本教程中未描述这些。不过,在 NULLREADY 状态下请求(或释放)pad 是线程安全的。

函数与知识点

  1. AudioTestSrc 属性:可以用来生成基本的音频信号。它支持几种不同的波形,并允许设置基本频率和音量。一些波形可能使用额外的属性。

  2. Wavescope 属性:是一个简单的音频可视化元素。它以示波器的方式渲染波形。

  3. 转换元素(audioconvertaudioresamplevideoconvert)是为了确保管道可以链接起来。事实上,音频和视频输出的Capabilities取决于硬件,在设计时您不知道它们是否与audiotestsrcwavescope产生的Caps匹配。然而,如果Caps匹配,这些元素将处于"直通模式",不会修改信号,对性能几乎没有影响。

  4. freq 介绍:audiotestsrc的属性之一。

    功能:“freq”属性控制波的频率(215Hz可以使波在窗口中几乎静止)。
    注意:此样式和visualshader属性用于使wavescope波连续显示。

  5. gst_element_link_many() 警告:实际上可以链接具有请求pad的元素。它在内部请求了pad,因此不必担心链接的元素是具有Always pads还是Request pads这是不方便的,可能听起来很奇怪,因为您仍然需要在之后释放申请的pads,并且如果pad是通过gst_element_link_many()自动请求的,很容易忘记。

  6. GstPad *gst_element_request_pad_simple (GstElement * element, const gchar * name) 功能:按名称(例如“src_%d”)从元素中检索一个pad。此版本仅检索Request padspad应该使用gst_element_release_request_pad()释放。

    说明:如果pad需要具有特定的名称(例如,名称是“src_1”而不是“src_%u”),则该方法比手动获取pad模板并调用gst_element_request_pad()慢。

  7. GstPad *gst_element_get_static_pad (GstElement * element, const gchar * name) 功能:按名称从元素中检索pad。此版本仅检索已经存在的(即“静态”)pads

  8. GstPadLinkReturn gst_pad_link (GstPad * srcpad, GstPad * sinkpad) 功能:链接source padsink pad

    说明:gst_element_get_static_pad()内部使用了gst_element_link()gst_element_link_many()

cleanup

  1. gst_element_release_request_pad() 解除函数与知识点6的引用。
  2. gst_object_unref() 解除tee的引用。
  • 1
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
好的,我会尽力回答你的问题。关于通过UDP传输音视频,我了解一些相关的知识,下面是一些学习笔记: 1. gstreamer是一个流媒体框架,用于创建、处理和播放多媒体流。它支持多种音视频格式,可以通过插件扩展功能。 2. 通过gstreamer可以使用UDP协议传输音视频数据。UDP协议是一种无连接的协议,不保证数据传输的可靠性和顺序性,但是传输效率高。 3. 首先需要创建一个gstreamer的pipeline,包括音视频源、编码器、UDP发送端等组件。例如: ``` gst-launch-1.0 -v filesrc location=test.mp4 ! decodebin ! x264enc ! rtph264pay ! udpsink host=192.168.1.100 port=5000 ``` 这个pipeline的作用是从test.mp4文件读取音视频流,解码后使用x264编码器进行压缩,然后使用rtph264pay将数据打包成RTP数据包,最后通过udpsink发送到指定的IP地址和端口。 4. 接收端需要创建一个gstreamer的pipeline,包括UDP接收端、解包器、解码器等组件。例如: ``` gst-launch-1.0 -v udpsrc port=5000 ! application/x-rtp, payload=96 ! rtpjitterbuffer ! rtph264depay ! avdec_h264 ! autovideosink ``` 这个pipeline的作用是从UDP端口5000接收音视频数据,使用rtpjitterbuffer解决网络抖动问题,使用rtph264depay将RTP数据包解包成原始的H.264数据流,然后使用avdec_h264解码器进行解码,最后使用autovideosink播放视频。 5. 在实际使用过程中,还需要考虑数据的带宽限制、网络延迟等问题,以保证音视频传输的效果。 希望这些笔记能对你有帮助。如果你还有其他问题,可以继续问我。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

清墨韵染

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值