文章目录
基于DirectShow框架的虚拟摄像头开发实现
近期在做相关网络虚拟摄像头的项目,所谓虚拟摄像头是一种虚拟化的软件,可以在电脑上模拟一个网络摄像头给其它应用程序使用。这个模拟出来的摄像头可以使用多种视频来源作为它的视频内容,比如录制好的视频、图片等。该摄像头不受硬件场景的限制,无需任何硬件支持,通过软件模拟来实现。
通常虚拟摄像头有两种实现方案:
- 基于DirectShow框架的虚拟摄像头实现方式。该方式的优点是实现比较简单,直接在用户层就可以实现;但是缺点也很明显,只能支持使用DirectShow框架的应用程序有效。
- 基于驱动的虚拟摄像头实现方式,该方案有两个实现技术,第一种是基于AVStream,第二种是UVC实现。该方案的优点是稳定可靠,兼容性强,可以兼容各种应用程序;缺点就是技术难度复杂。
这里我们分析一下DirectShow框架下的虚拟摄像头的开发。在Windows下面许多应用程序采集摄像头图像依旧使用的是DirectShow技术,因此该技术仍然可以支持大部分的应用程序。
1. 技术分析
DirectShow是微软引入为了解决多媒体的一种方案,举一个例子,如果我们需要对一个视频文件进行播放(包括音频和视频),基本的流程是:
- 读取文件,解析文件格式。
- 对文件中的音频和视频帧进行分离。
- 对视频进行解码解压缩。
- 对视频进行播放(使用各种图形API接口)。
- 对音频内容进行播放。
- 而且需要对音频和视频内容进行同步处理(否则会导致音频和视频不同步)。
这个过程是非常复杂的,给我们的开发带来了很大的难度;为了简化整个过程,微软引入了DirectShow技术,该技术通过对不同步骤引入Filter的概念,由系统提供不同的Filter,开发者只需要通过Filter Graph Mangager将各个Filter组织成Filter Graph来进行多媒体播放。
例如上面的视频的播放我们可以总结为如下几个Filter来实现:
- Source Filter负责文件的读取。
- Splitter Filter负责分离音视频帧。
- DirectSound Filter负责播放音频。
- Decompressor Filter负责解码视频帧。
- Video Render Filter负责渲染视频图像。
这样的化,我们的应用程序只需要将这几个Filter组织连接在一起就可以正常工作了,示意图如下:
当然更加简单的是,DirectShow提供了智能连接Filter的能力,我们甚至不需要知道依赖哪些Filter,框架自动可以给我们连接各个过滤器。例如我们只要如下一句话就可以实现上述整个过程:
pGraph->RenderFile(L"C:\\Example.avi", NULL);
针对上述多媒体例子,DirectShow有更加通用的框架,所有的DirectShow框架都是在此框架展开,该框架主要三个Filter来实现:
- Source Filters实现原始数据流的输入。
- Transform Filters实现数据流的转换处理(可以有音视频分离,解压缩,解码)。
- Rendering Filter负责最终数据的渲染(包括音频播放,视频图像显示)。
整体框架结构大致如下:
2. 摄像头数据的采集
要想虚拟化摄像头,那么就应该了解应用程序是怎么样来采集摄像头数据的,该过程可以分为两个步骤:
- 枚举所有系统的摄像头,并获取采集的Filter。
- 针对该Filter,进行渲染或者文件保存等处理。
我们先来看一下系统设备的枚举过程,示意图如下:
实现方式如下:
HRESULT EnumOnDevice()
{
HRESULT hr = E_FAIL;
ICreateDevEnum* pDevEnum = NULL;
IEnumMoniker* pEnumMoniker = NULL;
IMoniker* pMoniker = NULL;
IBaseFilter* pFilter = NULL;
hr = CoCreateInstance(CLSID_SystemDeviceEnum, NULL, CLSCTX_INPROC, IID_ICreateDevEnum, (void **)&pDevEnum);
if (!SUCCEEDED(hr) || pDevEnum ==</