最简单的视音频播放演示样例3:Direct3D播放YUV,RGB(通过Surface)

=====================================================

最简单的视音频播放演示样例系列文章列表:

最简单的视音频播放演示样例1:总述

最简单的视音频播放演示样例2:GDI播放YUV, RGB

最简单的视音频播放演示样例3:Direct3D播放YUV。RGB(通过Surface)

最简单的视音频播放演示样例4:Direct3D播放RGB(通过Texture)

最简单的视音频播放演示样例5:OpenGL播放RGB/YUV

最简单的视音频播放演示样例6:OpenGL播放YUV420P(通过Texture,使用Shader)

最简单的视音频播放演示样例7:SDL2播放RGB/YUV

最简单的视音频播放演示样例8:DirectSound播放PCM

最简单的视音频播放演示样例9:SDL2播放PCM

=====================================================


上一篇文章记录了GDI播放视频的技术。

打算接下来写两篇文章记录Direct3D(简称D3D)播放视频的技术。Direct3D应该Windows下最经常使用的播放视频的技术。实际上视频播放仅仅是Direct3D的“副业”。它主要用于3D游戏制作。当前主流的游戏差点儿都是使用Direct3D制作的,比如《地下城与勇士》。《穿越火线》,《英雄联盟》。《魔兽世界》,《QQ飞车》等等。使用Direct3D能够用两种方式渲染视频:Surface和Texture。

使用Surface相对来说比使用Texture要简单一些,可是不如使用Texture灵活。鉴于使用Surface更加easy上手,本文记录使用Direct3D中的Surface显示视频的技术。下一篇文章再记录使用Direct3D中的Texture显示视频的技术。

 

Direct3D简单介绍

以下下简单记录一下背景知识。摘录改动了维基上的一部分内容(维基上这部分叙述貌似非常不准确…):

Direct3D(简称:D3D)是微软公司在Microsoft Windows系统上开发的一套3D画图API,是DirectX的一部份,眼下广为各家显示卡所支援。1995年2月,微软收购了英国的Rendermorphics公司。将RealityLab 2.0技术发展成Direct3D标准,并整合到Microsoft Windows中。Direct3D在DirectX 3.0開始出现。后来在DirectX 8.0发表时与DirectDraw编程介面合并并改名为DirectX Graphics。Direct3D与Windows GDI是同层级组件。它能够直接调用底层显卡的功能。

与OpenGL同为电脑画图软件和电脑游戏最常使用的两套画图API。

抽象概念

Direct3D的抽象概念包括:Devices(设备)。Swap Chains(交换链)和Resources(资源)。



Device(设备)用于渲染3D场景。比如单色设备就会渲染黑白图片。而彩色设备则会渲染彩色图片。

Device眼下我自己了解的有以下2类(还有其它类型。但不是非常熟):

HAL(Hardware Abstraction Layer):支持硬件加速的设备。在全部设备中执行速度是最快的。也是最经常使用的。
Reference:模拟一些硬件还不支持的新功能。

换言之。就是利用软件。在CPU对硬件渲染设备的一个模拟。

每一个Device至少要有一个Swap Chain(交换链)。一个Swap Chain由一个或多个Back Buffer Surfaces(后台缓冲表面)组成。渲染在Back Buffer中完毕。
此外,Device包括了一系列的Resources(资源),用于定义渲染时候的数据。每一个Resources有4个属性:
Type:描写叙述Resource的类型。比如surface, volume, texture, cube texture。 volume texture, surface texture, index buffer 或者vertex buffer。
Usage:描写叙述Resource怎样被使用。比如指定Resource是以仅仅读方式调用还是以可读写的方式调用。
Format:数据的格式。比方一个二维表面的像素格式。比如,D3DFMT_R8G8B8的Format表明了数据格式是24 bits颜色深度的RGB数据。


Pool:描写叙述Resource怎样被管理和存储。

默认的情况下Resource会被存储在设备的内存(比如显卡的显存)中。

也能够指定Resource存储在系统内存中。

渲染流水线(rendering pipeline)

Direct3D API定义了一组Vertices(顶点), Textures(纹理), Buffers(缓冲区)转换到屏幕上的流程。

这种流程称为Rendering Pipeline(渲染流水线),它的各阶段包括:


Input Assembler(输入组装):从应用程序里读取vertex数据,将其装进流水线。
Vertex Shader(顶点着色器):对每一个顶点属性进行着色。

每次处理一个顶点,比方变换、贴图、光照等。注意这个地方可能须要自己编程。
Geometry Shader(几何着色器): Shader Model 4.0引进了几何着色器,处理点、线、面的几何坐标变换。此处我自己还不是非常了解。

PS:上述处理完后的数据能够理解为以下图片。

即包括顶点信息,但不包括颜色信息。


Stream Output(流输出):将Vertex Shader和Geometry Shader处理完毕的数据输出给使用者。
Rasterizer(光栅化): 把算完的顶点转成像素,再将像素(pixels)输出给Pixel Shader。这里也可执行其它工作,比方像素数据的分割,插值等。

PS:光栅化的过程能够理解为下图。即把顶点转换成像素。


Pixel Shader(像素着色器):对每一个像素进行着色。注意这个地方可能须要自己编程。


Output Merger(输出混合):整合各种不同的数据,输出最后结果。

视频显示的基础知识

在记录Direct3D的视频显示技术之前,首先记录一下视频显示的基础知识。我自己归纳总结了以下几点知识。

1. 三角形

在Direct3D中经常会出现“三角形”这个概念。

这是由于在3D图形渲染中,全部的物体都是由三角形构成的。由于一个三角形能够表示一个平面,而3D物体就是由一个或多个平面构成的。比方下图表示了一个非常复杂的3D地形。它们也只是是由许很多多三角形表示的。



因此我们仅仅要指定一个或多个三角形。就能够表示随意3D物体。

2. 后台缓冲表面,前台表面。交换链,离屏表面

后台缓冲表面和前台表面的概念总是同一时候出现的。简单解释一下它们的作用。当我们进行复杂的画图操作时,画面可能有明显的闪烁。这是由于绘制的东西没有同一时候出如今屏幕上而导致的。“前台表面”+“后台缓冲表面”的技术能够解决问题。前台表面即我们看到的屏幕。后台缓冲表面则在内存当中,对我们来说是不可见的。每次的全部画图操作不是在屏幕上直接绘制,而是在后台缓冲表面中进行,当绘制完毕后。须要的时候再把绘制的终于结果显示到屏幕上。

这样就攻克了上述的问题。

实际上。上述技术还涉及到一个“交换链”(Swap Chain)的概念。所谓的“链”,指的是一系列的表面组成的一个合集。这些表面中有一个是前台表面(显示在屏幕上),剩下的都是后台缓冲表面。事实上,简单的交换链不须要非常多表面,仅仅要两个就能够了(尽管感觉不像“链”)。一个后台缓冲表面。一个前台表面。所谓的“交换”,即是在须要呈现后台缓冲表面中的内容的时候,交换这两个表面的“地位”。

即前台表面变成后台缓冲表面,后台缓冲表面变成前台表面。如此一来,后台缓冲表面的内容就呈如今屏幕上了。原先的前台表面。则扮演起了新的后台缓冲表面的角色,准备进行新的画图操作。当下一次须要显示画面的时候,这两个表面再次交换,如此循环往复,永不停止。


此外。还有一个离屏表面。离屏表面是永远看不到的表面(所谓“离屏”),它通常被用来存放位图,并对当中的数据做一些处理。

本文介绍的样例中就用到了一个离屏表面。通常的做法是把离屏表面上的位图拷贝到后台缓冲表面。后台缓冲表面再显示到前台表面。

安装DirectX SDK

使用Direct3D开发之前须要安装DirectX SDK。安装没有难度。一路“Next”就可以。

Microsoft DirectX SDK (June 2010)下载地址:
http://www.microsoft.com/en-us/download/details.aspx?

id=6812


使用VC进行开发的时候。须要在项目的“属性”对话框中配置头文件和库:
头文件配置:C/C++->常规->附加包括文件夹
库文件配置:
(a)链接器->常规->附加库文件夹。
(b)链接器->输入->附加依赖项(填写一个d3d9.lib)
编程的时候,加入头文件后就可以使用:

#include <d3d9.h>

D3D视频显示的流程

有关Direct3D的知识的介绍还有非常多,在这里就不再记录了。正如那句俗话:“Talk is cheap, show me the code.”。光说理论还是会给人一种没有“脚踏实地”的感觉。下文将会结合代码记录Direct3D中使用Surface渲染视频的技术。

使用Direct3D的Surface播放视频普通情况下须要例如以下步骤:

1. 创建一个窗体(不属于D3D的API)
2. 初始化
1) 创建一个Device 
2) 基于Device创建一个Surface(离屏表面)
3. 循环显示画面
1) 清理
2) 一帧视频数据拷贝至 Surface
3) 開始一个Scene
4) Surface数据拷贝至 后台缓冲表面
5) 结束Scene
6) 显示( 后台缓冲表面-> 前台表面

以下结合Direct3D播放YUV/RGB的演示样例代码,具体分析一下上文的流程。

1. 创建一个窗体(不属于D3D的API)

建立一个Win32的窗体程序,就能够用于Direct3D的显示。

程序的入口函数是WinMain()。调用CreateWindow()就可以创建一个窗体。

这一步是必须的,不然Direct3D绘制的内容就没有地方显示了。

此处不再详述。

2. 初始化

1) 创建一个Device

这一步完毕的时候。能够得到一个IDirect3DDevice9接口的指针。创建一个Device又能够分成以下几个具体的步骤:
(a) 通过 Direct3DCreate9()创建一个IDirect3D9接口。


获取IDirect3D9接口的关键实现代码仅仅有一行:
IDirect3D9 *m_pDirect3D9 = Direct3DCreate9( D3D_SDK_VERSION );


IDirect3D9接口是一个代表我们显示3D图形的物理设备的C++对象。它能够用于获得物理设备的信息和创建一个IDirect3DDevice9接口。比如,能够通过它的GetAdapterDisplayMode()函数获取当前主显卡输出的分辨率,刷新频率等參数,实现代码例如以下。

D3DDISPLAYMODE d3dDisplayMode;
lRet = m_pDirect3D9->GetAdapterDisplayMode( D3DADAPTER_DEFAULT, &d3dDisplayMode );

由代码能够看出,获取的信息存储在D3DDISPLAYMODE结构体中。

D3DDISPLAYMODE结构体中包括了主显卡的分辨率等信息:

/* Display Modes */
typedef struct _D3DDISPLAYMODE
{
    UINT            Width;
    UINT            Height;
    UINT            RefreshRate;
    D3DFORMAT       Format;
} D3DDISPLAYMODE;


也能够用它的GetDeviceCaps()函数搞清楚主显卡是否支持硬件顶点处理,实现的代码例如以下。
	D3DCAPS9 d3dcaps;
	lRet=m_pDirect3D9->GetDeviceCaps(D3DADAPTER_DEFAULT,D3DDEVTYPE_HAL,&d3dcaps);
	int hal_vp = 0;
	if( d3dcaps.DevCaps & D3DDEVCAPS_HWTRANSFORMANDLIGHT ){
		// yes, save in ‘vp’ the fact that hardware vertex
		// processing is supported.
		hal_vp = D3DCREATE_HARDWARE_VERTEXPROCESSING;
	}


由代码能够看出,获取的设备信息存储在D3DCAPS9结构体中。

D3DCAPS9定义比較长包括了各种各样的信息,不再列出来。从该结构体的DevCaps字段能够推断得出该设备是否支持硬件顶点处理。
(b) 设置D3DPRESENT_PARAMETERS结构体,为创建Device做准备。
接下来填充一个D3DPRESENT_PARAMETERS结构的实例。这个结构用于设定我们将要创建的IDirect3DDevice9对象的一些特性。它的定义例如以下。

typedef struct _D3DPRESENT_PARAMETERS_
{
    UINT                BackBufferWidth;
    UINT                BackBufferHeight;
    D3DFORMAT           BackBufferFormat;
    UINT                BackBufferCount;


    D3DMULTISAMPLE_TYPE MultiSampleType;
    DWORD               MultiSampleQuality;


    D3DSWAPEFFECT       SwapEffect;
    HWND                hDeviceWindow;
    BOOL                Windowed;
    BOOL                EnableAutoDepthStencil;
    D3DFORMAT           AutoDepthStencilFormat;
    DWORD               Flags;


    /* FullScreen_RefreshRateInHz must be zero for Windowed mode */
    UINT                FullScreen_RefreshRateInHz;
    UINT                PresentationInterval;
} D3DPRESENT_PARAMETERS;

D3DPRESENT_PARAMETERS这个结构体比較重要。具体列一下它每一个參数的含义:
BackBufferWidth:后台缓冲表面的宽度(以像素为单位)。
BackBufferHeight:后台缓冲表面的高度(以像素为单位)。
BackBufferFormat:后台缓冲表面的像素格式(比如:32位像素格式为D3DFMT:A8R8G8B8)。


BackBufferCount:后台缓冲表面的数量。通常设为“1”。即仅仅有一个后备表面。
MultiSampleType:全屏抗锯齿的类型,显示视频没用到,不具体分析。
MultiSampleQuality:全屏抗锯齿的质量等级,显示视频没用到。不具体分析。
SwapEffect:指定表面在交换链中是怎样被交换的。支持以下取值:
*D3DSWAPEFFECT_DISCARD:后台缓冲表面区的东西被拷贝到屏幕上后,后台缓冲表面区的东西就没有什么用了,能够丢弃了。
*D3DSWAPEFFECT_FLIP: 后台缓冲表面拷贝到前台表面。保持后台缓冲表面内容不变。当后台缓冲表面大于1个时使用。
*D3DSWAPEFFECT_COPY: 同上。当后台缓冲表面等于1个时使用。


一般使用D3DSWAPEFFECT_DISCARD。


hDeviceWindow:与设备相关的窗体句柄。你想在哪个窗体绘制就写那个窗体的句柄
Windowed:BOOL型,设为true则为窗体模式,false则为全屏模式
EnableAutoDepthStencil:设为true。D3D将自己主动创建深度/模版缓冲。


AutoDepthStencilFormat:深度/模版缓冲的格式
Flags:一些附加特性
FullScreen_RefreshRateInHz:刷新率,设定D3DPRESENT_RATE_DEFAULT使用默认刷新率
PresentationInterval:设置刷新的间隔,能够用以下方式:
*D3DPRENSENT_INTERVAL_DEFAULT,则说明在显示一个渲染画面的时候必要等候显示器刷新完一次屏幕。比如显示器刷新率设为80Hz的话,则一秒最多能够显示80个渲染画面。
*D3DPRENSENT_INTERVAL_IMMEDIATE:表示能够以实时的方式来显示渲染画面。


以下列出使用Direct3D播放视频的时候D3DPRESENT_PARAMETERS的一个最简单的设置。

//D3DPRESENT_PARAMETERS Describes the presentation parameters.
D3DPRESENT_PARAMETERS d3dpp; 
ZeroMemory( &d3dpp, sizeof(d3dpp) );
d3dpp.Windowed = TRUE;
d3dpp.SwapEffect = D3DSWAPEFFECT_DISCARD;
d3dpp.BackBufferFormat = D3DFMT_UNKNOWN;

(c) 通过IDirect3D9的CreateDevice ()创建一个Device。

最后就能够调用IDirect3D9的CreateDevice()方法创建Device了。

CreateDevice()的函数原型例如以下:

HRESULT CreateDevice(
UINT Adapter,
D3DDEVTYPE DeviceType,
HWND hFocusWindow,
DWORD BehaviorFlags,
D3DPRESENT_PARAMETERS *pPresentationParameters,
IDirect3DDevice9** ppReturnedDeviceInterface
);

当中每一个參数的含义例如以下所列:

Adapter:指定对象要表示的物理显示设备。D3DADAPTER_DEFAULT始终是基本的显示器适配器。

DeviceType:设备类型,包括D3DDEVTYPE_HAL(Hardware Accelerator,硬件加速)、D3DDEVTYPE_SW(SoftWare,软件)。
hFocusWindow:同我们在前面d3dpp.hDeviceWindow的同样
BehaviorFlags:设定为D3DCREATE_SOFTWARE_VERTEXPROCESSING(软件顶点处理)或者D3DCREATE_HARDWARE_VERTEXPROCESSING(硬件顶点处理),使用前应该用D3DCAPS9来检測用户计算机是否支持硬件顶点处理功能。


pPresentationParameters:指定一个已经初始化好的D3DPRESENT_PARAMETERS实例
ppReturnedDeviceInterface:返回创建的Device


以下列出使用Direct3D播放视频的时候CreateDevice()的一个典型的代码。

IDirect3DDevice9 *m_pDirect3DDevice;
D3DPRESENT_PARAMETERS d3dpp;
…
m_pDirect3D9->CreateDevice( D3DADAPTER_DEFAULT, D3DDEVTYPE_HAL,hwnd,
		D3DCREATE_SOFTWARE_VERTEXPROCESSING,
		&d3dpp, &m_pDirect3DDevice );

2) 基于Device创建一个Surface

通过IDirect3DDevice9接口的CreateOffscreenPlainSurface ()方法就可以创建一个Surface(离屏表面。所谓的“离屏”指的是永远不在屏幕上显示)。CreateOffscreenPlainSurface ()的函数原型例如以下所看到的:

HRESULT CreateOffscreenPlainSurface(UINT width,
 UINT height,
 D3DFORMAT format,
 D3DPOOL pool,
 IDirect3DSurface9 ** result,
 HANDLE * unused
 );

当中每一个參数的含义例如以下所列:

Width:离屏表面的宽。


Height:离屏表面的高。
Format:离屏表面的像素格式(比如:32位像素格式为D3DFMT_A8R8G8B8)
Pool:D3DPOOL定义了资源相应的内存类型,比如例如以下几种类型。


D3D3POOL_DEFAULT: 默认值。表示存在于显卡的显存中。
D3D3POOL_MANAGED:由Direct3D自由调度内存的位置(显存或者缓存中)。


D3DPOOL_SYSTEMMEM: 表示位于内存中。
Result:返回创建的Surface。
Unused:还未研究。

以下给出一个使用Direct3D播放视频的时候CreateTexture()的典型代码。该代码创建了一个像素格式为YV12的离屏表面,存储于显卡的显存中。

IDirect3DDevice9 * m_pDirect3DDevice;
IDirect3DSurface9 *m_pDirect3DSurfaceRender;
…
m_pDirect3DDevice->CreateOffscreenPlainSurface(
		lWidth,lHeight,
		(D3DFORMAT)MAKEFOURCC('Y', 'V', '1', '2'),
		D3DPOOL_DEFAULT,
		&m_pDirect3DSurfaceRender,
		NULL);

创建Surface完毕之后。初始化工作就完毕了。

3. 循环显示画面

循环显示画面就是一帧一帧的读取YUV/RGB数据,然后显示在屏幕上的过程,以下详述一下步骤。

1) 清理

在显示之前。通过IDirect3DDevice9接口的Clear()函数能够清理Surface。个人感觉在播放视频的时候用不用这个函数都能够。由于视频本身就是全屏显示的。显示下一帧的时候自然会覆盖前一帧的全部内容。Clear()函数的原型例如以下所看到的:

HRESULT Clear(
 DWORD Count,
 const D3DRECT *pRects,
 DWORD Flags,
 D3DCOLOR Color,
 float Z,
 DWORD Stencil
);

当中每一个參数的含义例如以下所列:

Count:说明你要清空的矩形数目。假设要清空的是整个客户区窗体,则设为0; 
 pRects:这是一个D3DRECT结构体的一个数组。假设count中设为5。则这个数组中就得有5个元素。 
 Flags:一些标记组合。仅仅有三种标记:D3DCLEAR_STENCIL , D3DCLEAR_TARGET , D3DCLEAR_ZBUFFER。 
 Color:清除目标区域所使用的颜色。 
 float:设置Z缓冲的Z初始值。Z缓冲还没研究过。

 
 Stencil:这个在播放视频的时候也没实用到。

以下给出一个使用Direct3D播放视频的时候IDirect3DDevice9的Clear()的典型代码。

IDirect3DDevice9 *m_pDirect3DDevice;
m_pDirect3DDevice->Clear(0, NULL, D3DCLEAR_TARGET, D3DCOLOR_XRGB(0, 0, 255), 1.0f, 0);

上述代码执行完后。屏幕会变成蓝色(R,G,B取值为0,0,255)。



2) 一帧视频数据拷贝至Surface

操作Surface的像素数据,须要使用IDirect3DSurface9的LockRect()和UnlockRect()方法。

使用LockRect()锁定纹理上的一块矩形区域,该矩形区域被映射成像素数组。利用函数返回的D3DLOCKED_RECT结构体。能够对数组中的像素进行直接存取。LockRect()函数原型例如以下。

HRESULT LockRect(
  D3DLOCKED_RECT *pLockedRect,
  const RECT *pRect,
  DWORD Flags
);

每一个參数的意义例如以下:

pLockedRect: 返回的一个D3DLOCKED_RECT结构体用于描写叙述被锁定的区域。
pRect: 使用一个 RECT结构体指定须要锁定的区域。

假设为NULL的话就是整个区域。


Flags: 临时还没有细研究。

当中D3DLOCKED_RECT结构体定义例如以下所看到的。

typedef struct _D3DLOCKED_RECT
{
    INT                 Pitch;
    void*               pBits;
} D3DLOCKED_RECT;

两个參数的意义例如以下:
Pitch:surface中一行像素的数据量(Bytes)。注意这个的值并不一定等于实际像素数据一行像素的数据量(一般会大一些),它取值通常是4的整数倍。
pBits:指向被锁定的数据。

使用LockRect()函数之后。就能够对其返回的D3DLOCKED_RECT中的数据进行操作了。比如memcpy()等。

操作完毕后,调用UnlockRect()方法。



以下给出一个使用Direct3D的Surface播放视频的时候IDirect3DSurface9的数据拷贝的典型代码。该代码拷贝了YUV420P的数据至Surface。

IDirect3DSurface9 *m_pDirect3DSurfaceRender;
HRESULT lRet;
...
D3DLOCKED_RECT d3d_rect;
lRet=m_pDirect3DSurfaceRender->LockRect(&d3d_rect,NULL,D3DLOCK_DONOTWAIT);
if(FAILED(lRet))
	return -1;
byte *pSrc = buffer;
byte * pDest = (BYTE *)d3d_rect.pBits;
int stride = d3d_rect.Pitch;
unsigned long i = 0;

//Copy Data (YUV420P)
for(i = 0;i < pixel_h;i ++){
	memcpy(pDest + i * stride,pSrc + i * pixel_w, pixel_w);
}
for(i = 0;i < pixel_h/2;i ++){
	memcpy(pDest + stride * pixel_h + i * stride / 2,pSrc + pixel_w * pixel_h + pixel_w * pixel_h / 4 + i * pixel_w / 2, pixel_w / 2);
}
for(i = 0;i < pixel_h/2;i ++){
	memcpy(pDest + stride * pixel_h + stride * pixel_h / 4 + i * stride / 2,pSrc + pixel_w * pixel_h + i * pixel_w / 2, pixel_w / 2);
}

lRet=m_pDirect3DSurfaceRender->UnlockRect();

3) 開始一个Scene
使用IDirect3DDevice9接口的BeginScene()開始一个Scene。Direct3D中规定全部绘制方法都必须在BeginScene()和EndScene()之间完毕。这个函数没有參数。

4) Surface数据拷贝至后台缓冲表面
使用IDirect3DDevice9接口的GetBackBuffer() 能够获得后台缓冲表面。

然后使用StretchRect()方法能够将Surface的数据拷贝至后台缓冲表面中。等待显示。

GetBackBuffer()函数原型例如以下。

HRESULT GetBackBuffer(
  UINT  iSwapChain, 
  UINT  BackBuffer, 
  D3DBACKBUFFER_TYPE Type,
  IDirect3DSurface9 ** ppBackBuffer 
);

函数中參数含义例如以下:

iSwapChain:指定正在使用的交换链索引。
BackBuffer:后台缓冲表面索引。
Type:后台缓冲表面的类型。


ppBackBuffer:保存后台缓冲表面的LPDIRECT3DSURFACE9对象。


StretchRect()能够将一个矩形区域的像素从设备内存的一个Surface转移到还有一个Surface上。StretchRect()函数的原型例如以下。

HRESULT StretchRect(
  IDirect3DSurface9 * pSourceSurface,
  CONST RECT * pSourceRect,
  IDirect3DSurface9 * pDestSurface,
  CONST RECT * pDestRect,
  D3DTEXTUREFILTERTYPE Filter
);

函数中參数含义例如以下:
pSourceSurface:指向源Surface的指针。
pSourceRect:使用一个 RECT结构体指定源Surface须要复制的区域。假设为NULL的话就是整个区域。
pDestSurface:指向目标Surface的指针。


pDestRect:使用一个 RECT结构体指定目标Surface的区域。
Filter:设置图像大小变换的时候的插值方法。

比如:
D3DTEXF_POINT:邻域法。

质量较差。
D3DTEXF_LINEAR:线性插值,最经常使用。

以下给出的代码将离屏表面的数据传给了后台缓冲表面。

一但传给了后台缓冲表面。就能够用于显示了。

IDirect3DDevice9 *m_pDirect3DDevice;
IDirect3DSurface9 *m_pDirect3DSurfaceRender;
IDirect3DSurface9 * pBackBuffer;


m_pDirect3DDevice->GetBackBuffer(0,0,D3DBACKBUFFER_TYPE_MONO,&pBackBuffer);
m_pDirect3DDevice->StretchRect(m_pDirect3DSurfaceRender,NULL,pBackBuffer,&m_rtViewport,D3DTEXF_LINEAR);


5) 结束Scene
EndScene()和BeginScene()是成对出现的,不再解释。


6) 显示

使用IDirect3DDevice9接口的Present ()显示结果。Present ()的原型例如以下。

HRESULT Present(
   const RECT *pSourceRect,
   const RECT *pDestRect,
   HWND hDestWindowOverride,
   const RGNDATA *pDirtyRegion
  );

几个參数的意义例如以下:

pSourceRect:你想要显示的后台缓冲表面区的一个矩形区域。

设为NULL则表示要把整个后台缓冲表面区的内容都显示。 
pDestRect:表示一个显示区域。

设为NULL表示整个客户显示区。 
hDestWindowOverride:你能够通过它来把显示的内容显示到不同的窗体去。

设为NULL则表示显示到主窗体。 
pDirtyRegion:一般设为NULL

以下给出一个使用Direct3D播放视频的时候IDirect3DDevice9的Present ()的典型代码。从代码能够看出。全部设置为NULL就能够了。

IDirect3DDevice9 *m_pDirect3DDevice;
…
m_pDirect3DDevice->Present( NULL, NULL, NULL, NULL );

播放视频流程总结

文章至此,使用Direct3D显示YUV/RGB的全部流程就记录完毕了。最后贴一张图总结上述流程。

 

代码

完整的代码例如以下所看到的。

/**
 * 最简单的Direct3D播放视频的样例(Direct3D播放RGB/YUV)[Surface]
 * Simplest Video Play Direct3D (Direct3D play RGB/YUV)[Surface]
 *
 * 雷霄骅 Lei Xiaohua
 * leixiaohua1020@126.com
 * 中国传媒大学/数字电视技术
 * Communication University of China / Digital TV Technology
 * http://blog.csdn.net/leixiaohua1020
 *
 * 本程序使用Direct3D播放RGB/YUV视频像素数据。使用D3D中的Surface渲染数据。

* 使用Surface渲染视频相对于还有一种方法(使用Texture)来说,更加简单,适合 * 新手学习。 * 函数调用过程例如以下: * * [初始化] * Direct3DCreate9():获得IDirect3D9 * IDirect3D9->CreateDevice():通过IDirect3D9创建Device(设备)。 * IDirect3DDevice9->CreateOffscreenPlainSurface():通过Device创建一个Surface(离屏表面)。 * * [循环渲染数据] * IDirect3DSurface9->LockRect():锁定离屏表面。 * memcpy():填充数据 * IDirect3DSurface9->UnLockRect():解锁离屏表面。

* IDirect3DDevice9->BeginScene():開始绘制。 * IDirect3DDevice9->GetBackBuffer():获得后备缓冲。 * IDirect3DDevice9->StretchRect():拷贝Surface数据至后备缓冲。 * IDirect3DDevice9->EndScene():结束绘制。 * IDirect3DDevice9->Present():显示出来。 * * This software play RGB/YUV raw video data using Direct3D. It uses Surface * in D3D to render the pixel data. Compared to another method (use Texture), * it is more simple and suitable for the beginner of Direct3D. * The process is shown as follows: * * [Init] * Direct3DCreate9(): Get IDirect3D9. * IDirect3D9->CreateDevice(): Create a Device. * IDirect3DDevice9->CreateOffscreenPlainSurface(): Create a Offscreen Surface. * * [Loop to Render data] * IDirect3DSurface9->LockRect(): Lock the Offscreen Surface. * memcpy(): Fill pixel data... * IDirect3DSurface9->UnLockRect(): UnLock the Offscreen Surface. * IDirect3DDevice9->BeginScene(): Begin drawing. * IDirect3DDevice9->GetBackBuffer(): Get BackBuffer. * IDirect3DDevice9->StretchRect(): Copy Surface data to BackBuffer. * IDirect3DDevice9->EndScene(): End drawing. * IDirect3DDevice9->Present(): Show on the screen. */ #include <stdio.h> #include <tchar.h> #include <d3d9.h> CRITICAL_SECTION m_critial; IDirect3D9 *m_pDirect3D9= NULL; IDirect3DDevice9 *m_pDirect3DDevice= NULL; IDirect3DSurface9 *m_pDirect3DSurfaceRender= NULL; RECT m_rtViewport; //set '1' to choose a type of file to play //Read BGRA data #define LOAD_BGRA 0 //Read YUV420P data #define LOAD_YUV420P 1 //Width, Height const int screen_w=500,screen_h=500; const int pixel_w=320,pixel_h=180; FILE *fp=NULL; //Bit per Pixel #if LOAD_BGRA const int bpp=32; #elif LOAD_YUV420P const int bpp=12; #endif unsigned char buffer[pixel_w*pixel_h*bpp/8]; void Cleanup() { EnterCriticalSection(&m_critial); if(m_pDirect3DSurfaceRender) m_pDirect3DSurfaceRender->Release(); if(m_pDirect3DDevice) m_pDirect3DDevice->Release(); if(m_pDirect3D9) m_pDirect3D9->Release(); LeaveCriticalSection(&m_critial); } int InitD3D( HWND hwnd, unsigned long lWidth, unsigned long lHeight ) { HRESULT lRet; InitializeCriticalSection(&m_critial); Cleanup(); m_pDirect3D9 = Direct3DCreate9( D3D_SDK_VERSION ); if( m_pDirect3D9 == NULL ) return -1; D3DPRESENT_PARAMETERS d3dpp; ZeroMemory( &d3dpp, sizeof(d3dpp) ); d3dpp.Windowed = TRUE; d3dpp.SwapEffect = D3DSWAPEFFECT_DISCARD; d3dpp.BackBufferFormat = D3DFMT_UNKNOWN; GetClientRect(hwnd,&m_rtViewport); lRet=m_pDirect3D9->CreateDevice( D3DADAPTER_DEFAULT, D3DDEVTYPE_HAL,hwnd, D3DCREATE_SOFTWARE_VERTEXPROCESSING, &d3dpp, &m_pDirect3DDevice ); if(FAILED(lRet)) return -1; #if LOAD_BGRA lRet=m_pDirect3DDevice->CreateOffscreenPlainSurface( lWidth,lHeight, D3DFMT_X8R8G8B8, D3DPOOL_DEFAULT, &m_pDirect3DSurfaceRender, NULL); #elif LOAD_YUV420P lRet=m_pDirect3DDevice->CreateOffscreenPlainSurface( lWidth,lHeight, (D3DFORMAT)MAKEFOURCC('Y', 'V', '1', '2'), D3DPOOL_DEFAULT, &m_pDirect3DSurfaceRender, NULL); #endif if(FAILED(lRet)) return -1; return 0; } bool Render() { HRESULT lRet; //Read Data //RGB if (fread(buffer, 1, pixel_w*pixel_h*bpp/8, fp) != pixel_w*pixel_h*bpp/8){ // Loop fseek(fp, 0, SEEK_SET); fread(buffer, 1, pixel_w*pixel_h*bpp/8, fp); } if(m_pDirect3DSurfaceRender == NULL) return -1; D3DLOCKED_RECT d3d_rect; lRet=m_pDirect3DSurfaceRender->LockRect(&d3d_rect,NULL,D3DLOCK_DONOTWAIT); if(FAILED(lRet)) return -1; byte *pSrc = buffer; byte * pDest = (BYTE *)d3d_rect.pBits; int stride = d3d_rect.Pitch; unsigned long i = 0; //Copy Data #if LOAD_BGRA int pixel_w_size=pixel_w*4; for(i=0; i< pixel_h; i++){ memcpy( pDest, pSrc, pixel_w_size ); pDest += stride; pSrc += pixel_w_size; } #elif LOAD_YUV420P for(i = 0;i < pixel_h;i ++){ memcpy(pDest + i * stride,pSrc + i * pixel_w, pixel_w); } for(i = 0;i < pixel_h/2;i ++){ memcpy(pDest + stride * pixel_h + i * stride / 2,pSrc + pixel_w * pixel_h + pixel_w * pixel_h / 4 + i * pixel_w / 2, pixel_w / 2); } for(i = 0;i < pixel_h/2;i ++){ memcpy(pDest + stride * pixel_h + stride * pixel_h / 4 + i * stride / 2,pSrc + pixel_w * pixel_h + i * pixel_w / 2, pixel_w / 2); } #endif lRet=m_pDirect3DSurfaceRender->UnlockRect(); if(FAILED(lRet)) return -1; if (m_pDirect3DDevice == NULL) return -1; m_pDirect3DDevice->Clear( 0, NULL, D3DCLEAR_TARGET, D3DCOLOR_XRGB(0,0,0), 1.0f, 0 ); m_pDirect3DDevice->BeginScene(); IDirect3DSurface9 * pBackBuffer = NULL; m_pDirect3DDevice->GetBackBuffer(0,0,D3DBACKBUFFER_TYPE_MONO,&pBackBuffer); m_pDirect3DDevice->StretchRect(m_pDirect3DSurfaceRender,NULL,pBackBuffer,&m_rtViewport,D3DTEXF_LINEAR); m_pDirect3DDevice->EndScene(); m_pDirect3DDevice->Present( NULL, NULL, NULL, NULL ); pBackBuffer->Release(); return true; } LRESULT WINAPI MyWndProc(HWND hwnd, UINT msg, WPARAM wparma, LPARAM lparam) { switch(msg){ case WM_DESTROY: Cleanup(); PostQuitMessage(0); return 0; } return DefWindowProc(hwnd, msg, wparma, lparam); } int WINAPI WinMain( __in HINSTANCE hInstance, __in_opt HINSTANCE hPrevInstance, __in LPSTR lpCmdLine, __in int nShowCmd ) { WNDCLASSEX wc; ZeroMemory(&wc, sizeof(wc)); wc.cbSize = sizeof(wc); wc.hbrBackground = (HBRUSH)(COLOR_WINDOW + 1); wc.lpfnWndProc = (WNDPROC)MyWndProc; wc.lpszClassName = L"D3D"; wc.style = CS_HREDRAW | CS_VREDRAW; RegisterClassEx(&wc); HWND hwnd = NULL; hwnd = CreateWindow(L"D3D", L"Simplest Video Play Direct3D (Surface)", WS_OVERLAPPEDWINDOW, 100, 100, 500, 500, NULL, NULL, hInstance, NULL); if (hwnd==NULL){ return -1; } if(InitD3D( hwnd, pixel_w, pixel_h)==E_FAIL){ return -1; } ShowWindow(hwnd, nShowCmd); UpdateWindow(hwnd); #if LOAD_BGRA fp=fopen("../test_bgra_320x180.rgb","rb+"); #elif LOAD_YUV420P fp=fopen("../test_yuv420p_320x180.yuv","rb+"); #endif if(fp==NULL){ printf("Cannot open this file.\n"); return -1; } MSG msg; ZeroMemory(&msg, sizeof(msg)); while (msg.message != WM_QUIT){ //PeekMessage, not GetMessage if (PeekMessage(&msg, NULL, 0, 0, PM_REMOVE)){ TranslateMessage(&msg); DispatchMessage(&msg); } else{ Sleep(40); Render(); } } UnregisterClass(L"D3D", hInstance); return 0; }


代码注意事项

1.能够通过设置定义在文件開始出的宏,决定读取哪个格式的像素数据(bgra,yuv420p)。

//set '1' to choose a type of file to play  
//Read BGRA data
#define LOAD_BGRA    0
//Read YUV420P data
#define LOAD_YUV420P 1


2.窗体的宽高为screen_w。screen_h。

像素数据的宽高为pixel_w,pixel_h。它们的定义例如以下。

//Width, Height  
const int screen_w=500,screen_h=500;  
const int pixel_w=320,pixel_h=180;  

3.其它要点
本程序使用的是Win32的API创建的窗体。

但注意这个并非MFC应用程序的窗体。MFC代码量太大。并不适宜用来做教程。

因此使用Win32的API创建窗体。程序的入口函数是WinMain(),当中调用了CreateWindow()创建了显示视频的窗体。此外,程序中的消息循环使用的是PeekMessage()而不是GetMessage()。

GetMessage()获取消息后。将消息从系统中移除,当系统无消息时。会等待下一条消息。是堵塞函数。

而函数PeekMesssge()是以查看的方式从系统中获取消息,能够不将消息从系统中移除(相当于“偷看”消息),是非堵塞函数;当系统无消息时,返回FALSE,继续执行兴许代码。使用PeekMessage()的优点是能够保证每隔40ms能够显示下一帧画面。



执行结果

不论选择读取哪个格式的文件。程序的终于输出效果都是一样的。例如以下图所看到的。



下载

代码位于“Simplest Media Play”中



SourceForge项目地址: https://sourceforge.net/projects/simplestmediaplay/
CSDN下载地址: http://download.csdn.net/detail/leixiaohua1020/8054395


注:

该项目会不定时的更新并修复一些小问题,最新的版本号请參考该系列文章的总述页面:

 《最简单的视音频播放演示样例1:总述》



上述project包括了使用各种API(Direct3D,OpenGL,GDI,DirectSound,SDL2)播放多媒体样例。当中音频输入为PCM採样数据。

输出至系统的声卡播放出来。

视频输入为YUV/RGB像素数据。

输出至显示器上的一个窗体播放出来。


通过本project的代码刚開始学习的人能够高速学习使用这几个API播放视频和音频的技术。
一共包括了例如以下几个子project:
simplest_audio_play_directsound: 使用DirectSound播放PCM音频採样数据。
simplest_audio_play_sdl2: 使用SDL2播放PCM音频採样数据。
simplest_video_play_direct3d: 使用Direct3D的Surface播放RGB/YUV视频像素数据。


simplest_video_play_direct3d_texture:使用Direct3D的Texture播放RGB视频像素数据。


simplest_video_play_gdi: 使用GDI播放RGB/YUV视频像素数据。


simplest_video_play_opengl: 使用OpenGL播放RGB/YUV视频像素数据。
simplest_video_play_opengl_texture: 使用OpenGL的Texture播放YUV视频像素数据。
simplest_video_play_sdl2: 使用SDL2播放RGB/YUV视频像素数据。



  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值