谈谈RGB、YUY2、YUYV、YVYU、UYVY、AYUV_

yuv 与 rgb 的转换 自然界的颜色千变万化,为了给颜色一个量化的衡量标准,就需要建立色彩空间模型来描述各种各样的颜色,由于人对色彩的感知是一个复杂的生理和心理联合作用 的过程,所以在不同的应用领域中为了更好更准确的满足各自的需求,就出现了各种各样的色彩空间模型来量化的描述颜色。我们比较常接触到的就包括 RGB / CMYK / YIQ / YUV / HSI等等。 对于数字电子多媒体领域来说,我们经常接触到的色彩空间的概念,主要是RGB , YUV这两种(实际上,这两种体系包含了许多种具体的颜色表达方式和模型,如sRGB, Adobe RGB, YUV422, YUV420 …), RGB是按三基色加光系统的原理来描述颜色,而YUV则是按照 亮度,色差的原理来描述颜色。 即使只是RGB YUV这两大类色彩空间,所涉及到的知识也是十分丰富复杂的,自知不具备足够的相关专业知识,所以本文主要针对工程领域的应用及算法进行讨论。 2 YUV相关色彩空间模型 2.1 YUV 与 YIQ YcrCb 对于YUV模型,实际上很多时候,我们是把它和YIQ / YCrCb模型混为一谈的。 实际上,YUV模型用于PAL制式的电视系统,Y表示亮度,UV并非任何单词的缩写。 YIQ模型与YUV模型类似,用于NTSC制式的电视系统。YIQ颜色空间中的I和Q分量相当于将YUV空间中的UV分量做了一个33度的旋转。 YCbCr颜色空间是由YUV颜色空间派生的一种颜色空间,主要用于数字电视系统中。从RGB到YCbCr的转换中,输入、输出都是8位二进制格式。 三者与RGB的转换方程如下: RGB -> YUV: 实际上也就是: Y=0.30R+0.59G+0.11B , U=0.493(B-Y) , V=0.877(R-Y) RGB -> YIQ: RGB -> YCrCb: 从公式中,我们关键要理解的一点是,UV / CbCr信号实际上就是蓝色差信号和红色差信号,进而言之,实际上一定程度上间接的代表了蓝色和红色的强度,理解这一点对于我们理解各种颜色变换处理的过程会有很大的帮助。 我们在数字电子多媒体领域所谈到的YUV格式,实际上准确的说,是以YcrCb色彩空间模型为基础的具有多种存储格式的一类颜色模型的家族(包括 YUV444 / YUV422 / YUV420 / YUV420P等等)。并不是传统意义上用于PAL制模拟电视的YUV模型。这些YUV模型的区别主要在于UV数据的采样方式和存储方式,这里就不详述。 而在Camera Sensor中,最常用的YUV模型是 YUV422格式,因为它采用4个字节描述两个像素,能和RGB565模型比较好的兼容。有利于Camera Sensor和Camera controller的软硬件接口设计。 3 YUV2RGB快速算法分析 这里指的YUV实际是YcrCb了,YUV2RGB的转换公式本身是很简单的,但是牵涉到浮点运算,所以,如果要实现快速算法,算法结构本身没什么好研究的了,主要是采用整型运算或者查表来加快计算速度。首先可以推导得到转换公式为: R = Y + 1.4075 *(V-128) G = Y – 0.3455 *(U –128) – 0.7169 *(V –128) B = Y + 1.779 *(U – 128) 3.1 整型算法 要用整型运算代替浮点运算,当然是要用移位的办法了,我们可以很容易得到下列算法: u = YUVdata[UPOS] - 128; v = YUVdata[VPOS] - 128; rdif = v + ((v * 103) >> 8); invgdif = ((u * 88) >> 8) +((v * 183) >> 8); bdif = u +( (u*198) >> 8); r = YUVdata[YPOS] + rdif; g = YUVdata[YPOS] - invgdif; b = YUVdata[YPOS] + bdif; 为了防止出现溢出,还需要判错计算的结果是否在0-255范围内,做类似下面的判断。 if (r>255) r=255; if (r<0) r=0; 要从RGB24转换成RGB565数据还要做移位和或运算: RGBdata[1] =( (r & 0xF8) | ( g >> 5) ); RGBdata[0] =( ((g & 0x1C) << 3) | ( b >> 3) ); 3.2 部分查表法 查表法首先可以想到的就是用查表替代上述整型算法中的乘法运算。 rdif = fac_1_4075[u]; invgdif = fac_m_0_3455[u] + fac_m_0_7169[v]; bdif = fac_1_779[u]; 这里一共需要4个1维数组,下标从0开始到255,表格共占用约1K的内存空间。uv可以不需要做减128的操作了。在事先计算对应的数组元素的值的时候计算在内就好了。 对于每个像素,部分查表法用查表替代了2次减法运算和4次乘法运算,4次移位运算。但是,依然需要多次加法运算和6次比较运算和可能存在的赋值操作,相对第一种方法运算速度提高并不明显。 3.3 完全查表法 那么是否可以由YUV直接查表得到对应的RGB值呢?乍一看似乎不太可能,以最复杂的G的运算为例,因为G与YUV三者都相关,所以类似 G=YUV2G[Y][U][V]这样的算法,一个三维下标尺寸都为256的数组就需要占用2的24次方约16兆空间,绝对是没法接受的。所以目前多数都 是采用部分查表法。 但是,如果我们仔细分析就可以发现,对于G我们实际上完全没有必要采用三维数组,因为Y只与UV运算的结果相关,与UV的个体无关,所以我们可以采用二次查表的方法将G的运算简化为对两个二维数组的查表操作,如下: G = yig2g_table[ y ][ uv2ig_table[ u ][ v ] ]; 而RB本身就只和YU或YV相关,所以这样我们一共需要4个8*8的二维表格,需要占用4乘2的16次方共256K内存。基本可以接受。但是对于手机这样的嵌入式运用来说,还是略有些大了。 进一步分析,我们可以看到,因为在手机等嵌入式运用上我们最终是要把数据转换成RGB565格式送到LCD屏上显示的,所以,对于RGB三分量来说,我们 根本不需要8bit这么高的精度,为了简单和运算的统一起见,对每个分量我们其实只需要高6bit的数据就足够了,所以我们可以进一步把表格改为4个 6*6的二维表格,这样一共只需要占用16K内存!在计算表格元素值的时候还可以把最终的溢出判断也事先做完。最后的算法如下: y = (YUVdata[Y1POS] >> 2); u = (YUVdata[UPOS] >> 2); v = (YUVdata[VPOS] >> 2); r = yv2r_table[ y ][ v ]; g = yig2g_table[ y ][ uv2ig_table[ u ][ v ] ]; b = yu2b_table[ y ][ u ]; RGBdata[1] =( (r & 0xF8) | ( g >> 5) ); RGBdata[0] =( ((g & 0x1C) << 3) | ( b >> 3) ); 这样相对部分查表法,我们增加了3次移位运算,而进一步减少了4次加法运算和6次比较赋值操作。 在计算表格元素数值的时候,要考虑舍入和偏移等因数使得计算的中间结果满足数组下标非负的要求,需要一定的技巧。 采用完全查表法,相对于第一种算法,最终运算速度可以有比较明显的提高,具体性能能提高多少,要看所在平台的CPU运算速度和内存存取速度的相对比例。内 存存取速度越快,用查表法带来的性能改善越明显。在我的PC上测试的结果性能大约能提高35%。而在某ARM平台上测试只提高了约15%。 3.4 进一步的思考 实际上,上述算法: RGBdata[1] =( (r & 0xF8) | ( g >> 5) ); RGBdata[0] =( ((g & 0x1C) << 3) | ( b >> 3) ); 中的 (r & 0xF8) 和 ( b >> 3) 等运算也完全可以在表格中事先计算出来。另外,YU / YV的取值实际上不可能覆盖满6*6的范围,中间有些点是永远取不到的无输入,RB的运算也可以考虑用5*5的表格。这些都可能进一步提高运算的速度,减 小表格的尺寸。 另外,在嵌入式运用中,如果可能尽量将表格放在高速内存如SRAM中应该比放在SDRAM中更加能发挥查表法的优势。 4 RGB2YUV ? 目前觉得这个是没法将3维表格的查表运算化简为2维表格的查表运算了。只能用部分查表法替代其中的乘法运算。 另外,多数情况下,我们需要的还是YUV2RGB的转换,因为从Sensor得到的数据通常我们会用YUV数据,此外JPG和MPEG实际上也是基于YUV格式编码的,所以要显示解码后的数据需要的也是YUV2RGB的运算。 以下是从DirectShow中摘抄的相关文章计算机彩色显示器显示色彩的原理与彩色电视机一样,都是采用R(Red)、G(Green)、B(Blue)相加混色的原理:通过发射出三种不同强 度的电子束,使屏幕内侧覆盖的红、绿、蓝磷光材料发光而产生色彩。这种色彩的表示方法称为RGB色彩空间表示(它也是多媒体计算机技术中用得最多的一种色 彩空间表示方法)。根据三基色原理,任意一种色光F都可以用不同分量的R、G、B三色相加混合而成。 F = r [ R ] + g [ G ] + b [ B ] 其中,r、g、b分别为三基色参与混合的系数。当三基色分量都为0(最弱)时混合为黑色光;而当三基色分量都为k(最强)时混合为白色光。调整r、g、b三个系数的值,可以混合出介于黑色光和白色光之间的各种各样的色光。那 么YUV又从何而来呢?在现代彩色电视系统中,通常采用三管彩色摄像机或彩色CCD摄像机进行摄像,然后把摄得的彩色图像信号经分色、分别放大校正后得到 RGB,再经过矩阵变换电路得到亮度信号Y和两个色差信号R-Y(即U)、B-Y(即V),最后发送端将亮度和色差三个信号分别进行编码,用同一信道发送 出去。这种色彩的表示方法就是所谓的YUV色彩空间表示。采用YUV色彩空间的重要性是它的亮度信号Y和色度信号U、V是分离的。如果只有Y信号分量而没有U、V分量,那么这样表示的图像就是黑白灰度图像。彩色电视采用YUV空间正是为了用亮度信号Y解决彩色电视机与黑白电视机的兼容问题,使黑白电视机也能接收彩色电视信号。 YUV与RGB相互转换的公式如下(RGB取值范围均为0-255): Y = 0.299R + 0.587G + 0.114B U = -0.147R - 0.289G + 0.436B V = 0.615R - 0.515G - 0.100B R = Y + 1.14V G = Y - 0.39U - 0.58V B = Y + 2.03U 在DirectShow中,常见的RGB格式有RGB1、RGB4、RGB8、RGB565、RGB555、RGB24、RGB32、ARGB32 等;常见的YUV格式有YUY2、YUYV、YVYU、UYVY、AYUV、Y41P、Y411、Y211、IF09、IYUV、YV12、YVU9、 YUV411、YUV420等。作为视频媒体类型的辅助说明类型(Subtype),它们对应的GUID见表2.3。 表2.3 常见的RGB和YUV格式 GUID 格式描述 MEDIASUBTYPE_RGB1 2色,每个像素用1位表示,需要调色板 MEDIASUBTYPE_RGB4 16色,每个像素用4位表示,需要调色板 MEDIASUBTYPE_RGB8 256色,每个像素用8位表示,需要调色板 MEDIASUBTYPE_RGB565 每个像素用16位表示,RGB分量分别使用5位、6位、5位 MEDIASUBTYPE_RGB555 每个像素用16位表示,RGB分量都使用5位(剩下的1位不用) MEDIASUBTYPE_RGB24 每个像素用24位表示,RGB分量各使用8位 MEDIASUBTYPE_RGB32 每个像素用32位表示,RGB分量各使用8位(剩下的8位不用) MEDIASUBTYPE_ARGB32 每个像素用32位表示,RGB分量各使用8位(剩下的8位用于表示Alpha通道值) MEDIASUBTYPE_YUY2 YUY2格式,以4:2:2方式打包 MEDIASUBTYPE_YUYV YUYV格式(实际格式与YUY2相同) MEDIASUBTYPE_YVYU YVYU格式,以4:2:2方式打包 MEDIASUBTYPE_UYVY UYVY格式,以4:2:2方式打包 MEDIASUBTYPE_AYUV 带Alpha通道的4:4:4 YUV格式 MEDIASUBTYPE_Y41P Y41P格式,以4:1:1方式打包 MEDIASUBTYPE_Y411 Y411格式(实际格式与Y41P相同) MEDIASUBTYPE_Y211 Y211格式 MEDIASUBTYPE_IF09 IF09格式 MEDIASUBTYPE_IYUV IYUV格式 MEDIASUBTYPE_YV12 YV12格式 MEDIASUBTYPE_YVU9 YVU9格式 下面分别介绍各种RGB格式。 ¨ RGB1、RGB4、RGB8都是调色板类型的RGB格式,在描述这些媒体类型的格式细节时,通常会在BITMAPINFOHEADER数据结构后面跟着 一个调色板(定义一系列颜色)。它们的图像数据并不是真正的颜色值,而是当前像素颜色值在调色板中的索引。以RGB1(2色位图)为例,比如它的调色板中 定义的两种颜色值依次为0x000000(黑色)和0xFFFFFF(白色),那么图像数据001101010111…(每个像素用1位表示)表示对应各 像素的颜色为:黑黑白白黑白黑白黑白白白…。 ¨ RGB565使用16位表示一个像素,这16位中的5位用于R,6位用于G,5位用于B。程序中通常使用一个字(WORD,一个字等于两个字节)来操作一个像素。当读出一个像素后,这个字的各个位意义如下: 高字节 低字节 R R R R R G G G G G G B B B B B 可以组合使用屏蔽字和移位操作来得到RGB各分量的值: #define RGB565_MASK_RED 0xF800 #define RGB565_MASK_GREEN 0x07E0 #define RGB565_MASK_BLUE 0x001F R = (wPixel & RGB565_MASK_RED) >> 11; // 取值范围0-31 G = (wPixel & RGB565_MASK_GREEN) >> 5; // 取值范围0-63 B = wPixel & RGB565_MASK_BLUE; // 取值范围0-31 ¨ RGB555是另一种16位的RGB格式,RGB分量都用5位表示(剩下的1位不用)。使用一个字读出一个像素后,这个字的各个位意义如下: 高字节 低字节 X R R R R G G G G G B B B B B (X表示不用,可以忽略)可以组合使用屏蔽字和移位操作来得到RGB各分量的值: #define RGB555_MASK_RED 0x7C00 #define RGB555_MASK_GREEN 0x03E0 #define RGB555_MASK_BLUE 0x001F R = (wPixel & RGB555_MASK_RED) >> 10; // 取值范围0-31 G = (wPixel & RGB555_MASK_GREEN) >> 5; // 取值范围0-31 B = wPixel & RGB555_MASK_BLUE; // 取值范围0-31 ¨ RGB24使用24位来表示一个像素,RGB分量都用8位表示,取值范围为0-255。注意在内存中RGB各分量的排列顺序为:BGR BGR BGR…。通常可以使用RGBTRIPLE数据结构来操作一个像素,它的定义为: typedef struct tagRGBTRIPLE { BYTE rgbtBlue; // 蓝色分量 BYTE rgbtGreen; // 绿色分量 BYTE rgbtRed; // 红色分量 } RGBTRIPLE; ¨ RGB32使用32位来表示一个像素,RGB分量各用去8位,剩下的8位用作Alpha通道或者不用。(ARGB32就是带Alpha通道的 RGB32。)注意在内存中RGB各分量的排列顺序为:BGRA BGRA BGRA…。通常可以使用RGBQUAD数据结构来操作一个像素,它的定义为: typedef struct tagRGBQUAD { BYTE rgbBlue; // 蓝色分量 BYTE rgbGreen; // 绿色分量 BYTE rgbRed; // 红色分量 BYTE rgbReserved; // 保留字节(用作Alpha通道或忽略) } RGBQUAD; 下面介绍各种YUV格式。YUV格式通常有两大类:打包(packed)格式和平面(planar)格式。前者将YUV分量存放在同一个数组中,通 常是几个相邻的像素组成一个宏像素(macro-pixel);而后者使用三个数组分开存放YUV三个分量,就像是一个三维平面一样。表2.3中的 YUY2到Y211都是打包格式,而IF09到YVU9都是平面格式。(注意:在介绍各种具体格式时,YUV各分量都会带有下标,如Y0、U0、V0表示 第一个像素的YUV分量,Y1、U1、V1表示第二个像素的YUV分量,以此类推。) ¨ YUY2(和YUYV)格式为每个像素保留Y分量,而UV分量在水平方向上每两个像素采样一次。一个宏像素为4个字节,实际表示2个像素。(4:2:2的意思为一个宏像素中有4个Y分量、2个U分量和2个V分量。)图像数据中YUV分量排列顺序如下: Y0 U0 Y1 V0 Y2 U2 Y3 V2 … ¨ YVYU格式跟YUY2类似,只是图像数据中YUV分量的排列顺序有所不同: Y0 V0 Y1 U0 Y2 V2 Y3 U2 … ¨ UYVY格式跟YUY2类似,只是图像数据中YUV分量的排列顺序有所不同: U0 Y0 V0 Y1 U2 Y2 V2 Y3 … ¨ AYUV格式带有一个Alpha通道,并且为每个像素都提取YUV分量,图像数据格式如下: A0 Y0 U0 V0 A1 Y1 U1 V1 … ¨ Y41P(和Y411)格式为每个像素保留Y分量,而UV分量在水平方向上每4个像素采样一次。一个宏像素为12个字节,实际表示8个像素。图像数据中YUV分量排列顺序如下: U0 Y0 V0 Y1 U4 Y2 V4 Y3 Y4 Y5 Y6 Y8 … ¨ Y211格式在水平方向上Y分量每2个像素采样一次,而UV分量每4个像素采样一次。一个宏像素为4个字节,实际表示4个像素。图像数据中YUV分量排列顺序如下: Y0 U0 Y2 V0 Y4 U4 Y6 V4 … ¨ YVU9格式为每个像素都提取Y分量,而在UV分量的提取时,首先将图像分成若干个4 x 4的宏块,然后每个宏块提取一个U分量和一个V分量。图像数据存储时,首先是整幅图像的Y分量数组,然后就跟着U分量数组,以及V分量数组。IF09格式与YVU9类似。 ¨ IYUV格式为每个像素都提取Y分量,而在UV分量的提取时,首先将图像分成若干个2 x 2的宏块,然后每个宏块提取一个U分量和一个V分量。YV12格式与IYUV类似。 ¨ YUV411、YUV420格式多见于DV数据中,前者用于NTSC制,后者用于PAL制。YUV411为每个像素都提取Y分量,而UV分量在水平方向上 每4个像素采样一次。YUV420并非V分量采样为0,而是跟YUV411相比,在水平方向上提高一倍色差采样频率,在垂直方向上以U/V间隔的方式减小 一半色差采样,如图2.12所示 15:09 | 添加评论 | 固定链接 | 写入日志 | frame buffer && overlayer &&linux video driver 12月5日对YUV格式的详细描述,以及存储形式小知识:RGB与YUV----摘自《DirectShow实务精选》 作者:陆其明 计算机彩色显示器显示色彩的原理与彩色电视机一样,都是采用R(Red)、G(Green)、B(Blue)相加混色的原理:通过发射出三种不同强度的电子束,使屏幕内侧覆盖的红、绿、蓝磷光材料发光而产生色彩。这种色彩的表示方法称为RGB色彩空间表示(它也是多媒体计算机技术中用得最多的一种色彩空间表示方法)。根据三基色原理,任意一种色光F都可以用不同分量的R、G、B三色相加混合而成。 F = r [ R ] + g [ G ] + b [ B ] 其中,r、g、b分别为三基色参与混合的系数。当三基色分量都为0(最弱)时混合为黑色光;而当三基色分量都为k(最强)时混合为白色光。调整r、g、b三个系数的值,可以混合出介于黑色光和白色光之间的各种各样的色光。那么YUV又从何而来呢?在现代彩色电视系统中,通常采用三管彩色摄像机或彩色CCD摄像机进行摄像,然后把摄得的彩色图像信号经分色、分别放大校正后得到RGB,再经过矩阵变换电路得到亮度信号Y和两个色差信号R-Y(即U)、B-Y(即V),最后发送端将亮度和色差三个信号分别进行编码,用同一信道发送出去。这种色彩的表示方法就是所谓的YUV色彩空间表示。采用YUV色彩空间的重要性是它的亮度信号Y和色度信号U、V是分离的。如果只有Y信号分量而没有U、V分量,那么这样表示的图像就是黑白灰度图像。彩色电视采用YUV空间正是为了用亮度信号Y解决彩色电视机与黑白电视机的兼容问题,使黑白电视机也能接收彩色电视信号。 YUV与RGB相互转换的公式如下(RGB取值范围均为0-255): Y = 0.299R + 0.587G + 0.114B U = -0.147R - 0.289G + 0.436B V = 0.615R - 0.515G - 0.100B R = Y + 1.14V G = Y - 0.39U - 0.58V B = Y + 2.03U 在DirectShow中,常见的RGB格式有RGB1、RGB4、RGB8、RGB565、RGB555、RGB24、RGB32、ARGB32等;常见的YUV格式有YUY2、YUYV、YVYU、UYVY、AYUV、Y41P、Y411、Y211、IF09、IYUV、YV12、YVU9、YUV411、YUV420等。作为视频媒体类型的辅助说明类型(Subtype),它们对应的GUID见表2.3。 表2.3 常见的RGB和YUV格式 GUID 格式描述 MEDIASUBTYPE_RGB1 2色,每个像素用1位表示,需要调色板 MEDIASUBTYPE_RGB4 16色,每个像素用4位表示,需要调色板 MEDIASUBTYPE_RGB8 256色,每个像素用8位表示,需要调色板 MEDIASUBTYPE_RGB565 每个像素用16位表示,RGB分量分别使用5位、6位、5位 MEDIASUBTYPE_RGB555 每个像素用16位表示,RGB分量都使用5位(剩下的1位不用) MEDIASUBTYPE_RGB24 每个像素用24位表示,RGB分量各使用8位 MEDIASUBTYPE_RGB32 每个像素用32位表示,RGB分量各使用8位(剩下的8位不用) MEDIASUBTYPE_ARGB32 每个像素用32位表示,RGB分量各使用8位(剩下的8位用于表示Alpha通道值) MEDIASUBTYPE_YUY2 YUY2格式,以4:2:2方式打包 MEDIASUBTYPE_YUYV YUYV格式(实际格式与YUY2相同) MEDIASUBTYPE_YVYU YVYU格式,以4:2:2方式打包 MEDIASUBTYPE_UYVY UYVY格式,以4:2:2方式打包 MEDIASUBTYPE_AYUV 带Alpha通道的4:4:4 YUV格式 MEDIASUBTYPE_Y41P Y41P格式,以4:1:1方式打包 MEDIASUBTYPE_Y411 Y411格式(实际格式与Y41P相同) MEDIASUBTYPE_Y211 Y211格式 MEDIASUBTYPE_IF09 IF09格式 MEDIASUBTYPE_IYUV IYUV格式 MEDIASUBTYPE_YV12 YV12格式 MEDIASUBTYPE_YVU9 YVU9格式 下面分别介绍各种RGB格式。 ¨ RGB1、RGB4、RGB8都是调色板类型的RGB格式,在描述这些媒体类型的格式细节时,通常会在BITMAPINFOHEADER数据结构后面跟着一个调色板(定义一系列颜色)。它们的图像数据并不是真正的颜色值,而是当前像素颜色值在调色板中的索引。以RGB1(2色位图)为例,比如它的调色板中定义的两种颜色值依次为0x000000(黑色)和0xFFFFFF(白色),那么图像数据001101010111…(每个像素用1位表示)表示对应各像素的颜色为:黑黑白白黑白黑白黑白白白…。 ¨ RGB565使用16位表示一个像素,这16位中的5位用于R,6位用于G,5位用于B。程序中通常使用一个字(WORD,一个字等于两个字节)来操作一个像素。当读出一个像素后,这个字的各个位意义如下: 高字节 低字节 R R R R R G G G G G G B B B B B 可以组合使用屏蔽字和移位操作来得到RGB各分量的值: #define RGB565_MASK_RED 0xF800 #define RGB565_MASK_GREEN 0x07E0 #define RGB565_MASK_BLUE 0x001F R = (wPixel & RGB565_MASK_RED) >> 11; // 取值范围0-31 G = (wPixel & RGB565_MASK_GREEN) >> 5; // 取值范围0-63 B = wPixel & RGB565_MASK_BLUE; // 取值范围0-31 ¨ RGB555是另一种16位的RGB格式,RGB分量都用5位表示(剩下的1位不用)。使用一个字读出一个像素后,这个字的各个位意义如下: 高字节 低字节 X R R R R G G G G G B B B B B (X表示不用,可以忽略)可以组合使用屏蔽字和移位操作来得到RGB各分量的值: #define RGB555_MASK_RED 0x7C00 #define RGB555_MASK_GREEN 0x03E0 #define RGB555_MASK_BLUE 0x001F R = (wPixel & RGB555_MASK_RED) >> 10; // 取值范围0-31 G = (wPixel & RGB555_MASK_GREEN) >> 5; // 取值范围0-31 B = wPixel & RGB555_MASK_BLUE; // 取值范围0-31 ¨ RGB24使用24位来表示一个像素,RGB分量都用8位表示,取值范围为0-255。注意在内存中RGB各分量的排列顺序为:BGR BGR BGR…。通常可以使用RGBTRIPLE数据结构来操作一个像素,它的定义为: typedef struct tagRGBTRIPLE { BYTE rgbtBlue; // 蓝色分量 BYTE rgbtGreen; // 绿色分量 BYTE rgbtRed; // 红色分量 } RGBTRIPLE; ¨ RGB32使用32位来表示一个像素,RGB分量各用去8位,剩下的8位用作Alpha通道或者不用。(ARGB32就是带Alpha通道的RGB32。)注意在内存中RGB各分量的排列顺序为:BGRA BGRA BGRA…。通常可以使用RGBQUAD数据结构来操作一个像素,它的定义为: typedef struct tagRGBQUAD { BYTE rgbBlue; // 蓝色分量 BYTE rgbGreen; // 绿色分量 BYTE rgbRed; // 红色分量 BYTE rgbReserved; // 保留字节(用作Alpha通道或忽略) } RGBQUAD; 下面介绍各种YUV格式。YUV格式通常有两大类:打包(packed)格式和平面(planar)格式。前者将YUV分量存放在同一个数组中,通常是几个相邻的像素组成一个宏像素(macro-pixel);而后者使用三个数组分开存放YUV三个分量,就像是一个三维平面一样。表2.3中的YUY2到Y211都是打包格式,而IF09到YVU9都是平面格式。(注意:在介绍各种具体格式时,YUV各分量都会带有下标,如Y0、U0、V0表示第一个像素的YUV分量,Y1、U1、V1表示第二个像素的YUV分量,以此类推。) ¨ YUY2(和YUYV)格式为每个像素保留Y分量,而UV分量在水平方向上每两个像素采样一次。一个宏像素为4个字节,实际表示2个像素。(4:2:2的意思为一个宏像素中有4个Y分量、2个U分量和2个V分量。)图像数据中YUV分量排列顺序如下: Y0 U0 Y1 V0 Y2 U2 Y3 V2 … ¨ YVYU格式跟YUY2类似,只是图像数据中YUV分量的排列顺序有所不同: Y0 V0 Y1 U0 Y2 V2 Y3 U2 … ¨ UYVY格式跟YUY2类似,只是图像数据中YUV分量的排列顺序有所不同: U0 Y0 V0 Y1 U2 Y2 V2 Y3 … ¨ AYUV格式带有一个Alpha通道,并且为每个像素都提取YUV分量,图像数据格式如下: A0 Y0 U0 V0 A1 Y1 U1 V1 … ¨ Y41P(和Y411)格式为每个像素保留Y分量,而UV分量在水平方向上每4个像素采样一次。一个宏像素为12个字节,实际表示8个像素。图像数据中YUV分量排列顺序如下: U0 Y0 V0 Y1 U4 Y2 V4 Y3 Y4 Y5 Y6 Y8 … ¨ Y211格式在水平方向上Y分量每2个像素采样一次,而UV分量每4个像素采样一次。一个宏像素为4个字节,实际表示4个像素。图像数据中YUV分量排列顺序如下: Y0 U0 Y2 V0 Y4 U4 Y6 V4 … ¨ YVU9格式为每个像素都提取Y分量,而在UV分量的提取时,首先将图像分成若干个4 x 4的宏块,然后每个宏块提取一个U分量和一个V分量。图像数据存储时,首先是整幅图像的Y分量数组,然后就跟着U分量数组,以及V分量数组。IF09格式与YVU9类似。 ¨ IYUV格式为每个像素都提取Y分量,而在UV分量的提取时,首先将图像分成若干个2 x 2的宏块,然后每个宏块提取一个U分量和一个V分量。YV12格式与IYUV类似。 ¨ YUV411、YUV420格式多见于DV数据中,前者用于NTSC制,后者用于PAL制。YUV411为每个像素都提取Y分量,而UV分量在水平方向上每4个像素采样一次。YUV420并非V分量采样为0,而是跟YUV411相比,在水平方向上提高一倍色差采样频率,在垂直方向上以U/V间隔的方式减小一半色差采样,如图2.12所示。 14:04 | 添加评论 | 固定链接 | 写入日志 | frame buffer && overlayer &&linux video driver 使用 8 位 YUV 格式的视频呈现 Gary Sullivan 和 Stephen Estrop Microsoft Digital Media Division 适用于: Microsoft® Windows®, Microsoft DirectShow® 摘要:本文讲述了在 Microsoft Windows 操作系统中呈现视频时推荐使用的 8 位 YUV 格式。本文讲述了可用于在 YUV 格式和 RGB 格式之间进行转换的技术,还提供了用于对 YUV 格式进行上采样的技术。本文适用于在 Windows 中使用 YUV 视频解码或呈现的所有人员。 简介在整个视频行业中,定义了很多 YUV 格式。本文讲述的是在 Microsoft® Windows® 操作系统中呈现视频时推荐使用的 8 位 YUV 格式。鼓励解码器供应商和显示供应商支持本文所讲述的格式。本文不对 YUV 颜色的其他用途(如静止摄影)进行描述。 本文讲述的格式全部使用每个像素位置 8 位的方式来编码 Y 频道(也称为灯光频道),并使用每样例 8 位的方式来编码每个 U 或 V 色度样例。但是,大多数 YUV 格式平均使用的每像素位数都少于 24 位,这是因为它们包含的 U 和 V 样例比 Y 样例要少。本文不讲述带有 10 位和 12 位 Y 频道的 YUV 格式。 注 在本文中,U 一词相当于 Cb,V 一词相当于 Cr。 本文包括以下主题: • 在 DirectShow 中标识 YUV 格式 — 讲述了如何描述 Microsoft DirectShow® YUV 格式类型。 • YUV 采样 — 讲述了一些最常用的 YUV 采样技术。 • 表面定义 — 讲述了推荐的 YUV 格式。 • 颜色空间和色度采样率转换 — 提供了一些在 YUV 和 RGB 格式之间进行转换的指南,以及在不同 YUV 格式之间进行转换的指南。 • 其他信息提供了其他信息。 在 DirectShow 中标识 YUV 格式本文讲述的每种 YUV 格式都指定了一个 FOURCC 码。FOURCC 码是一个 32 位、不带正负号的整数,它是通过串联四个 ASCII 字符创建而成的。 有很多 C/C++ 宏可使得在源代码中声明 FOURCC 值变得更加简单。例如,MAKEFOURCC 宏是在 Mmsystem.h 中声明的,FCC 宏则是在 Aviriff.h 中声明的。请按照下列方式使用这些宏: DWORD fccYUY2 = MAKEFOURCC('Y','U','Y','2'); DWORD fccYUY2 = FCC('YUY2'); 只需通过调转字符的顺序,您还可以将 FOURCC 码直接声明为字符文本。例如: DWORD fccYUY2 = '2YUY'; // Declares the FOURCC 'YUY2' 因为 Windows 操作系统使用的是 little-endian 体系结构,所以调转顺序是必需的。“Y”= 0x59,“U”= 0x55,“2”= 0x32,所以“2YUY”为 0x32595559。 在 DirectShow 中,格式是由一个主类型全局唯一标识符 (GUID) 和一个子类型 GUID 标识的。计算机视频格式的主类型总是 MEDIATYPE_Video。子类型则可以通过将 FOURCC 码与 GUID 进行映射的方式来构造,如下所示: XXXXXXXX-0000-0010-8000-00AA00389B71 其中 XXXXXXXX 为 FOURCC 码。因此,YUY2 的子类型 GUID 为: 32595559-0000-0010-8000-00AA00389B71 很多这样的 GUID 都已经在头文件 Uuids.h 中进行了定义。例如,YUY2 子类型被定义为 MEDIASUBTYPE_YUY2。DirectShow 基类库还提供了一个帮助器类 FOURCCMap,该类可用于将 FOURCC 码转换为 GUID 值。FOURCCMap 构造函数采用 FOURCC 码作为输入参数。然后,您可以将 FOURCCMap 对象强制转换为相应的 GUID: FOURCCMap fccMap(FCC('YUY2')); GUID g1 = (GUID)fccMap; // Equivalent: GUID g2 = (GUID)FOURCCMap(FCC('YUY2')); YUV 采样 YUV 的优点之一是,色度频道的采样率可比 Y 频道低,同时不会明显降低视觉质量。有一种表示法可用来描述 U 和 V 与 Y 的采样频率比例,这个表示法称为 A:B:C 表示法: • 4:4:4 表示色度频道没有下采样。 • 4:2:2 表示 2:1 的水平下采样,没有垂直下采样。对于每两个 U 样例或 V 样例,每个扫描行都包含四个 Y 样例。 • 4:2:0 表示 2:1 的水平下采样,2:1 的垂直下采样。 • 4:1:1 表示 4:1 的水平下采样,没有垂直下采样。对于每个 U 样例或 V 样例,每个扫描行都包含四个 Y 样例。与其他格式相比,4:1:1 采样不太常用,本文不对其进行详细讨论。 图 1 显示了 4:4:4 图片中使用的采样网格。灯光样例用叉来表示,色度样例则用圈表示。 图 1. YUV 4:4:4 样例位置 4:2:2 采样的这种主要形式在 ITU-R Recommendation BT.601 中进行了定义。图 2 显示了此标准定义的采样网格。 图 2. YUV 4:2:2 样例位置 4:2:0 采样有两种常见的变化形式。其中一种形式用于 MPEG-2 视频,另一种形式用于 MPEG-1 以及 ITU-T recommendations H.261 和 H.263。图 3 显示了 MPEG-1 方案中使用的采样网格,图 4 显示了 MPEG-2 方案中使用的采样网格。 图 3. YUV 4:2:0 样例位置(MPEG-1 方案) 图 4. YUV 4:2:0 样例位置(MPEG-2 方案) 与 MPEG-1 方案相比,在 MPEG-2 方案与为 4:2:2 和 4:4:4 格式定义的采样网格之间进行转换更简单一些。因此,在 Windows 中首选 MPEG-2 方案,应该考虑将其作为 4:2:0 格式的默认转换方案。 表面定义本节讲述推荐用于视频呈现的 8 位 YUV 格式。这些格式可以分为几个类别: • 4:4:4 格式,每像素 32 位 • 4:2:2 格式,每像素 16 位 • 4:2:0 格式,每像素 16 位 • 4:2:0 格式,每像素 12 位 首先,您应该理解下列概念,这样才能理解接下来的内容: • 表面原点。对于本文讲述的 YUV 格式,原点 (0,0) 总是位于表面的左上角。 • 跨距。表面的跨距,有时也称为间距,指的是表面的宽度,以字节数表示。对于一个表面原点位于左上角的表面来说,跨距总是正数。 • 对齐。表面的对齐是根据图形显示驱动程序的不同而定的。表面始终应该 DWORD 对齐,就是说,表面中的各个行肯定都是从 32 位 (DWORD) 边界开始的。对齐可以大于 32 位,但具体取决于硬件的需求。 • 打包格式与平面格式。YUV 格式可以分为打包 格式和平面 格式。在打包格式中,Y、U 和 V 组件存储在一个数组中。像素被组织到了一些巨像素组中,巨像素组的布局取决于格式。在平面格式中,Y、U 和 V 组件作为三个单独的平面进行存储。 4:4:4 格式,每像素 32 位 推荐一个 4:4:4 格式,FOURCC 码为 AYUV。这是一个打包格式,其中每个像素都被编码为四个连续字节,其组织顺序如下所示。 图 5. AYUV 内存布局 标记了 A 的字节包含 alpha 的值。 4:2:2 格式,每像素 16 位 支持两个 4:2:2 格式,FOURCC 码如下: • YUY2 • UYVY 两个都是打包格式,其中每个巨像素都是编码为四个连续字节的两个像素。这样会使得色度水平下采样乘以系数 2。 YUY2 在 YUY2 格式中,数据可被视为一个不带正负号的 char 值组成的数组,其中第一个字节包含第一个 Y 样例,第二个字节包含第一个 U (Cb) 样例,第三个字节包含第二个 Y 样例,第四个字节包含第一个 V (Cr) 样例,如图 6 所示。 图 6. YUY2 内存布局 如果该图像被看作由两个 little-endian WORD 值组成的数组,则第一个 WORD 在最低有效位 (LSB) 中包含 Y0,在最高有效位 (MSB) 中包含 U。第二个 WORD 在 LSB 中包含 Y1,在 MSB 中包含 V。 YUY2 是用于 Microsoft DirectX® Video Acceleration (DirectX VA) 的首选 4:2:2 像素格式。预期它会成为支持 4:2:2 视频的 DirectX VA 加速器的中期要求。 UYVY 此格式与 YUY2 相同,只是字节顺序是与之相反的 — 就是说,色度字节和灯光字节是翻转的(图 7)。如果该图像被看作由两个 little-endian WORD 值组成的数组,则第一个 WORD 在 LSB 中包含 U,在 MSB 中包含 Y0,第二个 WORD 在 LSB 中包含 V,在 MSB 中包含 Y1。 图 7. UYVY 内存布局 4:2:0 格式,每像素 16 位 推荐两个 4:2:0 每像素 16 位格式,FOURCC 码如下: • IMC1 • IMC3 两个 FOURCC 码都是平面格式。色度频道在水平方向和垂直方向上都要以系数 2 来进行再次采样。 IMC1 所有 Y 样例都会作为不带正负号的 char 值组成的数组首先显示在内存中。后面跟着所有 V (Cr) 样例,然后是所有 U (Cb) 样例。V 和 U 平面与 Y 平面具有相同的跨距,从而生成如图 8 所示的内存的未使用区域。 图 8. IMC1 内存布局 IMC3 此格式与 IMC1 相同,只是 U 和 V 平面进行了交换: 图 9. IMC3 内存布局 4:2:0 格式,每像素 12 位 推荐四个 4:2:0 每像素 12 位格式,FOURCC 码如下: • IMC2 • IMC4 • YV12 • NV12 在所有这些格式中,色度频道在水平方向和垂直方向上都要以系数 2 来进行再次采样。 IMC2 此格式与 IMC1 相同,只是 V (Cr) 和 U (Cb) 行在半跨距边界处进行了交错。换句话说,就是色度区域中的每个完整跨距行都以一行 V 样例开始,然后是一行在下一个半跨距边界处开始的 U 样例(图 10)。此布局与 IMC1 相比,能够更加高效地利用地址空间。它的色度地址空间缩小了一半,因此整体地址空间缩小了 25%。在各个 4:2:0 格式中,IMC2 是第二首选格式,排在 NV12 之后。 图 10. IMC2 内存布局 IMC4 此格式与 IMC2 相同,只是 U (Cb) 和 V (Cr) 行进行了交换: 图 11. IMC4 内存布局 YV12 所有 Y 样例都会作为不带正负号的 char 值组成的数组首先显示在内存中。此数组后面紧接着所有 V (Cr) 样例。V 平面的跨距为 Y 平面跨距的一半,V 平面包含的行为 Y 平面包含行的一半。V 平面后面紧接着所有 U (Cb) 样例,它的跨距和行数与 V 平面相同(图 12)。 图 12. YV12 内存布局 NV12 所有 Y 样例都会作为由不带正负号的 char 值组成的数组首先显示在内存中,并且行数为偶数。Y 平面后面紧接着一个由不带正负号的 char 值组成的数组,其中包含了打包的 U (Cb) 和 V (Cr) 样例,如图 13 所示。当组合的 U-V 数组被视为一个由 little-endian WORD 值组成的数组时,LSB 包含 U 值,MSB 包含 V 值。NV12 是用于 DirectX VA 的首选 4:2:0 像素格式。预期它会成为支持 4:2:0 视频的 DirectX VA 加速器的中期要求。 图 13. NV12 内存布局 颜色空间和色度采样率转换本节提供了在 YUV 和 RGB 之间进行转换的指南,以及在某些不同 YUV 格式之间进行转换的指南。在本节中,我们会以两个 RGB 编码方案为例:8 位计算机 RGB 和 studio 视频 RGB,前者也称为 sRGB 或“全范围”RGB,后者也称为“带有头空间和脚空间的 RGB”。这两个方案的定义如下: • 计算机 RGB 对于每个红色、绿色和蓝色样例都使用 8 位。黑色表示为 R = G = B = 0,白色则表示为 R = G = B = 255。 • Studio 视频 RGB 对于每个红色、绿色和蓝色样例使用一定的位数,即 N 位,其中 N 为 8 或更大的数字。Studio 视频 RGB 使用的缩放系数与计算机 RGB 使用的缩放系数不同,它具有一个偏移量。黑色表示为 R = G = B = 16*2N-8,白色则表示为 R = G = B = 235*2N-8。但是,实际的值可能不在此范围之内。 Studio 视频 RGB 是 Windows 中视频的首选 RGB 定义,而计算机 RGB 则是非视频应用的首选 RGB 定义。在这两种形式的 RGB 中,色度座标都与在 RGB 原色定义的 ITU-R BT.709 中指定的一样。R、G 和 B 的 (x,y) 座标分别为 (0.64, 0.33)、(0.30, 0.60) 和 (0.15, 0.06)。基准白色为 D65,座标为 (0.3127, 0.3290)。标称灰度系数为 1/0.45(大约为 2.2),精确的灰度系数在 ITU-R BT.709 中进行了详细定义。 RGB 和 4:4:4 YUV 之间的转换 我们首先讲述 RGB 和 4:4:4 YUV 之间的转换。要将 4:2:0 或 4:2:2 YUV 转换为 RGB,我们建议首先将 YUV 数据转换为 4:4:4 YUV,然后再将 4:4:4 YUV 转换为 RGB。AYUV 格式是一个 4:4:4 格式,它对于每个 Y、U 和 V 样例都使用 8 位。对于某些应用,还可以使用每样例多于 8 位的位数定义 YUV。 对于数字视频,定义了从 RGB 到两个主要 YUV 的转换。这两个转换都基于称为 ITU-R Recommendation BT.709 的规范。第一个转换是 BT.709 中定义用于 50-Hz 的较早的 YUV 格式。它与在 ITU-R Recommendation BT.601 中指定的关系相同, ITU-R Recommendation BT.601 也被称为它的旧名称 CCIR 601。这种格式应该被视为用于标准定义 TV 分辨率 (720 x 576) 和更低分辨率视频的首选 YUV 格式。它的特征由下面两个常量 Kr 和 Kb 的值来定义: Kr = 0.299 Kb = 0.114 第二个转换为 BT.709 中定义用于 60-Hz 的较新 YUV 格式,应该被视为用于高于 SDTV 的视频分辨率的首选格式。它的特征由下面两个不同的常量值来定义: Kr = 0.2126 Kb = 0.0722 从 RGB 到 YUV 转换的定义以下列内容开始: L = Kr * R + Kb * B + (1 – Kr – Kb) * G 然后,按照下列方式获得 YUV 值: Y = floor(2^(M-8) * (219*(L–Z)/S + 16) + 0.5) U = clip3(0, 2^M-1, floor(2^(M-8) * (112*(B-L) / ((1-Kb)*S) + 128) + 0.5)) V = clip3(0, 2^M-1, floor(2^(M-8) * (112*(R-L) / ((1-Kr)*S) + 128) + 0.5)) 其中 • M 为每个 YUV 样例的位数 (M >= 8)。 • Z 为黑电平变量。对于计算机 RGB,Z 等于 0。对于 studio 视频 RGB,Z 等于 16*2N-8,其中 N 为每个 RGB 样例的位数 (N >= 8)。 • S 为缩放变量。对于计算机 RGB,S 等于 255。对于 studio 视频 RGB,S 等于 219*2N-8。 函数 floor(x) 返回大于或等于 x 的最大整数。函数 clip3(x, y, z) 的定义如下所示: clip3(x, y, z) = ((z < x) ? x : ((z > y) ? y : z)) Y 样例表示亮度,U 和 V 样例分别表示偏向蓝色和红色的颜色偏差。Y 的标称范围为 16*2M-8 到 235*2M-8。黑色表示为 16*2M-8,白色表示为 235*2M-8。U 和 V 的标称范围为 16*2M-8 到 240*2M-8,值 128*2M-8 表示中性色度。但是,实际的值可能不在这些范围之内。 对于 studio 视频 RGB 形式的输入数据,要使得 U 和 V 值保持在 0 到 2M-1 范围之内,必需进行剪辑操作。如果输入为计算机 RGB,则不需要剪辑操作,这是因为转换公式不会生成超出此范围的值。 这些都是精确的公式,没有近似值。本文后面的所有内容均派生自这些公式。 • 示例:将 RGB888 转换为 YUV 4:4:4 • 示例:将 8 位 YUV 转换为 RGB888 • 将 4:2:0 YUV 转换为 4:2:2 YUV • 将 4:2:2 YUV 转换为 4:4:4 YUV • 将 4:2:0 YUV 转换为 4:4:4 YUV 示例:将 RGB888 转换为 YUV 4:4:4 在输入为计算机 RGB,输出为 8 位 BT.601 YUV 的情况下,我们相信前面一节中给出的公式可以按照下列公式进行合理近似计算: Y = ( ( 66 * R + 129 * G + 25 * B + 128) >> 8) + 16 U = ( ( -38 * R - 74 * G + 112 * B + 128) >> 8) + 128 V = ( ( 112 * R - 94 * G - 18 * B + 128) >> 8) + 128 这些公式使用精确度不大于 8 位(不带正负号)的系数计算出 8 位结果。中间结果需要最多 16 位的精确度。 示例:将 8 位 YUV 转换为 RGB888 从原始的 RGB 到 YUV 公式,您可以为 YUV 的 8 位 BT.601 定义派生出下列关系: Y = round( 0.256788 * R + 0.504129 * G + 0.097906 * B) + 16 U = round(-0.148223 * R - 0.290993 * G + 0.439216 * B) + 128 V = round( 0.439216 * R - 0.367788 * G - 0.071427 * B) + 128 因此,假设: C = Y - 16 D = U - 128 E = V - 128 将 YUV 转换为计算机 RGB 的公式可以按照下列方式进行派生: R = clip( round( 1.164383 * C + 1.596027 * E ) ) G = clip( round( 1.164383 * C - (0.391762 * D) - (0.812968 * E) ) ) B = clip( round( 1.164383 * C + 2.017232 * D ) ) 其中 clip() 表示剪辑为范围 [0..255]。这些公式可以由下列公式进行合理近似计算: R = clip(( 298 * C + 409 * E + 128) >> 8) G = clip(( 298 * C - 100 * D - 208 * E + 128) >> 8) B = clip(( 298 * C + 516 * D + 128) >> 8) 这些公式使用精确度必需大于 8 位的一些系数计算出每个 8 位结果,中间结果需要多于 16 位的精确度。 将 4:2:0 YUV 转换为 4:2:2 YUV 将 4:2:0 YUV 转换为 4:2:2 YUV 需要系数为 2 的垂直上转换。本节讲述了一个执行上转换的方法示例。该方法假设视频图片为逐行扫描。 注 4:2:0 到 4:2:2 隔行扫描转换过程会出现不常见的问题,难以实现。本文不会对转换从 4:2:0 到 4:2:2 的隔行扫描时出现的问题进行解决。 让输入色度样例的每个垂直行都成为一个数组 Cin[],其范围为从 0 到 N - 1。输出图像上相应的垂直行则会成为数组 Cout[],其范围为从 0 到 2N - 1。要转换每个垂直行,请执行下列过程: Cout[0] = Cin[0]; Cout[1] = clip((9 * (Cin[0] + Cin[1]) – (Cin[0] + Cin[2]) + 8) >> 4); Cout[2] = Cin[1]; Cout[3] = clip((9 * (Cin[1] + Cin[2]) - (Cin[0] + Cin[3]) + 8) >> 4); Cout[4] = Cin[2] Cout[5] = clip((9 * (Cin[2] + Cin[3]) - (Cin[1] + Cin[4]) + 8) >> 4); ... Cout[2*i] = Cin[i] Cout[2*i+1] = clip((9 * (Cin[i] + Cin[i+1]) - (Cin[i-1] + Cin[i+2]) + 8) >> 4); ... Cout[2*N-3] = clip((9 * (Cin[N-2] + Cin[N-1]) - (Cin[N-3] + Cin[N-1]) + 8) >> 4); Cout[2*N-2] = Cin[N-1]; Cout[2*N-1] = clip((9 * (Cin[N-1] + Cin[N-1]) - (Cin[N-2] + Cin[N-1]) + 8) >> 4); 其中 clip() 表示剪辑范围为 [0..255]。 注 用于处理边缘的等式在计算上可以进行简化。这些等式以这种形式显示,是为了说明图片边缘的附着效果。 实际上,这种方法会通过在四个相邻像素上插入曲线,并趋向两个最近的像素值进行加权,来计算每个缺少的值(图 14)。此示例中使用的这个特定插入方法使用一个众所周知的方法来计算半整数位置缺少的样例,这个方法称为 Catmull-Rom 插入,也称为立方回旋插入。 图 14. 4:2:0 到 4:2:2 上采样 对于信号处理过程,理想情况下,垂直上转换应该包括一个相移补偿,以将 4:2:0 样例行位置和每隔一个 4:2:2 样例行位置之间的半像素垂直偏移量(与输出 4:2:2 采样网格相比较)考虑在内。但是,引入此偏移量会提高生成样例所需的处理量,并且会导致无法从上采样 4:2:2 图像重新构造原始的 4:2:0 样例。引入此偏移量还会导致无法将视频直接解码到 4:2:2 表面,也就无法将这些表面用作解码流中后续图片的参考图片。因此,此处提供的这种方法不会考虑样例的精确垂直对齐。这样做在合理的高图片分辨率下可能不会 影响视觉效果。 如果您首先从一个 4:2:0 视频开始,并且该视频使用在 H.261、H.263 和 MPEG-1 视频中定义的采样网格,输出 4:2:2 色度样例的相也会相对于灯光采样网格间隔而产生半个像素的水平 偏移量(相对于 4:2:2 色度采样网格间隔则为四分之一像素偏移量)。但是,4:2:0 视频的 MPEG-2 形式在 PC 上可能更经常使用,不会出现上述问题。而且,这种偏差在合理的高图片分辨率下可能不会影响视觉效果。尝试更正此问题会产生与垂直相偏移相同种类的问题。 将 4:2:2 YUV 转换为 4:4:4 YUV 将 4:2:2 YUV 转换为 4:4:4 YUV 需要系数为 2 的水平上转换。前面讲述的用于垂直上转换的方法也适用于水平上转换。对于 MPEG-2 和 ITU-R BT.601 视频,此方法会生成带有正确相对齐的样例。 将 4:2:0 YUV 转换为 4:4:4 YUV 要将 4:2:0 YUV 转换为 4:4:4 YUV,按照前面讲述的两个方法进行操作即可。首先将 4:2:0 图像转换为 4:2:2,然后将 4:2:2 图像转换为 4:4:4。您还可以切换两个上转换过程的顺序,因为操作顺序对于结果的视觉质量不会产生真正的影响。

  • 0
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值