关于4:2:0 VS 4:4:4的问题:
1.在模拟视频信号时代(以及未压缩的数字视频信号),4:2:0的带宽是4:4:4的一半,所以使用4:2:0能明显节约带宽,并且由于人眼对于色彩信息相对不敏感,所以这样的做法是有道理的。
2.在数字视频信号时代,由于各种图象压缩算法的不断改进优化,实际上很多时候4:2:0带来的不是压缩率(视觉质量/码率)的提高,而是降低。
在Doom9上有个讨论4:2:0 VS 4:4:4的帖子,里面Dark Shikari就说关于4:2:0 VS 4:4:4的问题:
1.在模拟视频信号时代(以及未压缩的数字视频信号),4:2:0的带宽是4:4:4的一半,所以使用4:2:0能明显节约带宽,并且由于人眼对于色彩信息相对不敏感,所以这样的做法是有道理的。
2.在数字视频信号时代,由于各种图象压缩算法的不断改进优化,实际上很多时候4:2:0带来的不是压缩率(视觉质量/码率)的提高,而是降低。
在Doom9上有个讨论4:2:0 VS 4:4:4的帖子,里面Dark Shikari就说了,相比于缩分辨率来降低码率,x264的quantization在多数情况下都有更高的效率(视觉质量/码率),而通常只有在crf超过30时4:2:0才有可能超过4:4:4的压缩率(根据具体源的不同这个crf也有一定差别)。
3.现时使用4:4:4的问题:由于像素数是4:2:0的两倍,所以相同luma分辨率下编码和解码的资源消耗接近于4:2:0的两倍。
现在大多数视频源仍然是4:2:0,所以很多硬件解码的设备及一些软件解码器只支持4:2:0——这是历史问题不是技术问题。
4.对于能够得到的4:4:4源,例如游戏录制的RGB视频、RGB图像序列组成的视频,目前最好的选择就是转换为10bit 4:4:4 YCgCo进行编码。
5.而对于目前大部分4:2:0的源,将其编码成4:4:4基本没有意义——因为制作过程中搞成4:2:0已经造成的损失是回不来的。
所以这时候转为4:4:4纯粹就是看upscale的质量,而很多4:2:0转4:4:4的工具如AVS自带的ConvertToYV24以及x264内的libswscale效果都远不如madVR播放时用的Jinc+AR算法——通过这种方法压成所谓的4:4:4其实更是降低了质量,AVS中只有像是nnedi3_resize16才能够有超过madVR的upscale效果——当然即使这样我也不建议把4:2:0的源压成4:4:4,除非丧心病狂。了,相比于缩分辨率来降低码率,x264的quantization在多数情况下都有更高的效率(视觉质量/码率),而通常只有在crf超过30时4:2:0才有可能超过4:4:4的压缩率(根据具体源的不同这个crf也有一定差别)。
3.现时使用4:4:4的问题:由于像素数是4:2:0的两倍,所以相同luma分辨率下编码和解码的资源消耗接近于4:2:0的两倍。
现在大多数视频源仍然是4:2:0,所以很多硬件解码的设备及一些软件解码器只支持4:2:0——这是历史问题不是技术问题。
4.对于能够得到的4:4:4源,例如游戏录制的RGB视频、RGB图像序列组成的视频,目前最好的选择就是转换为10bit 4:4:4 YCgCo进行编码。
5.而对于目前大部分4:2:0的源,将其编码成4:4:4基本没有意义——因为制作过程中搞成4:2:0已经造成的损失是回不来的。
1.在模拟视频信号时代(以及未压缩的数字视频信号),4:2:0的带宽是4:4:4的一半,所以使用4:2:0能明显节约带宽,并且由于人眼对于色彩信息相对不敏感,所以这样的做法是有道理的。
2.在数字视频信号时代,由于各种图象压缩算法的不断改进优化,实际上很多时候4:2:0带来的不是压缩率(视觉质量/码率)的提高,而是降低。
在Doom9上有个讨论4:2:0 VS 4:4:4的帖子,里面Dark Shikari就说关于4:2:0 VS 4:4:4的问题:
1.在模拟视频信号时代(以及未压缩的数字视频信号),4:2:0的带宽是4:4:4的一半,所以使用4:2:0能明显节约带宽,并且由于人眼对于色彩信息相对不敏感,所以这样的做法是有道理的。
2.在数字视频信号时代,由于各种图象压缩算法的不断改进优化,实际上很多时候4:2:0带来的不是压缩率(视觉质量/码率)的提高,而是降低。
在Doom9上有个讨论4:2:0 VS 4:4:4的帖子,里面Dark Shikari就说了,相比于缩分辨率来降低码率,x264的quantization在多数情况下都有更高的效率(视觉质量/码率),而通常只有在crf超过30时4:2:0才有可能超过4:4:4的压缩率(根据具体源的不同这个crf也有一定差别)。
3.现时使用4:4:4的问题:由于像素数是4:2:0的两倍,所以相同luma分辨率下编码和解码的资源消耗接近于4:2:0的两倍。
现在大多数视频源仍然是4:2:0,所以很多硬件解码的设备及一些软件解码器只支持4:2:0——这是历史问题不是技术问题。
4.对于能够得到的4:4:4源,例如游戏录制的RGB视频、RGB图像序列组成的视频,目前最好的选择就是转换为10bit 4:4:4 YCgCo进行编码。
5.而对于目前大部分4:2:0的源,将其编码成4:4:4基本没有意义——因为制作过程中搞成4:2:0已经造成的损失是回不来的。
所以这时候转为4:4:4纯粹就是看upscale的质量,而很多4:2:0转4:4:4的工具如AVS自带的ConvertToYV24以及x264内的libswscale效果都远不如madVR播放时用的Jinc+AR算法——通过这种方法压成所谓的4:4:4其实更是降低了质量,AVS中只有像是nnedi3_resize16才能够有超过madVR的upscale效果——当然即使这样我也不建议把4:2:0的源压成4:4:4,除非丧心病狂。了,相比于缩分辨率来降低码率,x264的quantization在多数情况下都有更高的效率(视觉质量/码率),而通常只有在crf超过30时4:2:0才有可能超过4:4:4的压缩率(根据具体源的不同这个crf也有一定差别)。
3.现时使用4:4:4的问题:由于像素数是4:2:0的两倍,所以相同luma分辨率下编码和解码的资源消耗接近于4:2:0的两倍。
现在大多数视频源仍然是4:2:0,所以很多硬件解码的设备及一些软件解码器只支持4:2:0——这是历史问题不是技术问题。
4.对于能够得到的4:4:4源,例如游戏录制的RGB视频、RGB图像序列组成的视频,目前最好的选择就是转换为10bit 4:4:4 YCgCo进行编码。
5.而对于目前大部分4:2:0的源,将其编码成4:4:4基本没有意义——因为制作过程中搞成4:2:0已经造成的损失是回不来的。
所以这时候转为4:4:4纯粹就是看upscale的质量,而很多4:2:0转4:4:4的工具如AVS自带的ConvertToYV24以及x264内的libswscale效果都远不如madVR播放时用的Jinc+AR算法——通过这种方法压成所谓的4:4:4其实更是降低了质量,AVS中只有像是nnedi3_resize16才能够有超过madVR的upscale效果——当然即使这样我也不建议把4:2:0的源压成4:4:4,除非丧心病狂。