FFMPEG合两帧YUV420P为一帧
Linux下,利用FFMPEG库函数合两帧YUV420P为一帧;
在项目中需要用到相关方面的知识,看见一篇博客转载学习以下;
FFMPEG合两帧为一帧
原博地址: http://blog.csdn.net/lcalqf/article/details/22989777
pSum_FrameYUV为目的帧,pFrameYUV是被合帧。把pFrameYUV合到pSum_FrameYUV上,高度相同,宽度是pSum_FrameYUV的1/2 ,m_rect是合成后视频帧显示的区域。
注意:pFrameYUV.linesize并不是一行有效地数据宽度。它比一行的宽度m_rect.Width()/2要大。所以在复制时,每次要复制m_rect.Width()/2个数据,但是每次需向后移动pFrameYUV.linesize个字节。
void CffmpegView::Compose_1()
{
uint8_t * temp_sum=pSum_FrameYUV.data[0];
uint8_t * temp_sum_1=pSum_FrameYUV.data[1];
uint8_t *temp_sum_2=pSum_FrameYUV.data[2];
uint8_t*temp=pFrameYUV.data[0];
uint8_t *temp_1=pFrameYUV.data[1];
uint8_t*temp_2=pFrameYUV.data[2];
for(int i=0;i<m_rect.Height();i++)
{
memcpy(temp_sum,temp,m_rect.Width()/2);
temp_sum+=pSum_FrameYUV.linesize[0];
temp+=pFrameYUV.linesize[0];
}
for(int j=0;j<(m_rect.Height()/2);j++)
{
memcpy(temp_sum_1,temp_1,(m_rect.Width()/4));
memcpy(temp_sum_2,temp_2,(m_rect.Width()/4));
temp_sum_1+=pSum_FrameYUV.linesize[1];
temp_1+=pFrameYUV.linesize[1];
temp_sum_2+=pSum_FrameYUV.linesize[2];
temp_2+=pFrameYUV.linesize[2];
}
}