ffmpeg的tutorial中文版学习笔记(五)

如何同步视频

源代码:tutorial05-1.c

前面整个的一段时间,我们有了一个几乎无用的电影播放器。当然,它能播放视频,也能播放音频,但是它还不能被称为一部电影。那么我们还要做什么呢?

PTSDTS

幸运的是,音频和视频流都有一些关于以多快速度和什么时间来播放它们的信息在里面。音频流有采样,视频流有帧率。然而,如果我们只是简单的通过帧数和乘以帧率的方式来同步视频,那么就很有可能会失去同步。于是作为一种补充,在流中的包有种叫做DTS(解码时间戳)和PTS(显示时间戳)的机制。为了这两个参数,你需要了解电影存放的方式。像MPEG等格式,使用被叫做B帧(B表示双向bidrectional)的方式。另外两种帧被叫做I帧和P帧(I表示关键帧,P表示预测帧)。I帧包含了某个特定的完整图像。P帧依赖于前面的I帧或P帧,并且使用比较或者差分的方式来编码。B帧与P帧有点类似,但是它是依赖于前面和后面的帧的信息的。这也就解释了为什么我们可能在调用avcodec_decode_video以后会得不到一帧图像

所以对于一个电影,帧是这样来显示的:I B B P。现在我们需要在显示B帧之前知道P帧中的信息。因此,帧可能会按照这样的方式来存储:IPBB。这就是为什么我们会有一个解码时间戳和一个显示时间戳的原因。解码时间戳告诉我们什么时候需要解码,显示时间戳告诉我们什么时候需要显示。所以,在这种情况下,我们的流可以是这样的:

   PTS: 1 4 2 3
   DTS: 1 2 3 4
Stream: I P B B

通常PTSDTS只有在流中有B帧的时候会不同。

当我们调用av_read_frame()得到一个包的时候,PTSDTS的信息也会保存在包中。但是我们真正想要的PTS是我们刚刚解码出来的原始帧的PTS,这样我们才能知道什么时候来显示它。然而,我们从avcodec_decode_video()函数中得到的帧只是一个AVFrame,其中并没有包含有用的PTS值(注意:AVFrame含有一成员pts,但这并不一定就含着我们想要的pts值)。然而,ffmpeg会将包重新排序,这样正被avcodec_decode_video()处理的包的DTS就与其之前返回的那帧的PTS相同。但同样要注意的是:我们也并不一定就能得到这个信息。

不用担心,因为有另外一种办法可以找到帧的PTS,我们可以让程序自己来重新排序包。我们保存一帧的第一个包的PTS:这将作为整个这一帧的PTS。我们可以通过函数avcodec_decode_video()来计算出哪个包是一帧的第一个包。怎样实现呢?任何时候当一个包开始一帧的时候,avcodec_decode_video()将调用一个函数来为一帧申请一个缓冲。当然,ffmpeg允许我们重新定义这个分配内存的函数。所以我们制作了一个新的函数来保存一个包的时间戳。

当然,尽管那样,我们可能还是得不到一个正确的时间戳。我们将在后面处理这个问题。

同步

现在,知道了什么时候来显示一个视频帧,但是我们怎样来实际操作呢?想法是:当我们显示了一帧以后,我们计算出下一帧显示的时间,然后我们简单的设置一个新的定时器来在一定间隔后刷新屏幕。你可能会想,我们以系统时钟为准来检查下一帧的PTS值来看应该设置多长时间。这种方式可以工作,但是有两种情况要处理。

首先,要知道下一个PTS是什么。现在我们能添加视频速率到我们的PTS中--太对了!然而,有些电影需要帧重复。这意味着我们重复播放当前的帧。这将导致程序显示下一帧太快了。所以我们需要计算它们。

第二,正如已有的程序那样,视频和音频各自播放很欢快,一点也不受同步的影响。如果一切都工作得很好的话,我们不必担心。但是,你的电脑并不总是那么完美的,很多视频文件也不是完好的。所以,我们有三种选择:同步音频到视频,同步视频到音频,或者都同步到外部时钟(例如你的电脑时钟)。从现在开始,我们将同步视频到音频。

写代码:获得帧的时间戳

现在让我们到代码中来做这些事情。我们将需要为我们的大结构体添加一些成员,但是我们会根据需要来做。首先,让我们看一下视频线程。记住,在这里我们得到了解码线程输出到队列中的包。这里我们需要的是从avcodec_decode_video函数中得到帧的时间戳。我们讨论的第一种方式是从上次处理的包中得到DTS,这是很容易的:

  double pts;

  pFrame = avcodec_alloc_frame();

  for(;;) 
  {
    if(packet_queue_get(&is->videoq, packet, 1) < 0) 
    {
      // means we quit getting packets
      break;
    }
    pts = 0;

    // Save global pts to be stored in pFrame in first call
    global_video_pkt_pts = packet->pts;
    // Decode video frame
    avcodec_decode_video2(is->video_st->codec, pFrame, &frameFinished,packet);

    if(packet->dts == AV_NOPTS_VALUE&& pFrame->opaque && *(uint64_t*)pFrame->opaque != AV_NOPTS_VALUE) 
    {
      pts = *(uint64_t *)pFrame->opaque;
    } 
    else if(packet->dts != AV_NOPTS_VALUE) 
    {
      pts = packet->dts;
    } 
    else 
    {
      pts = 0;
    }
    pts *= av_q2d(is->video_st->time_base);


如果我们得不到PTS就把它设置为0

好,那是很容易的。但是我们所说的如果包的DTS不能帮到我们,我们需要使用这一帧的第一个包的PTS(两种途径标记一样)。我们通过让ffmpeg使用我们自己的申请帧程序来实现。下面的是函数的格式:

int get_buffer(struct AVCodecContext *c, AVFrame *pic);

void release_buffer(struct AVCodecContext *c, AVFrame *pic);


申请函数没有告诉我们关于包的任何事情,所以我们要自己每次在得到一个包的时候把PTS保存到一个全局变量中去。然后,我们把值保存到AVFrame结构体的变量opaque中。所以一开始,这就是我们的函数:

uint64_t global_video_pkt_pts = AV_NOPTS_VALUE;

/* These are called whenever we allocate a frame
* buffer. We use this to store the global_pts in
* a frame at the time it is allocated.
*/
int our_get_buffer(struct AVCodecContext *c, AVFrame *pic) 
{
  int ret = avcodec_default_get_buffer(c, pic);
  uint64_t *pts = av_malloc(sizeof(uint64_t));
  *pts = global_video_pkt_pts;
  pic->opaque = pts;
  return ret;
}
void our_release_buffer(struct AVCodecContext *c, AVFrame *pic) 
{
  if(pic) 
    av_freep(&pic->opaque);
  avcodec_default_release_buffer(c, pic);
}

函数avcodec_default_get_bufferavcodec_default_release_bufferffmpeg中默认的申请缓冲的函数。函数av_freep是一个内存管理函数,它不但把内存释放而且把指针设置为NULL

现在到了我们流打开的函数(stream_component_open),我们添加这几行来告诉ffmpeg如何去做:

    codecCtx->get_buffer = our_get_buffer;
    codecCtx->release_buffer = our_release_buffer;

现在我们必需添加代码来保存PTS到全局变量中,然后在需要的时候来使用它。我们的代码现在看起来应该是这样子:

  for(;;) 
  {
    if(packet_queue_get(&is->videoq, packet, 1) < 0) 
    {
      // means we quit getting packets
      break;
    }
    pts = 0;

    // Save global pts to be stored in pFrame in first call
    global_video_pkt_pts = packet->pts;
    // Decode video frame
    avcodec_decode_video2(is->video_st->codec, pFrame, &frameFinished,packet);

    if(packet->dts == AV_NOPTS_VALUE&& pFrame->opaque && *(uint64_t*)pFrame->opaque != AV_NOPTS_VALUE) 
    {
      pts = *(uint64_t *)pFrame->opaque;
    } 
    else if(packet->dts != AV_NOPTS_VALUE) 
    {
      pts = packet->dts;
    } 
    else 
    {
      pts = 0;
    }
    pts *= av_q2d(is->video_st->time_base);

技术提示:你可能已经注意到我们使用int64来表示PTS。这是因为PTS是以整型来保存的。这个值是一个时间戳相当于时间的度量,用来以流的time_base为单位进行时间度量。例如,如果一个流是24帧每秒,值为42PTS表示这一帧应该排在第42个帧的位置。 如果我们每秒有24帧(当然这值也许并不完全正确)。我们可以通过除以帧率来把这个值转化为秒。流中的time_base值以1/framerate表示(对于固定帧率来说),所以为得到以秒为单位的PTS,我们需要乘以time_base

写代码:使用PTS来同步

现在我们得到了PTS。我们要注意前面讨论到的两个同步问题。我们将定义一个函数叫做synchronize_video,它可以更新同步的PTS。这个函数也能最终处理我们得不到PTS的情况。同时我们要知道下一帧的时间以便于正确设置刷新速率。我们可以使用内部的反映当前视频已经播放时间的时钟video_clock来完成这个功能。我们把这些值添加到大结构体中。

typedef struct VideoState 
{
      ...........
      double video_clock; ///<pts of last decoded frame / predicted pts of next decoded frame
      ...........
}


下面的是函数synchronize_video,它可以很好的自我注释:

double synchronize_video(VideoState *is, AVFrame *src_frame, double pts) 
{

  double frame_delay;

  if(pts != 0) 
  {
    /* if we have pts, set video clock to it */
    is->video_clock = pts;
printf("pts=%lf\n",pts);
  } 
  else 
  {
    /* if we aren't given a pts, set it to the clock */
    pts = is->video_clock;
  }
  /* update the video clock */
  frame_delay = av_q2d(is->video_st->codec->time_base);
  /* if we are repeating a frame, adjust clock accordingly */
  frame_delay += src_frame->repeat_pict * (frame_delay * 0.5);
  is->video_clock += frame_delay;
  return pts;
}

你也会注意到我们也计算了重复的帧。


现在让我们得到正确的PTS并且使用queue_picture来队列化帧,添加一个新的时间戳参数pts

    // Did we get a video frame?
    if(frameFinished) 
    {
      pts = synchronize_video(is, pFrame, pts);
      if(queue_picture(is, pFrame, pts) < 0) 
      {
        break;
      }
    }

对于queue_picture来说唯一改变的事情就是我们把时间戳值pts保存到VideoPicture结构体中,我们我们必需添加一个时间戳变量到结构体中并且添加一行代码:

typedef struct VideoPicture 
{
  .......
  double pts;
} VideoPicture;

<p style="text-align:left" align="left"><span lang="EN-US" style="font-family:宋体;color:#333333;font-size:9pt">int queue_picture(VideoState *is, AVFrame *pFrame, double pts) {</span></p><p style="text-align:left" align="left"><span lang="EN-US" style="font-family:宋体;color:#333333;font-size:9pt">  ... stuff ...</span></p><p style="text-align:left" align="left"><span lang="EN-US" style="font-family:宋体;color:#333333;font-size:9pt">  if(vp->bmp) {</span></p><p style="text-align:left" align="left"><span lang="EN-US" style="font-family:宋体;color:#333333;font-size:9pt">    ... convert picture ...</span></p><p style="text-align:left" align="left"><span lang="EN-US" style="font-family:宋体;color:#333333;font-size:9pt">    vp->pts = pts;</span></p><p style="text-align:left" align="left"><span lang="EN-US" style="font-family:宋体;color:#333333;font-size:9pt">    ... alert queue ...</span></p><p style="text-align:left" align="left"><span lang="EN-US" style="font-family:宋体;color:#333333;font-size:9pt">  }</span></p>}

现在我们的图像队列中的所有图像都有了正确的时间戳值,所以让我们看一下视频刷新函数。你会记得上次我们用80ms的刷新时间来欺骗它。那么,现在我们将会算出实际的值。

我们的策略是通过简单计算前一帧和现在这一帧的时间戳来预测出下一个时间戳的时间。同时,我们需要同步视频到音频。我们将设置一个音频时间audio clock;一个内部值记录了我们正在播放的音频的位置。就像从任意的mp3播放器中读出来的数字一样。既然我们把视频同步到音频,视频线程使用这个值来算出是否太快还是太慢。

我们将在后面来实现这些代码;现在我们假设我们已经有一个可以给我们音频时间的函数get_audio_clock。一旦我们有了这个值,我们在音频和视频失去同步的时候应该做些什么呢?我们应调整下次刷新的值:如果时间戳太落后于音频时间,我们加倍计算延迟。如果时间戳太领先于音频时间,我们将尽可能快的刷新(原文这么写对吗???--还是参考代码好了,老外的表述与我们的理解有差别)。我们有了调整过的刷新时间(或延迟),并记录了运行时间frame_timerframe_timer = 电影开始播放时的系统时间 + 播放中所有延时的总和我们简单的添加新的时延到frame_timer,并把它和电脑的系统时间进行比较,然后使用那个差值来调度下一次刷新。这可能有点难以理解,所以请认真研究代码:

void video_refresh_timer(void *userdata) 
{

  VideoState *is = (VideoState *)userdata;
  VideoPicture *vp;
  double actual_delay, delay, sync_threshold, ref_clock, diff;
  
  if(is->video_st) 
  {
    if(is->pictq_size == 0) 
    {
      schedule_refresh(is, 1);
    } 
    else 
    {
      vp = &is->pictq[is->pictq_rindex];

      delay = vp->pts - is->frame_last_pts; /* the pts from last time */
      if(delay <= 0 || delay >= 1.0) 
      {
        /* if incorrect delay, use previous one */
        delay = is->frame_last_delay;
      }
      /* save for next time */
      is->frame_last_delay = delay;
      is->frame_last_pts = vp->pts;

      /* update delay to sync to audio */
      ref_clock = get_audio_clock(is);
      diff = vp->pts - ref_clock;

      /* Skip or repeat the frame. Take delay into account
      FFPlay still doesn't "know if this is the best guess." */
      sync_threshold = (delay > AV_SYNC_THRESHOLD) ? delay : AV_SYNC_THRESHOLD;
      if(fabs(diff) < AV_NOSYNC_THRESHOLD) 
      {
        if(diff <= -sync_threshold) 
        {
          delay = 0;
        } 
        else if(diff >= sync_threshold) 
        {
          delay = 2 * delay;
        }
      }
      is->frame_timer += delay;
      /* computer the REAL delay */
      actual_delay = is->frame_timer - (av_gettime() / 1000000.0);
      if(actual_delay < 0.010) 
      {
        /* Really it should skip the picture instead */
        actual_delay = 0.010;
      }
      schedule_refresh(is, (int)(actual_delay * 1000 + 0.5));
      /* show the picture! */
      video_display(is);
      
      /* update queue for next picture! */
      if(++is->pictq_rindex == VIDEO_PICTURE_QUEUE_SIZE) 
      {
        is->pictq_rindex = 0;
      }
      SDL_LockMutex(is->pictq_mutex);
      is->pictq_size--;
      SDL_CondSignal(is->pictq_cond);
      SDL_UnlockMutex(is->pictq_mutex);
    }
  } 
  else 
  {
    schedule_refresh(is, 100);
  }
}


我们在这里做了一些检查:首先,我们保证现在的时间戳和上一个时间戳之间的时延delay是有意义的。如果不是的话,我们就猜测着用上次的延迟。接着,我们有一个同步阈值,因为在同步的时候事情并不总是那么完美的。在ffplay中使用0.01作为它的值。我们也保证阈值不会比时间戳之间的间隔短。最后,我们把最小的刷新值设置为10毫秒。(事实上这里我们应该跳过这一帧,但是我们不想为此而烦恼。)

我们给大结构体添加了很多的变量,所以不要忘记检查一下代码。同时也不要忘记在函数stream_component_open中初始化帧时间frame_timer和前面的帧延迟frame delay

      is->frame_timer = (double)av_gettime() / 1000000.0;
      is->frame_last_delay = 40e-3;

同步:声音时钟

现在让我们看一下怎样来得到声音时钟。我们可以在声音解码函数audio_decode_frame中更新时钟时间。现在,请记住我们并不是每次调用这个函数的时候都在处理新的包,所以有我们要在两个地方更新时钟。第一个地方是我们得到新的包的时候:我们简单的设置声音时钟为这个包的时间戳。然后,如果一个包里有许多帧,我们通过样本数和采样率来计算,所以当我们得到包的时候:

    /* if update, update the audio clock w/pts */
    if(pkt->pts != AV_NOPTS_VALUE) 
    {
      is->audio_clock = av_q2d(is->audio_st->time_base)*pkt->pts;
      //printf("--%g----%g--%g\n",is->audio_clock,av_q2d(is->audio_st->time_base),pkt->pts);

    }

然后当我们处理这个包的时候:

      pts = is->audio_clock;
      *pts_ptr = pts;
      n = 2 * is->audio_st->codec->channels;
      //printf("%d,,,%d\n",is->audio_st->codec->sample_rate,data_size );
      is->audio_clock += (double)data_size /(double)(n * is->audio_st->codec->sample_rate);

一点细节:此函数多包含了一个参数pts_ptr。这时的pts_ptr是一个用来通知audio_callback函数当前声音包的时间戳的指针。这将在下次用来同步声音和视频。

现在我们可以最后来实现我们的get_audio_clock函数。它并不只是得到is->audio_clock值那样简单。注意我们会在每次处理它的时候设置声音时间戳,但是如果你看了audio_callback函数,它花费了时间来把数据从声音包中移到我们的输出缓冲区中。这意味着我们声音时钟中记录的时间比实际的要早太多(我猜也即先计算出is->audio_clock,但是相应的数据可能在audio_callback函数中还没从声音包中移到我们的输出缓冲区中,所以要减去这部分多算的时间。)所以我们必须要检查一下我们还有多少没有写入。下面是完整的代码:


double get_audio_clock(VideoState *is) 
{
  double pts;
  int hw_buf_size, bytes_per_sec, n;
  
  pts = is->audio_clock; /* maintained in the audio thread */
  hw_buf_size = is->audio_buf_size - is->audio_buf_index;
  bytes_per_sec = 0;
  n = is->audio_st->codec->channels * 2;
  if(is->audio_st) 
  {
    bytes_per_sec = is->audio_st->codec->sample_rate * n;
  }
  if(bytes_per_sec) 
  {
    pts -= (double)hw_buf_size / bytes_per_sec;
  }
  return pts;
}
你应该知道为什么这个函数可以正常工作了;)

这就是了!让我们编译它:

gcc ./<span class="css-truncate css-truncate-target"><span class="js-directory-link">tutorial05-1.c</span></span> -o ./<span class="css-truncate css-truncate-target"><span class="js-directory-link">tutorial05-1</span></span> -lavutil -lavformat -lavcodec -lswscale  -lz -lm `sdl-config --cflags --libs` -I /home/Jiakun/ffmpeg_build/include/
 -L /home/Jiakun/ffmpeg_build/lib/ -I /usr/include/SDL/

源代码: 见这里的github;

  • 1
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
FFmpeg 是一个开源的音视频处理工具,具有广泛的应用领域,包括视频编辑、转码、裁剪、合并等功能。它可以通过命令行的方式运行,也可以与其他编程语言结合使用。 FFmpeg 的中文教程包括了基本的安装与配置步骤,以及常用的命令使用示例。首先,我们需要下载 FFmpeg 的压缩包,然后解压到指定目录。接着,配置环境变量,将 FFmpeg 的可执行文件路径添加到系统的 PATH 变量中。 在命令行中,我们可以使用以下命令来进行音视频处理操作。例如,使用"ffmpeg -i input.mp4 output.avi"可以将一个 mp4 格式的视频文件转换为 avi 格式。使用"-i"参数指定输入文件,"-o"参数指定输出文件。 除了仅仅转换格式,FFmpeg 还支持对音视频文件进行剪辑和合并。例如,使用"ffmpeg -i input.mp4 -ss 00:00:10 -t 00:00:30 output.mp4"可以从 input.mp4 中截取从第 10 秒开始,时长为 30 秒的视频片段,并保存为 output.mp4。 另外,FFmpeg 还提供了丰富的音视频处理工具,如调整分辨率、音频编码、视频旋转等。通过查阅 FFmpeg 官方文档和在线资源,我们可以深入学习和了解更多关于 FFmpeg 的用法和特性。 总结来说,FFmpeg 是一个功能强大的音视频处理工具,其中文教程详细介绍了安装、配置以及常用命令的使用。通过学习和实践,我们可以利用 FFmpeg 进行各种音视频处理操作。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值