ffplay.c学习-5-视频输出和尺⼨变换

ffplay.c学习-5-视频输出和尺⼨变换


目录

  1. 视频输出模块
    1. 视频输出初始化
      1. 视频输出初始化主要流程
      2. 初始化窗⼝显示⼤⼩
    2. 视频输出逻辑
      1. video_refresh
      2. 计算上⼀帧应显示的时⻓,判断是否继续显示上⼀帧
      3. 估算当前帧应显示的时⻓,判断是否要丢帧
      4. 调⽤video_display进⾏显示
        1. 根据映射表获取frame对应SDL中的像素格式
        2. 重新分配vid_texture
        3. 格式转换-复⽤或新分配⼀个SwsContext
        4. 图像显示
  2. 图像格式转换
    1. 函数说明
      1. sws_getContext
      2. sws_getCachedContext
      3. sws_scale
      4. sws_freeContext
    2. 具体转换
    3. ffmpeg中的sws_scale算法性能测试

1. 视频输出模块

  1. ffplay为了适应不同的平台,选择了SDL(跨平台)作为显示的SDK,以便在windows、linux、macos等不同平台上实现视频画⾯的显示。

    1. 视频(图像)输出初始化
    2. 视频(图像)输出逻辑
  2. 提出问题:

    1. 当窗⼝改变⼤⼩时由谁对原始数据(解码后的数据)进⾏缩放
    2. 当随意改变窗⼝的⼤⼩,为什么视频的宽⾼⽐例还能保持正常
1. 视频输出初始化
1. 视频输出初始化主要流程
  1. 我们开始分析视频(图像)的显示。
  2. 因为使⽤了SDL,⽽video的显示也依赖SDL的窗⼝显示系统,所以先从main函数的SDL初始化看起(节选):
/* Called from the main */
int main(int argc, char **argv) {
    ...
    // 3. SDL的初始化
    flags = SDL_INIT_VIDEO | SDL_INIT_AUDIO | SDL_INIT_TIMER;
    /* 是否运行音频 */
    if (audio_disable)
        flags &= ~SDL_INIT_AUDIO;
    else {
        /* Try to work around an occasional ALSA buffer underflow issue when the
         * period size is NPOT due to ALSA resampling by forcing the buffer size. */
        if (!SDL_getenv("SDL_AUDIO_ALSA_SET_BUFFER_SIZE"))
            SDL_setenv("SDL_AUDIO_ALSA_SET_BUFFER_SIZE", "1", 1);
    }
    if (display_disable)
        flags &= ~SDL_INIT_VIDEO;
    if (SDL_Init(flags)) {
        av_log(NULL, AV_LOG_FATAL, "Could not initialize SDL - %s\n", SDL_GetError());
        av_log(NULL, AV_LOG_FATAL, "(Did you set the DISPLAY variable?)\n");
        exit(1);
    }

    SDL_EventState(SDL_SYSWMEVENT, SDL_IGNORE);
    SDL_EventState(SDL_USEREVENT, SDL_IGNORE);

    av_init_packet(&flush_pkt);                // 初始化flush_packet
    flush_pkt.data = (uint8_t *) &flush_pkt; // 初始化为数据指向自己本身

    // 4. 创建窗口
    if (!display_disable) {
        int flags = SDL_WINDOW_HIDDEN;
        if (alwaysontop)
#if SDL_VERSION_ATLEAST(2, 0, 5)
            flags |= SDL_WINDOW_ALWAYS_ON_TOP;
#else
        av_log(NULL, AV_LOG_WARNING, "Your SDL version doesn't support SDL_WINDOW_ALWAYS_ON_TOP. Feature will be inactive.\n");
#endif
        if (borderless)
            flags |= SDL_WINDOW_BORDERLESS;
        else
            flags |= SDL_WINDOW_RESIZABLE;
        window = SDL_CreateWindow(program_name, SDL_WINDOWPOS_UNDEFINED, SDL_WINDOWPOS_UNDEFINED, default_width,
                                  default_height, flags);
        SDL_SetHint(SDL_HINT_RENDER_SCALE_QUALITY, "linear");
        if (window) {
            // 创建renderer
            renderer = SDL_CreateRenderer(window, -1, SDL_RENDERER_ACCELERATED | SDL_RENDERER_PRESENTVSYNC);
            if (!renderer) {
                av_log(NULL, AV_LOG_WARNING, "Failed to initialize a hardware accelerated renderer: %s\n",
                       SDL_GetError());
                renderer = SDL_CreateRenderer(window, -1, 0);
            }
            if (renderer) {
                if (!SDL_GetRendererInfo(renderer, &renderer_info))
                    av_log(NULL, AV_LOG_VERBOSE, "Initialized %s renderer.\n", renderer_info.name);
            }
        }
        if (!window || !renderer || !renderer_info.num_texture_formats) {
            av_log(NULL, AV_LOG_FATAL, "Failed to create window or renderer: %s", SDL_GetError());
            do_exit(NULL);
        }
    }
    // 5. 通过stream_open函数,开启read_thread读取线程
    is = stream_open(input_filename, file_iformat);
    if (!is) {
        av_log(NULL, AV_LOG_FATAL, "Failed to initialize VideoState!\n");
        do_exit(NULL);
    }

    // 6. 事件响应
    event_loop(is);

    /* never returns */

    return 0;
}
  1. main函数主要步骤如下:
    1. SDL_Init,主要是SDL_INIT_VIDEO的⽀持
    2. SDL_CreateWindow,创建主窗⼝
    3. SDL_CreateRender,基于主窗⼝创建renderer,⽤于渲染输出。
    4. stream_open
    5. event_loop,播放控制事件响应循环,但也负责了video显示输出。
  2. 我们之前在讲read_thread线程时,讲到了
    if (st_index[AVMEDIA_TYPE_VIDEO] >= 0) {
        AVStream *st = ic->streams[st_index[AVMEDIA_TYPE_VIDEO]];
        AVCodecParameters *codecpar = st->codecpar;
        //根据流和帧宽高比猜测视频帧的像素宽高比(像素的宽高比,注意不是图像的)
        AVRational sar = av_guess_sample_aspect_ratio(ic, st, NULL);
        if (codecpar->width) {
            // 设置显示窗口的大小和宽高比
            set_default_window_size(codecpar->width, codecpar->height, sar);
        }
    }
  1. 这⾥我们重点分析set_default_window_size的原理,该函数主要获取窗⼝的宽⾼,以及视频渲染的区域:
static void set_default_window_size(int width, int height, AVRational sar) {
    SDL_Rect rect;
    int max_width = screen_width ? screen_width : INT_MAX; // 确定是否指定窗口最大宽度
    int max_height = screen_height ? screen_height : INT_MAX; // 确定是否指定窗口最大高度
    if (max_width == INT_MAX && max_height == INT_MAX)
        max_height = height;    // 没有指定最大高度时则使用视频的高度
    calculate_display_rect(&rect, 0, 0, max_width, max_height, width, height, sar);
    default_width = rect.w; // 实际是渲染区域的宽高
    default_height = rect.h;
}
  1. screen_width和screen_height可以在ffplay启动时设置 -x screen_width -y screen_height获取指定的宽⾼,如果没有指定,则max_height = height,即是视频帧的⾼度。
  2. 重点在calculate_display_rect()函数。
2. 初始化窗⼝显示⼤⼩
  1. 接下来主要分析calculate_display_rect,根据传⼊的参数(int scr_xleft, int scr_ytop, int scr_width, int scr_height, int pic_width, int pic_height, AVRational pic_sar)获取显示区域的起始坐标和⼤⼩(rect)
/**
 * @brief 将帧宽高按照sar最大适配到窗口
 * @param rect      获取到的显示位置和宽高
 * @param scr_xleft 窗口显示起始x位置,这里说的是内部显示的坐标, 不是窗口在整个屏幕的起始位置
 * @param scr_ytop  窗口显示起始y位置
 * @param scr_width 窗口宽度
 * @param scr_height窗口高度
 * @param pic_width 显示帧宽度
 * @param pic_height显示帧高度
 * @param pic_sar   显示帧宽高比
 */
static void calculate_display_rect(SDL_Rect *rect,
                                   int scr_xleft, int scr_ytop, int scr_width, int scr_height,
                                   int pic_width, int pic_height, AVRational pic_sar) {
    AVRational aspect_ratio = pic_sar; // 比率
    int64_t width, height, x, y;

    if (av_cmp_q(aspect_ratio, av_make_q(0, 1)) <= 0)
        aspect_ratio = av_make_q(1, 1);// 如果aspect_ratio是负数或者为0,设置为1:1
    // 转成真正的播放比例
    aspect_ratio = av_mul_q(aspect_ratio, av_make_q(pic_width, pic_height));

    /* XXX: we suppose the screen has a 1.0 pixel ratio */
    // 计算显示视频帧区域的宽高
    // 先以高度为基准
    height = scr_height;
    // &~1, 取偶数宽度  1110
    width = av_rescale(height, aspect_ratio.num, aspect_ratio.den) & ~1;
    if (width > scr_width) {
        // 当以高度为基准,发现计算出来的需要的窗口宽度不足时调整为以窗口宽度为基准
        width = scr_width;
        height = av_rescale(width, aspect_ratio.den, aspect_ratio.num) & ~1;
    }
    // 计算显示视频帧区域的起始坐标(在显示窗口内部的区域)
    x = (scr_width - width) / 2;
    y = (scr_height - height) / 2;
    rect->x = scr_xleft + x;
    rect->y = scr_ytop + y;
    rect->w = FFMAX((int) width, 1);
    rect->h = FFMAX((int) height, 1);
}
/**
 * Rational number (pair of numerator and denominator).
 */
typedef struct AVRational{
    int num; ///< Numerator
    int den; ///< Denominator
} AVRational;
  1. 注意视频显示尺⼨的计算:aspect_ratio = av_mul_q(aspect_ratio, av_make_q(pic_width, pic_height)); 计算出真正显示时需要的⽐例。
2. 视频输出逻辑
main() -- >
event_loop -->
refresh_loop_wait_event() -->
video_refresh() -->
video_display() -->
video_image_display() -->
	upload_texture()
  1. event_loop 开始处理SDL事件:
/* handle an event sent by the GUI */
static void event_loop(VideoState *cur_stream) {
    SDL_Event event;
    double incr, pos, frac;

    for (;;) {
        double x;
        refresh_loop_wait_event(cur_stream, &event); //video是在这里显示的
        switch (event.type) {
            case SDL_KEYDOWN:    /* 键盘事件 */
                if (exit_on_keydown || event.key.keysym.sym == SDLK_ESCAPE || event.key.keysym.sym == SDLK_q) {
                    do_exit(cur_stream);
                    break;
                }
                if (!cur_stream->width)
                    continue;
                switch (event.key.keysym.sym) {
                    case SDLK_f:
                        toggle_full_screen(cur_stream);
                        cur_stream->force_refresh = 1;
                        break;
                        ....
                        ....
                                    case SDL_QUIT:
            case FF_QUIT_EVENT:    /* ffplay自定义事件,用于主动退出 */
                do_exit(cur_stream);
                break;
            default:
                break;
        }
    }
}
  1. event_loop 的主要代码是⼀个主循环,主循环内执⾏:
    1. refresh_loop_wait_event
    2. 处理SDL事件队列中的事件。⽐如按空格键可以触发暂停/恢复,关闭窗⼝可以触发do_exit销毁播放现场。
  2. video的显示主要在 refresh_loop_wait_event :
static void refresh_loop_wait_event(VideoState *is, SDL_Event *event) {
    double remaining_time = 0.0; /* 休眠等待,remaining_time的计算在video_refresh中 */
    /* 调用SDL_PeepEvents前先调用SDL_PumpEvents,将输入设备的事件抽到事件队列中 */
    SDL_PumpEvents();
    /*
     * SDL_PeepEvents check是否事件,比如鼠标移入显示区等
     * 从事件队列中拿一个事件,放到event中,如果没有事件,则进入循环中
     * SDL_PeekEvents用于读取事件,在调用该函数之前,必须调用SDL_PumpEvents搜集键盘等事件
     */
    while (!SDL_PeepEvents(event, 1, SDL_GETEVENT, SDL_FIRSTEVENT, SDL_LASTEVENT)) {
        if (!cursor_hidden && av_gettime_relative() - cursor_last_shown > CURSOR_HIDE_DELAY) {
            SDL_ShowCursor(0);
            cursor_hidden = 1;
        }
        /*
         * remaining_time就是用来进行音视频同步的。
         * 在video_refresh函数中,根据当前帧显示时刻(display time)和实际时刻(actual time)
         * 计算需要sleep的时间,保证帧按时显示
         */
        if (remaining_time > 0.0)   //sleep控制画面输出的时机
            av_usleep((int64_t) (remaining_time * 1000000.0)); // remaining_time <= REFRESH_RATE
        remaining_time = REFRESH_RATE;
        if (is->show_mode != SHOW_MODE_NONE && // 显示模式不等于SHOW_MODE_NONE
            (!is->paused  // 非暂停状态
             || is->force_refresh) // 强制刷新状态
                ) {
            video_refresh(is, &remaining_time);
        }
        /* 从输入设备中搜集事件,推动这些事件进入事件队列,更新事件队列的状态,
         * 不过它还有一个作用是进行视频子系统的设备状态更新,如果不调用这个函数,
         * 所显示的视频会在大约10秒后丢失色彩。没有调用SDL_PumpEvents,将不会
         * 有任何的输入设备事件进入队列,这种情况下,SDL就无法响应任何的键盘等硬件输入。
        */
        SDL_PumpEvents();
    }
}
  1. SDL_PeepEvents通过参数SDL_GETEVENT⾮阻塞查询队列中是否有事件。如果返回值不为0,表示有事件发⽣(或-1表示发⽣错误),那么函数就会返回,接着让event_loop处理事件;否则,就调⽤video_refresh显示画⾯,并通过输出参数remaining_time获取下⼀轮应当sleep的时间,以保持稳定的画⾯输出。
  2. 这⾥还有⼀个判断是否要调⽤video_refresh的前置条件。满⾜以下条件即可显示:
    1. 显示模式不为SHOW_MODE_NONE(如果⽂件中只有audio,也会显示其波形或者频谱图等)
    2. 或者,当前没有被暂停
    3. 或者,当前设置了force_refresh,我们分析force_refresh置为1的场景:
      a. video_refresh⾥⾯帧该显示,这个是常规情况;
      b. SDL_WINDOWEVENT_EXPOSED,窗⼝需要重新绘制
      c. SDL_MOUSEBUTTONDOWN && SDL_BUTTON_LEFT 连续⿏标左键点击2次显示窗⼝间隔⼩于0.5秒,进⾏全屏或者恢复原始窗⼝播放
      d. SDLK_f,按f键进⾏全屏或者恢复原始窗⼝播放
1. video_refresh
  1. 接下来,分析video显示的关键函数 video_refresh (经简化):
/* called to display each frame */
/* 非暂停或强制刷新的时候,循环调用video_refresh */
static void video_refresh(void *opaque, double *remaining_time) {
    VideoState *is = opaque;
    double time;

    Frame *sp, *sp2;

    if (!is->paused && get_master_sync_type(is) == AV_SYNC_EXTERNAL_CLOCK && is->realtime)
        check_external_clock_speed(is);

    if (!display_disable && is->show_mode != SHOW_MODE_VIDEO && is->audio_st) {
        time = av_gettime_relative() / 1000000.0;
        if (is->force_refresh || is->last_vis_time + rdftspeed < time) {
            video_display(is);
            is->last_vis_time = time;
        }
        *remaining_time = FFMIN(*remaining_time, is->last_vis_time + rdftspeed - time);
    }

    if (is->video_st) {
        retry:
        if (frame_queue_nb_remaining(&is->pictq) == 0) {// 帧队列是否为空
            // nothing to do, no picture to display in the queue
            // 什么都不做,队列中没有图像可显示
        } else { // 重点是音视频同步
            double last_duration, duration, delay;
            Frame *vp, *lastvp;

            /* dequeue the picture */
            // 从队列取出上一个Frame
            lastvp = frame_queue_peek_last(&is->pictq);//读取上一帧
            vp = frame_queue_peek(&is->pictq);  // 读取待显示帧
            // lastvp 上一帧(正在显示的帧)
            // vp 等待显示的帧

            if (vp->serial != is->videoq.serial) {
                // 如果不是最新的播放序列,则将其出队列,以尽快读取最新序列的帧
                frame_queue_next(&is->pictq);
                goto retry;
            }

            if (lastvp->serial != vp->serial) {
                // 新的播放序列重置当前时间
                is->frame_timer = av_gettime_relative() / 1000000.0;
            }

            if (is->paused) {
                goto display;
                printf("视频暂停is->paused");
            }
            /* compute nominal last_duration */
            //lastvp上一帧,vp当前帧 ,nextvp下一帧
            //last_duration 计算上一帧应显示的时长
            last_duration = vp_duration(is, lastvp, vp);

            // 经过compute_target_delay方法,计算出待显示帧vp需要等待的时间
            // 如果以video同步,则delay直接等于last_duration。
            // 如果以audio或外部时钟同步,则需要比对主时钟调整待显示帧vp要等待的时间。
            delay = compute_target_delay(last_duration, is); // 上一帧需要维持的时间
            time = av_gettime_relative() / 1000000.0;
            // is->frame_timer 实际上就是上一帧lastvp的播放时间,
            // is->frame_timer + delay 是待显示帧vp该播放的时间
            if (time < is->frame_timer + delay) { //判断是否继续显示上一帧
                // 当前系统时刻还未到达上一帧的结束时刻,那么还应该继续显示上一帧。
                // 计算出最小等待时间
                *remaining_time = FFMIN(is->frame_timer + delay - time, *remaining_time);
                goto display;
            }

            // 走到这一步,说明已经到了或过了该显示的时间,待显示帧vp的状态变更为当前要显示的帧

            is->frame_timer += delay;   // 更新当前帧播放的时间
            if (delay > 0 && time - is->frame_timer > AV_SYNC_THRESHOLD_MAX) {
                is->frame_timer = time; //如果和系统时间差距太大,就纠正为系统时间
            }
            SDL_LockMutex(is->pictq.mutex);
            if (!isnan(vp->pts))
                update_video_pts(is, vp->pts, vp->pos, vp->serial); // 更新video时钟
            SDL_UnlockMutex(is->pictq.mutex);
            //丢帧逻辑
            if (frame_queue_nb_remaining(&is->pictq) > 1) {//有nextvp才会检测是否该丢帧
                Frame *nextvp = frame_queue_peek_next(&is->pictq);
                duration = vp_duration(is, vp, nextvp);
                if (!is->step        // 非逐帧模式才检测是否需要丢帧 is->step==1 为逐帧播放
                    && (framedrop > 0 ||      // cpu解帧过慢
                        (framedrop && get_master_sync_type(is) != AV_SYNC_VIDEO_MASTER)) // 非视频同步方式
                    && time > is->frame_timer + duration // 确实落后了一帧数据
                        ) {
                    printf("%s(%d) dif:%lfs, drop frame\n", __FUNCTION__, __LINE__,
                           (is->frame_timer + duration) - time);
                    is->frame_drops_late++;             // 统计丢帧情况
                    frame_queue_next(&is->pictq);       // 这里实现真正的丢帧
                    //(这里不能直接while丢帧,因为很可能audio clock重新对时了,这样delay值需要重新计算)
                    goto retry; //回到函数开始位置,继续重试
                }
            }

            if (is->subtitle_st) {
                while (frame_queue_nb_remaining(&is->subpq) > 0) {
                    sp = frame_queue_peek(&is->subpq);

                    if (frame_queue_nb_remaining(&is->subpq) > 1)
                        sp2 = frame_queue_peek_next(&is->subpq);
                    else
                        sp2 = NULL;

                    if (sp->serial != is->subtitleq.serial
                        || (is->vidclk.pts > (sp->pts + ((float) sp->sub.end_display_time / 1000)))
                        || (sp2 && is->vidclk.pts > (sp2->pts + ((float) sp2->sub.start_display_time / 1000)))) {
                        if (sp->uploaded) {
                            int i;
                            for (i = 0; i < sp->sub.num_rects; i++) {
                                AVSubtitleRect *sub_rect = sp->sub.rects[i];
                                uint8_t *pixels;
                                int pitch, j;

                                if (!SDL_LockTexture(is->sub_texture, (SDL_Rect *) sub_rect, (void **) &pixels,
                                                     &pitch)) {
                                    for (j = 0; j < sub_rect->h; j++, pixels += pitch)
                                        memset(pixels, 0, sub_rect->w << 2);
                                    SDL_UnlockTexture(is->sub_texture);
                                }
                            }
                        }
                        frame_queue_next(&is->subpq);
                    } else {
                        break;
                    }
                }
            }

            frame_queue_next(&is->pictq);   // 当前vp帧出队列
            is->force_refresh = 1;          /* 说明需要刷新视频帧 */

            if (is->step && !is->paused)
                stream_toggle_pause(is);    // 逐帧的时候那继续进入暂停状态
        }
        display:
        /* display picture */
        if (!display_disable && is->force_refresh && is->show_mode == SHOW_MODE_VIDEO && is->pictq.rindex_shown)
            video_display(is); // 重点是显示
    }
    is->force_refresh = 0;
    if (show_status) {
        static int64_t last_time;
        int64_t cur_time;
        int aqsize, vqsize, sqsize;
        double av_diff;

        cur_time = av_gettime_relative();
        if (!last_time || (cur_time - last_time) >= 30000) {
            aqsize = 0;
            vqsize = 0;
            sqsize = 0;
            if (is->audio_st)
                aqsize = is->audioq.size;
            if (is->video_st)
                vqsize = is->videoq.size;
            if (is->subtitle_st)
                sqsize = is->subtitleq.size;
            av_diff = 0;
            if (is->audio_st && is->video_st)
                av_diff = get_clock(&is->audclk) - get_clock(&is->vidclk);
            else if (is->video_st)
                av_diff = get_master_clock(is) - get_clock(&is->vidclk);
            else if (is->audio_st)
                av_diff = get_master_clock(is) - get_clock(&is->audclk);
            av_log(NULL, AV_LOG_INFO,
                   "%7.2f %s:%7.3f fd=%4d aq=%5dKB vq=%5dKB sq=%5dB f=%"PRId64"/%"PRId64"   \r",
                   get_master_clock(is),
                   (is->audio_st && is->video_st) ? "A-V" : (is->video_st ? "M-V" : (is->audio_st ? "M-A" : "   ")),
                   av_diff,
                   is->frame_drops_early + is->frame_drops_late,
                   aqsize / 1024,
                   vqsize / 1024,
                   sqsize,
                   is->video_st ? is->viddec.avctx->pts_correction_num_faulty_dts : 0,
                   is->video_st ? is->viddec.avctx->pts_correction_num_faulty_pts : 0);
            fflush(stdout);
            last_time = cur_time;
        }
    }
}
  1. 函数中涉及到FrameQueue中的3个节点是lastvp, vp, nextvp,其中:
    1. vp这次将要显示的⽬标帧(待显示帧)
    2. lastvp是已经显示了的帧(也是当前屏幕上看到的帧)
    3. nextvp是下⼀次要显示的帧(排在vp后⾯)。
  2. 取出其前⾯⼀帧与后⾯⼀帧,是为了通过pts准确计算duration。duration的计算通过函数 vp_duration完成:
// 计算上一帧需要持续的duration,这里有校正算法
static double vp_duration(VideoState *is, Frame *vp, Frame *nextvp) {
    if (vp->serial == nextvp->serial) { // 同一播放序列,序列连续的情况下
        double duration = nextvp->pts - vp->pts;
        if (isnan(duration) // duration 数值异常
            || duration <= 0    // pts值没有递增时
            || duration > is->max_frame_duration    // 超过了最大帧范围
                ) {
            return vp->duration;     /* 异常时以帧时间为基准(1秒/帧率) */
        } else {
            return duration; //使用两帧pts差值计算duration,一般情况下也是走的这个分支
        }
    } else {        // 不同播放序列, 序列不连续则返回0
        return 0.0;
    }
}
  1. video_refresh 的主要流程如下:
    在这里插入图片描述
  2. 先来看下上⾯流程图中的主流程——即中间⼀列框图。从框图进⼀步抽象, video_refresh 的主体流程分为3个步骤:
    1. 取出上⼀帧lastvp和待显示的帧vip;
    2. 计算上⼀帧lastvp应显示的时⻓,判断是否继续显示上⼀帧;
    3. 估算当前帧应显示的时⻓,判断是否要丢帧
    4. 调⽤video_display进⾏显示
  3. video_display 会调⽤ frame_queue_peek_last 获取上次显示的frame(lastvp),并显示。所以在 video_refresh 中如果流程直接⾛到 video_display 就会显示 lastvp (需要注意的是在此时如果不是触发了force_refresh,则不会去重新取lastvp进⾏重新渲染),如果先调⽤ frame_queue_next再调⽤ video_display ,那么就会显示 vp。
  4. 下⾯我们具体分析这3个步骤,并和流程图与代码进⾏对应阅读。
2. 计算上⼀帧应显示的时⻓,判断是否继续显示上⼀帧
  1. ⾸先检查pictq是否为空(调⽤ frame_queue_nb_remaining 判断队列中是否有未显示的帧),如果为空,则调⽤ video_display (显示上⼀帧)。
  2. 在进⼀步准确计算上⼀帧应显示时间前,需要先判断 frame_queue_peek 获取的 vp 是否是最新序列——即 if (vp->serial != is->videoq.serial) ,如果条件成⽴,说明发⽣过seek等操作,流不连续,应该抛弃lastvp。故调⽤ frame_queue_next 抛弃lastvp后,返回流程开头重试下⼀轮。
  3. 接下来可以计算准确的 lastvp 应显示时⻓了。计算应显示时间的代码是:
            /* compute nominal last_duration */
            //lastvp上一帧,vp当前帧 ,nextvp下一帧
            //last_duration 计算上一帧应显示的时长
            last_duration = vp_duration(is, lastvp, vp);

            // 经过compute_target_delay方法,计算出待显示帧vp需要等待的时间
            // 如果以video同步,则delay直接等于last_duration。
            // 如果以audio或外部时钟同步,则需要比对主时钟调整待显示帧vp要等待的时间。
            delay = compute_target_delay(last_duration, is);
  1. 直观理解,主要基于 vp_duration 计算两帧pts差,即帧持续时间,即可。但是,如果考虑到同步,⽐如视频同步到⾳频,则还需要考虑当前与主时钟的差距,进⽽决定是重复上⼀帧还是丢帧,还是正常显示下⼀帧(待显示帧vp)。对于涉及到的⾳视频同步问题(compute_target_delay),在⾳视频同步分析课程再做精讲。这⾥只需要理解通过以上两步就可以计算出准确的上⼀帧应显示时⻓了。
  2. 最后,根据上⼀帧应显示时⻓(delay变量),确定是否继续显示上⼀帧:
            time= av_gettime_relative()/1000000.0;
            // is->frame_timer 实际上就是上一帧lastvp的播放时间,
            // is->frame_timer + delay 是待显示帧vp该播放的时间
            if (time < is->frame_timer + delay) { //判断是否继续显示上一帧
                // 当前系统时刻还未到达上一帧的结束时刻,那么还应该继续显示上一帧。
                // 计算出最小等待时间
                *remaining_time = FFMIN(is->frame_timer + delay - time, *remaining_time);
                goto display;
            }

在这里插入图片描述

3. 估算当前帧应显示的时⻓,判断是否要丢帧
  1. 这个步骤执⾏前,还需要⼀点准备⼯作:更新frame_timer和更新vidclk
            // 走到这一步,说明已经到了或过了该显示的时间,待显示帧vp的状态变更为当前要显示的帧

            is->frame_timer += delay;   // 更新当前帧播放的时间
            if (delay > 0 && time - is->frame_timer > AV_SYNC_THRESHOLD_MAX) {
                is->frame_timer = time; //如果和系统时间差距太大,就纠正为系统时间
            }
            SDL_LockMutex(is->pictq.mutex);
            if (!isnan(vp->pts))
                update_video_pts(is, vp->pts, vp->pos, vp->serial); // 更新video时钟
            SDL_UnlockMutex(is->pictq.mutex);
  1. 关于vidclk的作⽤在⾳视频同步章节中分析。
  2. 接下来就可以判断是否要丢帧了:
            //丢帧逻辑
            if (frame_queue_nb_remaining(&is->pictq) > 1) {//有nextvp才会检测是否该丢帧
                Frame *nextvp = frame_queue_peek_next(&is->pictq);
                duration = vp_duration(is, vp, nextvp);
                if(!is->step        // 非逐帧模式才检测是否需要丢帧 is->step==1 为逐帧播放
                   && (framedrop>0 ||      // cpu解帧过慢
                       (framedrop && get_master_sync_type(is) != AV_SYNC_VIDEO_MASTER)) // 非视频同步方式
                   && time > is->frame_timer + duration // 确实落后了一帧数据
                        ) {
                    printf("%s(%d) dif:%lfs, drop frame\n", __FUNCTION__, __LINE__,
                           (is->frame_timer + duration) - time);
                    is->frame_drops_late++;             // 统计丢帧情况
                    frame_queue_next(&is->pictq);       // 这里实现真正的丢帧
                    //(这里不能直接while丢帧,因为很可能audio clock重新对时了,这样delay值需要重新计算)
                    goto retry; //回到函数开始位置,继续重试
                }
            }
  1. 丢帧的代码也⽐较简单,只需要 frame_queue_next ,然后retry。
  2. 丢帧的前提条件是frame_queue_nb_remaining(&is->pictq) > 1,即是要有nextvp,且需要同时满⾜以下条件:
    1. 不处于step状态。换⾔之,如果当前是step状态,不会触发丢帧逻辑。(step⽤于pause状态下进⾏seek操作时,于seek操作结束后显示seek后的⼀帧画⾯,⽤于直观体现seek⽣效了)
    2. 启⽤framedrop机制,或⾮AV_SYNC_VIDEO_MASTER(不是以video为同步)。
    3. 时间已⼤于frame_timer + duration,已经超过该帧该显示的时⻓
4. 调⽤video_display进⾏显示
  1. 如果既不需要重复上⼀帧,也不需要抛弃当前帧,那么就可以安⼼显示当前帧了。之前有顺带提过video_display 中显示的是 frame_queue_peek_last ,所以需要先调⽤ frame_queue_next ,移动pictq内的指针,将vp变成shown,确保 frame_queue_peek_last 取到的是vp。
  2. 接下来看下 video_display :
/* display the current picture, if any */
static void video_display(VideoState *is)
{
    if (!is->width)
        video_open(is); //如果窗口未显示,则显示窗口

    SDL_SetRenderDrawColor(renderer, 0, 0, 0, 255);
    SDL_RenderClear(renderer);
    if (is->audio_st && is->show_mode != SHOW_MODE_VIDEO)
        video_audio_display(is);    //图形化显示仅有音轨的文件
    else if (is->video_st)
        video_image_display(is);    //显示一帧视频画面
    SDL_RenderPresent(renderer);
}
  1. 假设读者已初步了解SDL接⼝的使⽤,我们直接看 video_image_display :
static void video_image_display(VideoState *is)
{
    Frame *vp;
    Frame *sp = NULL;
    SDL_Rect rect;

    // keep_last的作用就出来了,我们是有调用frame_queue_next, 但最近出队列的帧并没有真正销毁
    // 所以这里可以读取出来显示
    vp = frame_queue_peek_last(&is->pictq);
    if (is->subtitle_st) {
        	// 字幕显示逻辑
        }
    }
    //将帧宽高按照sar最大适配到窗口,并通过rect返回视频帧在窗口的显示位置和宽高
    calculate_display_rect(&rect, is->xleft, is->ytop, is->width, is->height,
                           vp->width, vp->height, vp->sar);
//    rect.x = rect.w /2;   // 测试
//    rect.w = rect.w /2;   // 缩放实际不是用sws, 缩放是sdl去做的
    if (!vp->uploaded) {
        // 把yuv数据更新到vid_texture
        if (upload_texture(&is->vid_texture, vp->frame, &is->img_convert_ctx) < 0)
            return;
        vp->uploaded = 1;
        vp->flip_v = vp->frame->linesize[0] < 0;
    }

    set_sdl_yuv_conversion_mode(vp->frame);
    SDL_RenderCopyEx(renderer, is->vid_texture, NULL, &rect, 0, NULL, vp->flip_v ? SDL_FLIP_VERTICAL : 0);
    set_sdl_yuv_conversion_mode(NULL);
    if (sp) {
#if USE_ONEPASS_SUBTITLE_RENDER
        SDL_RenderCopy(renderer, is->sub_texture, NULL, &rect);
#else
        int i;
        double xratio = (double)rect.w / (double)sp->width;
        double yratio = (double)rect.h / (double)sp->height;
        for (i = 0; i < sp->sub.num_rects; i++) {
            SDL_Rect *sub_rect = (SDL_Rect*)sp->sub.rects[i];
            SDL_Rect target = {.x = rect.x + sub_rect->x * xratio,
                               .y = rect.y + sub_rect->y * yratio,
                               .w = sub_rect->w * xratio,
                               .h = sub_rect->h * yratio};
            SDL_RenderCopy(renderer, is->sub_texture, sub_rect, &target);
        }
#endif
    }
}
  1. 如果了解了SDL的显示, video_image_display 的逻辑不算复杂,即先 frame_queue_peek_last取要显示帧,然后 upload_texture 更新到SDL_Texture,最后通过 SDL_RenderCopyEx 拷⻉纹理给render显示。
  2. 最后,了解下 upload_texture 具体是如何将AVFormat的图像数据传给sdl的纹理:
static int upload_texture(SDL_Texture **tex, AVFrame *frame, struct SwsContext **img_convert_ctx) {
    int ret = 0;
    Uint32 sdl_pix_fmt;
    SDL_BlendMode sdl_blendmode;
    // 根据frame中的图像格式(FFmpeg像素格式),获取对应的SDL像素格式和blendmode
    get_sdl_pix_fmt_and_blendmode(frame->format, &sdl_pix_fmt, &sdl_blendmode);
    // 参数tex实际是&is->vid_texture,此处根据得到的SDL像素格式,为&is->vid_texture
    if (realloc_texture(tex, sdl_pix_fmt == SDL_PIXELFORMAT_UNKNOWN ? SDL_PIXELFORMAT_ARGB8888 : sdl_pix_fmt,
                        frame->width, frame->height, sdl_blendmode, 0) < 0)
        return -1;
    //根据sdl_pix_fmt从AVFrame中取数据填充纹理
    switch (sdl_pix_fmt) {
        // frame格式是SDL不支持的格式,则需要进行图像格式转换,转换为目标格式AV_PIX_FMT_BGRA,
        // 对应SDL_PIXELFORMAT_BGRA32
        case SDL_PIXELFORMAT_UNKNOWN:
            /* This should only happen if we are not using avfilter... */
            *img_convert_ctx = sws_getCachedContext(*img_convert_ctx,
                                                    frame->width, frame->height, frame->format,
                                                    frame->width, frame->height, AV_PIX_FMT_BGRA,
                                                    sws_flags, NULL, NULL, NULL);
            if (*img_convert_ctx != NULL) {
                uint8_t *pixels[4]; // 之前取Texture的缓存
                int pitch[4];
                if (!SDL_LockTexture(*tex, NULL, (void **)pixels, pitch)) {
                    sws_scale(*img_convert_ctx, (const uint8_t * const *)frame->data, frame->linesize,
                              0, frame->height, pixels, pitch);
                    SDL_UnlockTexture(*tex);
                }
            } else {
                av_log(NULL, AV_LOG_FATAL, "Cannot initialize the conversion context\n");
                ret = -1;
            }
            break;
            // frame格式对应SDL_PIXELFORMAT_IYUV,不用进行图像格式转换,调用SDL_UpdateYUVTexture()更新SDL texture
        case SDL_PIXELFORMAT_IYUV:
            if (frame->linesize[0] > 0 && frame->linesize[1] > 0 && frame->linesize[2] > 0) {
                ret = SDL_UpdateYUVTexture(*tex, NULL, frame->data[0], frame->linesize[0],
                                           frame->data[1], frame->linesize[1],
                                           frame->data[2], frame->linesize[2]);
            } else if (frame->linesize[0] < 0 && frame->linesize[1] < 0 && frame->linesize[2] < 0) {
                ret = SDL_UpdateYUVTexture(*tex, NULL, frame->data[0] + frame->linesize[0] * (frame->height                    - 1), -frame->linesize[0],
                                           frame->data[1] + frame->linesize[1] * (AV_CEIL_RSHIFT(frame->height, 1) - 1), -frame->linesize[1],
                                           frame->data[2] + frame->linesize[2] * (AV_CEIL_RSHIFT(frame->height, 1) - 1), -frame->linesize[2]);
            } else {
                av_log(NULL, AV_LOG_ERROR, "Mixed negative and positive linesizes are not supported.\n");
                return -1;
            }
            break;
            // frame格式对应其他SDL像素格式,不用进行图像格式转换,调用SDL_UpdateTexture()更新SDL texture
        default:
            if (frame->linesize[0] < 0) {
                ret = SDL_UpdateTexture(*tex, NULL, frame->data[0] + frame->linesize[0] * (frame->height - 1), -frame->linesize[0]);
            } else {
                ret = SDL_UpdateTexture(*tex, NULL, frame->data[0], frame->linesize[0]);
            }
            break;
    }
    return ret;
}
  1. frame中的像素格式是FFmpeg中定义的像素格式,FFmpeg中定义的很多像素格式和SDL中定义的很多像素格式其实是同⼀种格式,只名称不同⽽已。
  2. 根据frame中的像素格式与SDL⽀持的像素格式的匹配情况,upload_texture()处理三种类型,对应switch语句的三个分⽀:
    1. 如果frame图像格式对应SDL_PIXELFORMAT_IYUV格式,不进⾏图像格式转换,使⽤SDL_UpdateYUVTexture() 将图像数据更新到 &is->vid_texture
    2. 如果frame图像格式对应其他被SDL⽀持的格式(诸如AV_PIX_FMT_RGB32),也不进⾏图像格式转换,使⽤ SDL_UpdateTexture() 将图像数据更新到 &is->vid_texture
  3. 如果frame图像格式不被SDL⽀持(即对应SDL_PIXELFORMAT_UNKNOWN),则需要进⾏图像格式转换。
  4. 1、2两种类型不进⾏图像格式转换。我们考虑第3种情况(格式转换具体函数分析在 图像格式转换)
1. 根据映射表获取frame对应SDL中的像素格式
  1. get_sdl_pix_fmt_and_blendmode()
  2. 这个函数的作⽤,获取输⼊参数 format (FFmpeg像素格式)在SDL中的像素格式,取到的SDL像素格式存在输出参数 sdl_pix_fmt 中
static void get_sdl_pix_fmt_and_blendmode(int format, Uint32 *sdl_pix_fmt, SDL_BlendMode *sdl_blendmode)
{
    int i;
    *sdl_blendmode = SDL_BLENDMODE_NONE;
    *sdl_pix_fmt = SDL_PIXELFORMAT_UNKNOWN;
    if (format == AV_PIX_FMT_RGB32   ||
        format == AV_PIX_FMT_RGB32_1 ||
        format == AV_PIX_FMT_BGR32   ||
        format == AV_PIX_FMT_BGR32_1)
        *sdl_blendmode = SDL_BLENDMODE_BLEND;
    for (i = 0; i < FF_ARRAY_ELEMS(sdl_texture_format_map) - 1; i++) {
        if (format == sdl_texture_format_map[i].format) {
            *sdl_pix_fmt = sdl_texture_format_map[i].texture_fmt;
            return;
        }
    }
}
  1. 在ffplay.c中定义了⼀个表 sdl_texture_format_map[] ,其中定义了FFmpeg中⼀些像素格式与SDL像素格式的映射关系,如下:
static const struct TextureFormatEntry {
    enum AVPixelFormat format;
    int texture_fmt;
} sdl_texture_format_map[] = {  // FFmpeg PIX_FMT to SDL_PIX的映射关系
        { AV_PIX_FMT_RGB8,           SDL_PIXELFORMAT_RGB332 },
        { AV_PIX_FMT_RGB444,         SDL_PIXELFORMAT_RGB444 },
        { AV_PIX_FMT_RGB555,         SDL_PIXELFORMAT_RGB555 },
        { AV_PIX_FMT_BGR555,         SDL_PIXELFORMAT_BGR555 },
        { AV_PIX_FMT_RGB565,         SDL_PIXELFORMAT_RGB565 },
        { AV_PIX_FMT_BGR565,         SDL_PIXELFORMAT_BGR565 },
        { AV_PIX_FMT_RGB24,          SDL_PIXELFORMAT_RGB24 },
        { AV_PIX_FMT_BGR24,          SDL_PIXELFORMAT_BGR24 },
        { AV_PIX_FMT_0RGB32,         SDL_PIXELFORMAT_RGB888 },
        { AV_PIX_FMT_0BGR32,         SDL_PIXELFORMAT_BGR888 },
        { AV_PIX_FMT_NE(RGB0, 0BGR), SDL_PIXELFORMAT_RGBX8888 },
        { AV_PIX_FMT_NE(BGR0, 0RGB), SDL_PIXELFORMAT_BGRX8888 },
        { AV_PIX_FMT_RGB32,          SDL_PIXELFORMAT_ARGB8888 },
        { AV_PIX_FMT_RGB32_1,        SDL_PIXELFORMAT_RGBA8888 },
        { AV_PIX_FMT_BGR32,          SDL_PIXELFORMAT_ABGR8888 },
        { AV_PIX_FMT_BGR32_1,        SDL_PIXELFORMAT_BGRA8888 },
        { AV_PIX_FMT_YUV420P,        SDL_PIXELFORMAT_IYUV },
        { AV_PIX_FMT_YUYV422,        SDL_PIXELFORMAT_YUY2 },
        { AV_PIX_FMT_UYVY422,        SDL_PIXELFORMAT_UYVY },
        { AV_PIX_FMT_NONE,           SDL_PIXELFORMAT_UNKNOWN },
};
  1. 可以看到,除了最后⼀项,其他格式的图像送给SDL是可以直接显示的,不必进⾏图像转换。
  2. 关于这些像素格式的含义,可参考 附录:⾊彩空间与像素格式
2. 重新分配vid_texture
  1. realloc_texture()
  2. 根据新得到的SDL像素格式,为 &is->vid_texture 重新分配空间,如下所示,先SDL_DestroyTexture() 销毁,再 SDL_CreateTexture() 创建。
static int realloc_texture(SDL_Texture **texture, Uint32 new_format, int new_width, int new_height,
                           SDL_BlendMode blendmode, int init_texture)
{
    Uint32 format;
    int access, w, h;
    if (!*texture || SDL_QueryTexture(*texture, &format, &access, &w, &h) < 0 || new_width != w || new_height != h || new_format != format) {
        void *pixels;
        int pitch;
        if (*texture)
            SDL_DestroyTexture(*texture);
        if (!(*texture = SDL_CreateTexture(renderer, new_format, SDL_TEXTUREACCESS_STREAMING, new_width, new_height)))
            return -1;
        if (SDL_SetTextureBlendMode(*texture, blendmode) < 0)
            return -1;
        if (init_texture) {
            if (SDL_LockTexture(*texture, NULL, &pixels, &pitch) < 0)
                return -1;
            memset(pixels, 0, pitch * new_height);
            SDL_UnlockTexture(*texture);
        }
        av_log(NULL, AV_LOG_VERBOSE, "Created %dx%d texture with %s.\n", new_width, new_height, SDL_GetPixelFormatName(new_format));
    }
    return 0;
}
  1. 什么情况下realloc_texture?

    1. ⽤于显示的texture 还没有分配;
    2. SDL_QueryTexture⽆效;
    3. ⽬前texture的width,height、format和新要显示的Frame不⼀致
  2. 从上分析可以看出,窗⼝⼤⼩的变化不⾜以让realloc_texture重新SDL_CreateTexture。

3. 格式转换-复⽤或新分配⼀个SwsContext
  1. sws_getCachedContext()
        // frame格式是SDL不支持的格式,则需要进行图像格式转换,转换为目标格式AV_PIX_FMT_BGRA,
        // 对应SDL_PIXELFORMAT_BGRA32
        case SDL_PIXELFORMAT_UNKNOWN:
            /* This should only happen if we are not using avfilter... */
            *img_convert_ctx = sws_getCachedContext(*img_convert_ctx,
                                                    frame->width, frame->height, frame->format,
                                                    frame->width, frame->height, AV_PIX_FMT_BGRA,
                                                    sws_flags, NULL, NULL, NULL);
  1. 检查输⼊参数,第⼀个输⼊参数 *img_convert_ctx 对应形参 struct SwsContext *context 。如果context是NULL,调⽤ sws_getContext() 重新获取⼀个context。
  2. 如果context不是NULL,检查其他项输⼊参数是否和context中存储的各参数⼀样,若不⼀样,则先释放context再按照新的输⼊参数重新分配⼀个context。若⼀样,直接使⽤现有的context。
4. 图像显示
  1. texture对应⼀帧待显示的图像数据,得到texture后,执⾏如下步骤即可显示:
    1. SDL_RenderClear(); // 使⽤特定颜⾊清空当前渲染⽬标
    2. SDL_RenderCopy(); // 使⽤部分图像数据(texture)更新当前渲染⽬标
    3. SDL_RenderCopyEx(); // 和SDL_RenderCopy类似,但⽀持旋转
    4. SDL_RenderPresent(sdl_renderer); // 执⾏渲染,更新屏幕显示

2. 图像格式转换

  1. FFmpeg中的 sws_scale() 函数主要是⽤来做视频像素格式和分辨率的转换,其优势在于:可以在同⼀个函数⾥实现:1.图像⾊彩空间转换, 2:分辨率缩放,3:前后图像滤波处理。不⾜之处在于:效率相对较低,不如libyuv或shader,其关联的函数主要有:
    1. sws_getContext:分配和返回⼀个SwsContext,需要传⼊输⼊参数和输出参数;
    2. sws_getCachedContext:检查传⼊的上下⽂是否可以⽤,如果不可⽤则重新分配⼀个,如果可⽤则返回传⼊的;
    3. sws_freeContext:释放SwsContext结构体。
    4. sws_scale:转换⼀帧图像;
1. 函数说明
1. sws_getContext
/**
 * Allocate and return an SwsContext. You need it to perform
 * scaling/conversion operations using sws_scale().
 *
 * @param srcW the width of the source image
 * @param srcH the height of the source image
 * @param srcFormat the source image format
 * @param dstW the width of the destination image
 * @param dstH the height of the destination image
 * @param dstFormat the destination image format
 * @param flags specify which algorithm and options to use for rescaling
 * @param param extra parameters to tune the used scaler
 *              For SWS_BICUBIC param[0] and [1] tune the shape of the basis
 *              function, param[0] tunes f(1) and param[1] f´(1)
 *              For SWS_GAUSS param[0] tunes the exponent and thus cutoff
 *              frequency
 *              For SWS_LANCZOS param[0] tunes the width of the window function
 * @return a pointer to an allocated context, or NULL in case of error
 * @note this function is to be removed after a saner alternative is
 *       written
 */
struct SwsContext *sws_getContext(int srcW, int srcH, enum AVPixelFormat srcFormat,
                                  int dstW, int dstH, enum AVPixelFormat dstFormat,
                                  int flags, SwsFilter *srcFilter,
                                  SwsFilter *dstFilter, const double *param);
  1. 第⼀参数可以传NULL,默认会开辟⼀块新的空间。
  2. srcW,srcH, srcFormat, 原始数据的宽⾼和原始像素格式(YUV420),
  3. dstW,dstH,dstFormat; ⽬标宽,⽬标⾼,⽬标的像素格式(这⾥的宽⾼可能是⼿机屏幕分辨率,RGBA8888),这⾥不仅仅包含了尺⼨的转换和像素格式的转换
  4. flag 提供了⼀系列的算法,快速线性,差值,矩阵,不同的算法性能也不同,快速线性算法性能相对较
    ⾼。只针对尺⼨的变换。对像素格式转换⽆此问题
/* values for the flags, the stuff on the command line is different */
#define SWS_FAST_BILINEAR     1
#define SWS_BILINEAR          2
#define SWS_BICUBIC           4
#define SWS_X                 8
#define SWS_POINT          0x10
#define SWS_AREA           0x20
#define SWS_BICUBLIN       0x40
#define SWS_GAUSS          0x80
#define SWS_SINC          0x100
#define SWS_LANCZOS       0x200
#define SWS_SPLINE        0x400
  1. 不同算法的效率⻅《10.3 ffmpeg中的sws_scale算法性能测试》⼩节。
  2. 后⾯还有两个参数是做过滤器⽤的,⼀般⽤不到,传NULL,最后⼀个参数是跟flag算法相关,也可以传NULL。
2. sws_getCachedContext
/**
 * Check if context can be reused, otherwise reallocate a new one.
 *
 * If context is NULL, just calls sws_getContext() to get a new
 * context. Otherwise, checks if the parameters are the ones already
 * saved in context. If that is the case, returns the current
 * context. Otherwise, frees context and gets a new context with
 * the new parameters.
 *
 * Be warned that srcFilter and dstFilter are not checked, they
 * are assumed to remain the same.
 */
struct SwsContext *sws_getCachedContext(struct SwsContext *context,
                                        int srcW, int srcH, enum AVPixelFormat srcFormat,
                                        int dstW, int dstH, enum AVPixelFormat dstFormat,
                                        int flags, SwsFilter *srcFilter,
                                        SwsFilter *dstFilter, const double *param);
int srcW, /* 输⼊图像的宽度 */
int srcH, /* 输⼊图像的宽度 */
enum AVPixelFormat srcFormat, /* 输⼊图像的像素格式 */
int dstW, /* 输出图像的宽度 */
int dstH, /* 输出图像的⾼度 */
enum AVPixelFormat dstFormat, /* 输出图像的像素格式 */
int flags,/* 选择缩放算法(只有当输⼊输出图像⼤⼩不同时有效),⼀般选择SWS_FAST_BILINEAR */
SwsFilter *srcFilter, /* 输⼊图像的滤波器信息, 若不需要传NULL */
SwsFilter *dstFilter, /* 输出图像的滤波器信息, 若不需要传NULL */
const double *param /* 特定缩放算法需要的参数(?),默认为NULL */
  1. getCachedContext和sws_getContext的区别是就是多了struct SwsContext *context的传⼊。
3. sws_scale
/**
 * Scale the image slice in srcSlice and put the resulting scaled
 * slice in the image in dst. A slice is a sequence of consecutive
 * rows in an image.
 *
 * Slices have to be provided in sequential order, either in
 * top-bottom or bottom-top order. If slices are provided in
 * non-sequential order the behavior of the function is undefined.
 *
 * @param c         the scaling context previously created with
 *                  sws_getContext()
 * @param srcSlice  the array containing the pointers to the planes of
 *                  the source slice
 * @param srcStride the array containing the strides for each plane of
 *                  the source image
 * @param srcSliceY the position in the source image of the slice to
 *                  process, that is the number (counted starting from
 *                  zero) in the image of the first row of the slice
 * @param srcSliceH the height of the source slice, that is the number
 *                  of rows in the slice
 * @param dst       the array containing the pointers to the planes of
 *                  the destination image
 * @param dstStride the array containing the strides for each plane of
 *                  the destination image
 * @return          the height of the output slice
 */
int sws_scale(struct SwsContext *c, const uint8_t *const srcSlice[],
              const int srcStride[], int srcSliceY, int srcSliceH,
              uint8_t *const dst[], const int dstStride[]);
  1. *参数 SwsContext c, 转换格式的上下⽂。也就是 sws_getContext 函数返回的结果。
  2. 参数 const uint8_t *const srcSlice[], 输⼊图像的每个颜⾊通道的数据指针。其实就是解码后的AVFrame中的data[]数组。因为不同像素的存储格式不同,所以srcSlice[]维数也有可能不同。
  3. 以YUV420P为例,它是planar格式,它的内存中的排布如下:
YYYYYYYY UUUU VVVV
使⽤FFmpeg解码后存储在AVFrame的data[]数组中时:
data[0]——-Y分量, Y1, Y2, Y3, Y4, Y5, Y6, Y7, Y8……
data[1]——-U分量, U1, U2, U3, U4……
data[2]——-V分量, V1, V2, V3, V4……
linesize[]数组中保存的是对应通道的数据宽度 ,
linesize[0]——-Y分量的宽度
linesize[1]——-U分量的宽度
linesize[2]——-V分量的宽度
  1. ⽽RGB24,它是packed格式,它在data[]数组中则只有⼀维,它在存储⽅式如下:
data[0]: R1, G1, B1, R2, G2, B2, R3, G3, B3, R4, G4, B4……
  1. 这⾥要特别注意,linesize[0]的值并不⼀定等于图⽚的宽度,有时候为了对⻬各解码器的CPU,实际尺⼨会⼤于图⽚的宽度,这点在我们编程时(⽐如OpengGL硬件转换/渲染)要特别注意,否则解码出来的图像会异常。
  2. 参数const int srcStride[],输⼊图像的每个颜⾊通道的跨度。.也就是每个通道的⾏字节数,对应的是解码后的AVFrame中的linesize[]数组。根据它可以确⽴下⼀⾏的起始位置,不过stride和width不⼀定相同,这是因为:
    1. 由于数据帧存储的对⻬,有可能会向每⾏后⾯增加⼀些填充字节这样 stride = width + N;
    2. packet⾊彩空间下,每个像素⼏个通道数据混合在⼀起,例如RGB24,每个像素3字节连续存放,因此下⼀⾏的位置需要跳过3*width字节。
  3. 参数int srcSliceY, int srcSliceH,定义在输⼊图像上处理区域,srcSliceY是起始位置,srcSliceH是处
    理多少⾏。如果srcSliceY=0,srcSliceH=height,表示⼀次性处理完整个图像。这种设置是为了多线程
    并⾏,例如可以创建两个线程,第⼀个线程处理 [0, h/2-1]⾏,第⼆个线程处理 [h/2, h-1]⾏。并⾏处理
    加快速度。
  4. **参数uint8_t *const dst[], const int dstStride[]**定义输出图像信息(输出的每个颜⾊通道数据指针,每个颜⾊通道⾏字节数)
4. sws_freeContext
/**
 * Free the swscaler context swsContext.
 * If swsContext is NULL, then does nothing.
 */
void sws_freeContext(struct SwsContext *swsContext);
  1. 释放SwsContext。
2. 具体转换
            if (*img_convert_ctx != NULL) {
                uint8_t *pixels[4]; // 之前取Texture的缓存
                int pitch[4];
                if (!SDL_LockTexture(*tex, NULL, (void **)pixels, pitch)) {
                    sws_scale(*img_convert_ctx, (const uint8_t * const *)frame->data, frame->linesize,
                              0, frame->height, pixels, pitch);
                    SDL_UnlockTexture(*tex);
                }
            }
  1. 上述代码有三个步骤:
    1. SDL_LockTexture() 锁定texture中的⼀个rect(此处是锁定整个texture),锁定区具有只写属性,⽤于更新图像数据。 pixels 指向锁定区。
    2. sws_scale() 进⾏图像格式转换,转换后的数据写⼊ pixels 指定的区域。 pixels 包含4个指针,指向⼀组图像plane
    3. SDL_UnlockTexture() 将锁定的区域解锁,将改变的数据更新到视频缓冲区中。
  2. 上述三步完成后,texture中已包含经过格式转换后新的图像数据。
  3. 由上分析可以得出texture的缓存区,我们可以直接使⽤,避免⼆次拷⻉。
3. ffmpeg中的sws_scale算法性能测试

ffmpeg中的sws_scale算法性能测试

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
这个命令是一个编译 `ffplay.c` 文件的命令,其中包含了 FFmpeg 库和 SDL 库的头文件路径和库文件路径。 具体来说,`-I` 选项用于指定头文件路径,`-L` 选项用于指定库文件路径,`-l` 选项用于指定需要链接的库文件名。下面是这个命令中的各个选项的含义: - `-I../libavformat`: 指定了 FFmpeg 中 `libavformat` 库的头文件路径。 - `-I../libavcodec`: 指定了 FFmpeg 中 `libavcodec` 库的头文件路径。 - `-I../libavutil`: 指定了 FFmpeg 中 `libavutil` 库的头文件路径。 - `-I../libswresample`: 指定了 FFmpeg 中 `libswresample` 库的头文件路径。 - `-I../libswscale`: 指定了 FFmpeg 中 `libswscale` 库的头文件路径。 - `-I../libavfilter`: 指定了 FFmpeg 中 `libavfilter` 库的头文件路径。 - `-L../libavcodec`: 指定了 FFmpeg 中 `libavcodec` 库的库文件路径。 - `-L../libavformat`: 指定了 FFmpeg 中 `libavformat` 库的库文件路径。 - `-L../libavutil`: 指定了 FFmpeg 中 `libavutil` 库的库文件路径。 - `-L../libswresample`: 指定了 FFmpeg 中 `libswresample` 库的库文件路径。 - `-L../libswscale`: 指定了 FFmpeg 中 `libswscale` 库的库文件路径。 - `-L../libavfilter`: 指定了 FFmpeg 中 `libavfilter` 库的库文件路径。 - `-lavformat`: 指定了需要链接的 FFmpeg 中 `libavformat` 库的名称。 - `-lavcodec`: 指定了需要链接的 FFmpeg 中 `libavcodec` 库的名称。 - `-lswresample`: 指定了需要链接的 FFmpeg 中 `libswresample` 库的名称。 - `-lswscale`: 指定了需要链接的 FFmpeg 中 `libswscale` 库的名称。 - `-lavutil`: 指定了需要链接的 FFmpeg 中 `libavutil` 库的名称。 - `-lavfilter`: 指定了需要链接的 FFmpeg 中 `libavfilter` 库的名称。 - `-lm`: 指定需要链接的数学库。 - `-lz`: 指定需要链接的压缩库。 - `-pthread`: 指定需要链接的线程库。 - `-lSDL2`: 指定需要链接的 SDL2 库的名称。 这个命令的作用是将 `ffplay.c` 编译成可执行文件 `ffplay`,并链接上 FFmpeg 和 SDL 库。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值