多路视频混流

ffmpeg框架的avfilter滤镜可以实现多路视频合并,混音等功能。可以通过命令行和调用sdk方式实现。在libavfilter中, 一个filter可以包含多个输入、多个输出。

 常见滤镜有视频缩放、截取、翻转、叠加、模糊等。用法如下:
缩放
ffplay -i good.mp4 -vf scale=iw/2:ih/2

旋转
ffplay -i good.mp4 -vf rotate=PI/6


叠加
ffmpeg -i good_scale.mp4 -i mark.png -filter_complex overlay=main_w-overlay_w-10:main_h-overlay_h-10 good_mark.mp4


裁剪
ffplay -i good_scale.mp4 -vf crop=w=200:h=200:x=100:y=0


截取视频
ffmpeg -i good_scale.mp4 -vf trim=10:30 good_trim.mp4


模糊
ffplay -i good.mp4 -vf boxblur=luma_radius=2:luma_power=1


边缘检测
ffplay -i good_scale.mp4 -vf "edgedetect=low=0.1:high=0.4"

下图是一个filtergraph的示例:

       在这个滤镜链图中,利用split滤镜把输入流分离成了两路流,其中一路通过crop滤镜和vfilp滤镜的同一路级联应用,再同另外一路一起通过overlay滤镜处理的流合成进行输出。命令行实现:
ffmpeg -i INPUT -vf "split [main][tmp]; [tmp] crop=iw:ih/2:0:0, vflip [flip]; [main][flip] overlay=0:H/2" OUTPUT
        这样最终输出将是视频上部是原始,下部是上部的镜像。(倒影效果)
        同一路的滤镜间用逗号(‘,’)进行分割,不同路的滤镜间用分号(‘;’)进行分割。

        split滤镜生成了两路就通过[main]和[tmp]进行了标签命名以方便后续处理,其中被split处理输出的第二路流被命名为[tmp],它又被crop滤镜处理裁去下半部视频,然后通过vflip进行了水平镜像(垂直翻转,即把视频镜像到下半部了)。这是整个输出被命名为flip。再把[main]与[flip]通过overlay进行覆盖合成,即把源输入通过split滤镜获得的[main]的上半部分覆盖到由crop和vflip滤镜级联处理的输出(这里的[flip])上最终得到了镜像结果。
      

code:

每一条输入流定义

typedef struct Stream{
    int x;
    int y;
    int width;
    int height;
    int format;        //参考AVPixelFormat
    AVFilterContext* buffersrc_ctx;
    AVFilter* buffersrc;
    AVFilterInOut* output;
    AVFrame* inputFrame;
} Stream;


输出流定义

typedef struct Merge {
    AVFilterGraph* filter_graph;
    AVFilterContext* buffersink_ctx;
    AVFilter* buffersink;
    AVFilterInOut* input;
    const char* filters_descr;
    AVFrame* outputFrame;
    unsigned char* outputBuffer;
    int outputWidth;
    int outputHeight;
    int outputFormat;                 //参考AVPixelFormat
    Stream *streams[128];        //最多128路混流
    int streamCount;
} Merge;
 


1、构造输出流及输入流

构造输出流,设置分辨率、像素格式

Merge* Merge_Create(int outputWidth, int outputHeight, int outputFormat) {
    Merge* merge = malloc(sizeof(Merge));
    memset(merge, 0, sizeof(Merge));
    merge->outputWidth = outputWidth;
    merge->outputHeight = outputHeight;
    merge->outputFormat = outputFormat;
    return merge;
}


添加输入流,输入流需要设置在输出流中的位置和大小,以及输入流像素格式 。画中画。

Stream* Merge_AddStream(Merge* merge, int x, int y, int width, int height, int format) {
    Stream* stream = malloc(sizeof(Stream));
    memset(merge, 0, sizeof(Stream));
    stream->x = x;
    stream->y = y;
    stream->width = width;
    stream->height = height;
    stream->format = format;
    merge->streams[merge->streamCount++] = stream;
    return stream;
}
2、初始化滤镜

主要用到的滤镜是filters_descr = "[in0]pad=1280:640:0:0:black[x0];[x0][in1]overlay=640:0[x1];[x1][in2]overlay=600:0[x2];[x2]null[out]";

//初始化Merge
int Merge_Init(Merge* merge) {
    char args[512];
    char name[8];
    char* filters_descr = NULL;
    int ret;
    //avfilter_register_all();//旧版可能用到此行
    merge->buffersink = avfilter_get_by_name("buffersink");
    av_assert0(merge->buffersink);
    merge->input = avfilter_inout_alloc();
    if (merge->input == NULL)
    {
        printf("alloc inout  fail\n");
        goto fail;
    }
    merge->filter_graph = avfilter_graph_alloc();
    if (merge->input == NULL)
    {
        printf("alloc graph  fail\n");
        goto fail;
    }
    ret = avfilter_graph_create_filter(&merge->buffersink_ctx, merge->buffersink, "out", NULL, NULL, merge->filter_graph);
    if (ret < 0)
    {
        printf("graph create  fail\n");
        goto fail;
    }
    merge->input->name = av_strdup("out");
    merge->input->filter_ctx = merge->buffersink_ctx;
    merge->input->pad_idx = 0;
    merge->input->next = NULL;
    merge->outputFrame = av_frame_alloc();
    if (merge->outputFrame == NULL)
    {
        printf("alloc frame  fail\n");
        goto fail;
    }
    merge->outputBuffer = (unsigned char*)av_malloc(av_image_get_buffer_size(merge->outputFormat, merge->outputWidth, merge->outputHeight, 1));
    if (merge->outputBuffer == NULL)
    {
        printf("alloc buffer  fail\n");
        goto fail;
    }
    enum AVPixelFormat pix_fmts[2] = { 0, AV_PIX_FMT_NONE };
    pix_fmts[0] = merge->outputFormat;
    ret = av_opt_set_int_list(merge->buffersink_ctx, "pix_fmts", pix_fmts, AV_PIX_FMT_NONE, AV_OPT_SEARCH_CHILDREN);
    if (ret < 0) {
        printf("set opt fail\n");
        goto fail;
    }
    Stream** streams = merge->streams;
    for (int i = 0; i < merge->streamCount; i++)
    {
        streams[i]->buffersrc = avfilter_get_by_name("buffer");
        av_assert0(streams[i]->buffersrc);
        snprintf(args, sizeof(args), "video_size=%dx%d:pix_fmt=%d:time_base=%d/%d:pixel_aspect=%d/%d", streams[i]->width, streams[i]->height, streams[i]->format, 1, 90000, 1, 1);
        snprintf(name, sizeof(name), "in%d", i);
        ret = avfilter_graph_create_filter(&streams[i]->buffersrc_ctx, streams[i]->buffersrc, name, args, NULL, merge->filter_graph);
        if (ret < 0)
        {
            printf("stream graph create fail\n");
            goto fail;
        }
        streams[i]->output = avfilter_inout_alloc();
        streams[i]->output->name = av_strdup(name);
        streams[i]->output->filter_ctx = streams[i]->buffersrc_ctx;
        streams[i]->output->pad_idx = 0;
        streams[i]->output->next = NULL;
        streams[i]->inputFrame = av_frame_alloc();
        if (streams[i]->inputFrame == NULL)
        {
            printf("alloc frame  fail\n");
            goto fail;
        }
        streams[i]->inputFrame->format = streams[i]->format;
        streams[i]->inputFrame->width = streams[i]->width;
        streams[i]->inputFrame->height = streams[i]->height;
        if (i > 0)
        {
            streams[i - 1]->output->next = streams[i]->output;
        }
    }
    /*filters_descr = "[in0]pad=1280:640:0:0:black[x0];[x0][in1]overlay=640:0[x1];[x1][in2]overlay=600:0[x2];[x2]null[out]";*/
    filters_descr = malloc(sizeof(char) * merge->streamCount * 128);
    if (filters_descr == NULL)
    {
        printf("alloc string  fail\n");
        goto fail;
    }
    char sigle_descr[128];
    snprintf(sigle_descr, sizeof(sigle_descr), "[in0]pad=%d:%d:%d:%d:black[x0];", merge->outputWidth, merge->outputHeight, streams[0]->x, streams[0]->y);
    strcpy(filters_descr, sigle_descr);
    int i = 1;
    for (; i < merge->streamCount; i++)
    {
        snprintf(sigle_descr, sizeof(sigle_descr), "[x%d][in%d]overlay=%d:%d[x%d];", i - 1, i, streams[i]->x, streams[i]->y, i);
        strcat(filters_descr, sigle_descr);
    }
    snprintf(sigle_descr, sizeof(sigle_descr), "[x%d]null[out]", i - 1);
    strcat(filters_descr, sigle_descr);
    ret = avfilter_graph_parse_ptr(merge->filter_graph, filters_descr, &merge->input, &streams[0]->output, NULL);
    if (ret < 0)
    {
        printf("graph parse fail\n");
        goto fail;
    }
    // 过滤配置初始化
    ret = avfilter_graph_config(merge->filter_graph, NULL);
    if (ret < 0)
    {
        printf("graph config fail\n");
        goto fail;
    }
 
    if (filters_descr != NULL)
        free(filters_descr);
    return 0;
fail:
    if (filters_descr != NULL)
        free(filters_descr);
    Merge_Deinit(merge); //执行反初始化
    return -1;
}
3、写输入流

void Merge_WriteStream(Merge* merge, Stream* stream, const unsigned char* buffer, int timestamp) {
    av_image_fill_arrays(stream->inputFrame->data, stream->inputFrame->linesize, buffer, stream->format, stream->width, stream->height, 1);
    stream->inputFrame->pts = timestamp;
    if (av_buffersrc_write_frame(stream->buffersrc_ctx, stream->inputFrame) < 0) {
        printf("Error while add frame.\n");
    }
}
4、合并流

调用下列方法,即可得到合并后的一帧的数据。可以按照一定帧率调用3、4方法。

const unsigned char* Merge_Merge(Merge* merge) {
    int    ret = av_buffersink_get_frame(merge->buffersink_ctx, merge->outputFrame);
    if (ret < 0) {
        printf("Error while get frame.\n");
        return NULL;
    }
    av_image_copy_to_buffer(merge->outputBuffer,
        av_image_get_buffer_size(merge->outputFormat, merge->outputWidth, merge->outputHeight, 1),
        merge->outputFrame->data, merge->outputFrame->linesize, merge->outputFrame->format, merge->outputFrame->width, merge->outputFrame->height, 1);
    av_frame_unref(merge->outputFrame);
    return  merge->outputBuffer;
}
5、结束,反初始化,销毁对象

static void Merge_Deinit(Merge* merge)
{
 
    if (merge->input != NULL)
        avfilter_inout_free(&merge->input);
    if (merge->filter_graph != NULL)
        avfilter_graph_free(&merge->filter_graph);
    if (merge->outputFrame != NULL)
        av_frame_free(&merge->outputFrame);
    if (merge->outputBuffer != NULL)
        av_free(merge->outputBuffer);
    for (int i = 0; i < merge->streamCount; i++)
    {
        Stream* stream = merge->streams[i]; 
        if (stream->inputFrame != NULL)
            av_frame_free(&stream->inputFrame);
        free(stream);
    }
    merge->streamCount = 0;
}
void Merge_Destroy(Merge* merge) {
    Merge_Deinit(merge);
    free(merge);
}
调用流程示例:

int main() {
    int flag = 1;
    Merge* merge = Merge_Create(1920, 1080, 0);
    Stream* stream1 = Merge_AddStream(merge, 0, 0, 960, 540, 0);
    Stream* stream2 = Merge_AddStream(merge, 960, 540, 960, 540, 0);
    Stream* stream3 = Merge_AddStream(merge, 0, 540, 960, 540, 0);
    if (Merge_Init(merge) != 0)
    {
        Merge_Destroy(merge);
        return -1;
    }
    while (flag)
    {
        clock_t time = clock();
        unsigned char* buffer1;
        unsigned char* buffer2;
        unsigned char* buffer3;
        //获取每路流的数据
        ...
        //获取每路流的数据-end
        Merge_WriteStream(merge, stream1, buffer1, time);
        Merge_WriteStream(merge, stream2, buffer2, time);
        Merge_WriteStream(merge, stream3, buffer3, time);
        unsigned char* mergedBuffer = Merge_Merge(merge);
        //显示或编码推流
        ...
        //显示或编码推流-end
    }
    Merge_Destroy(merge);
}


 

  • 0
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

步基

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值