ffmpeg 实现多视频轨录制到同一个文件

   引言

    在视频录制中,有时会碰到这样一个需求,将不同摄像头的画面写入到一个视频文件,这个叫法很多,有的厂家叫合流模式,有的叫多画面多流模式。无论如何,它们的实质都是在一个视频文件上实现多路不同分辨率视频的保存。

     经过调查,支持这种需求封装格式的有MP4、MOV、MKV 等,这里因为MP4 格式应用最广泛。

   原理

     ffmpeg 有一个map命令,可以将多路视频轨封装在一个视频容器,掰ffmpeg源码发现其实新建一个新的AVStream,修改stream->index,就可以实现多流录制的目的。

   

ffmpeg -i input.mp4 -i  test.mp4  -map 0:v:0 -map 1:v -map 0:a -map 1:a -c copy  -y mix.mp4

   

#include <iostream>
#include <string>

extern "C"
{
	#include <libavutil/timestamp.h>
	#include <libavformat/avformat.h>
}

typedef struct
{
	char* file_name;
	AVFormatContext* fmt_ctx;
	int video_index;
	int audio_index;
	int source_index;
	
	double last_pts[2];
	double last_dts[2];
	AVRational video_time_base;
	AVRational audio_time_base;
	bool is_end;
}InputStream;


int create_stream(InputStream *input_stream, AVFormatContext* out_fmt_ctx, int &stream_num)
{
	int i = 0;
	int ret = 0;

	if ((ret = avformat_open_input(&input_stream->fmt_ctx, input_stream->file_name, 0, 0)) < 0) //打开输出文件
	{
		fprintf(stderr, "Could not open input file '%s'", input_stream->file_name);
		goto end;
	}

	if ((ret = avformat_find_stream_info(input_stream->fmt_ctx, 0)) < 0) //打开输入
	{
		fprintf(stderr, "Failed to retrieve input stream information");
		goto end;
	}

	//av_dump_format(input_stream->fmt_ctx, 0, input_stream->file_name, 0);//打印信息

	for (size_t i = 0; i < input_stream->fmt_ctx->nb_streams; i++)
	{
		AVStream* in_stream = input_stream->fmt_ctx->streams[i];
		AVStream* out_stream = avformat_new_stream(out_fmt_ctx, in_stream->codec->codec);

		if (in_stream->codecpar->codec_type == AVMEDIA_TYPE_AUDIO)
		{
			input_stream->audio_index = i;
			input_stream->audio_time_base = in_stream->time_base;
			printf("流 %d 是音频 \n", input_stream->source_index + i);
		}

		if (in_stream->codecpar->codec_type == AVMEDIA_TYPE_VIDEO)
		{
			input_stream->video_index = i;
			input_stream->video_time_base = in_stream->time_base;
			printf("流 %d 是视频 \n", input_stream->source_index + i);
		}

		if (!out_stream)
		{
			fprintf(stderr, "Failed allocating output stream\n");
			goto end;
		}

		ret = avcodec_copy_context(out_stream->codec, in_stream->codec);

		if (ret < 0)
		{
			fprintf(stderr, "Failed to copy context from input to output stream codec context\n");
			goto end;
		}
		out_stream->codec->codec_tag = 0;

		if (out_fmt_ctx->oformat->flags & AVFMT_GLOBALHEADER)
			out_stream->codec->flags |= AV_CODEC_FLAG_GLOBAL_HEADER;

		stream_num++;
	}
end:
	return ret;
}

int write_a_channel(InputStream *stream, AVFormatContext *out_fmt_ctx)
{
	int ret = -1;
	AVPacket packet;
	ret = av_read_frame(stream->fmt_ctx, &packet);

	if (ret < 0)
	{
		if (ret == AVERROR_EOF)
		{
			//printf("readFrame报错 %d\n", ret);
			av_free_packet(&packet);
			return ret;
		}
	}

	AVRational time_base = {0};
	AVStream* in_stream = stream->fmt_ctx->streams[packet.stream_index];
	AVStream* out_stream = out_fmt_ctx->streams[packet.stream_index];
	packet.stream_index = stream->source_index + packet.stream_index;

	if (in_stream->codecpar->codec_type == AVMEDIA_TYPE_VIDEO)
	{
		time_base = stream->video_time_base;
	}

	if (in_stream->codecpar->codec_type == AVMEDIA_TYPE_AUDIO)
	{
		time_base = stream->audio_time_base;
	}

	packet.pts = av_rescale_q_rnd(packet.pts, time_base, out_stream->time_base, (AVRounding)(AV_ROUND_NEAR_INF | AV_ROUND_PASS_MINMAX));
	packet.dts = av_rescale_q_rnd(packet.dts, time_base, out_stream->time_base, (AVRounding)(AV_ROUND_NEAR_INF | AV_ROUND_PASS_MINMAX));

	if (packet.pts < 0)
	{
		packet.pts = 0;
	}

	if (packet.dts < 0)
	{
		packet.dts = 0;
	}
	//printf("%d, pts %d dts %d \n", packet.stream_index, packet.pts, packet.dts);

	ret = av_interleaved_write_frame(out_fmt_ctx, &packet);
	if (ret < 0)
	{
		printf("写入错误\n");
	}

	av_free_packet(&packet);
	return ret;
}


int main(int argc, char** argv)
{

	int ret = -1;
	char file_path[100][100] = {"D:\\素材\\test1.mp4", "D:\\素材\\test2.mp4", "D:\\素材\\test3.mp4", "D:\\素材\\test4.mp4"};
	int count = sizeof(file_path) / sizeof(char);
	const char *out_fileName = "my_muxing.mp4";
	av_register_all();
	
	AVOutputFormat* ofmt = NULL;
	AVFormatContext* out_fmt_ctx = NULL;

	const int channel_num = 4;
	avformat_alloc_output_context2(&out_fmt_ctx, NULL, NULL, out_fileName);
	//创建streams	
	InputStream stream_arry[channel_num] = {0};
	int stream_index = 0;

	for (int i = 0; i < channel_num; i++)
	{		
		int stream_num = 0;
		stream_arry[i].file_name = file_path[i];
		stream_arry[i].source_index = stream_index;
		ret = create_stream(&stream_arry[i], out_fmt_ctx, stream_index);
		stream_index += stream_num;
	}

	if (!out_fmt_ctx)
	{
		return -1;
	}

	ofmt = out_fmt_ctx->oformat;
	if (!(ofmt->flags & AVFMT_NOFILE))
	{
		ret = avio_open(&out_fmt_ctx->pb, out_fileName, AVIO_FLAG_WRITE);
		if (ret < 0)
		{
			fprintf(stderr, "Could not open output file '%s'", out_fileName);
			return -1;
		}
	}


	AVDictionary* opts = NULL;
	av_dict_set(&opts, "movflags", "frag_keyframe+empty_moov", 0);//fmp4输出
	ret = avformat_write_header(out_fmt_ctx, &opts);
	if (ret < 0)
	{
		fprintf(stderr, "Error occurred when opening output file\n");
		return -1;
	}
	
	while (true)
	{
		int finish_count = 0;
		
		for (int i = 0; i < channel_num; i++)
		{
			if (!stream_arry[i].is_end)
			{
				ret = write_a_channel(&stream_arry[i], out_fmt_ctx);
				if (ret == AVERROR_EOF)
				{
					stream_arry[i].is_end = true;
					finish_count++;
				}
				else
				{
					continue;
				}
			}
		}

		if (finish_count >= channel_num - 1)
		{
			break;
		}
	}

	//清理
	for (size_t i = 0; i < channel_num; i++)
	{
		avformat_close_input(&stream_arry[i].fmt_ctx);
	}

	ret = av_write_trailer(out_fmt_ctx);
	printf("==============合并完毕,写文件尾部 %d=============\n", ret);
	return 0;
}

设置flags 避免播放器拖动的时候出现花屏。

 packet->flags = isKeyFrame ? packet->flags | AV_PKT_FLAG_KEY : packet->flags;

  • 7
    点赞
  • 14
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
FFmpeg 是一个开源的跨平台音视频处理工具库,它提供了强大的音视频处理能力,包括音视频编解码、格式转换、流媒体协议处理等。多屏录制是一种常见的音视频处理需求,实现多屏录制的方法有很多种,比如使用 DirectShow、Qt、OpenGL 等技术。本文将介绍使用 FFmpeg 实现多屏录制的方法。 首先,需要明确的是,多屏录制并不是 FFmpeg 的主要用途,FFmpeg 主要用于音视频编解码和格式转换等方面,如果要实现多屏录制,需要使用 FFmpeg视频采集功能。 下面是使用 FFmpeg 实现多屏录制的主要步骤: 1. 初始化 FFmpeg 库 在使用 FFmpeg 库之前,需要先初始化 FFmpeg 库,并注册 FFmpeg 的所有组件。初始化 FFmpeg 库的代码如下: ``` av_register_all(); avformat_network_init(); avdevice_register_all(); ``` 2. 打开视频采集设备 打开视频采集设备需要使用 FFmpeg 的 avformat_open_input() 函数,该函数需要传入一个 AVFormatContext 结构体指针,并指定视频采集设备的地址。视频采集设备的地址可以是本地摄像头、屏幕、网络摄像头等。如果要同时采集多个设备的视频,需要多次调用 avformat_open_input() 函数来打开多个视频采集设备。 ``` AVFormatContext* fmt_ctx = NULL; AVInputFormat* input_fmt = NULL; AVDictionary* options = NULL; // 打开视频采集设备 avformat_open_input(&fmt_ctx, "video=screen-capture-recorder", input_fmt, &options); ``` 3. 查找视频流 打开视频采集设备之后,需要查找视频流。在 FFmpeg 中,每个视频采集设备都对应一个视频流,可以使用 av_find_best_stream() 函数查找视频流。 ``` AVStream* video_stream = NULL; // 查找视频流 av_find_best_stream(fmt_ctx, AVMEDIA_TYPE_VIDEO, -1, -1, NULL, 0); ``` 4. 打开视频解码器 打开视频解码器需要使用 FFmpeg 的 avcodec_find_decoder() 和 avcodec_open2() 函数。在多屏录制中,由于不同的视频采集设备可能使用不同的视频编码格式,因此需要为每个视频流分别打开视频解码器。 ``` AVCodecContext* codec_ctx = NULL; AVCodec* codec = NULL; // 查找视频解码器 codec = avcodec_find_decoder(video_stream->codecpar->codec_id); if (codec == NULL) { printf("Can't find codec.\n"); return -1; } // 打开解码器 codec_ctx = avcodec_alloc_context3(codec); avcodec_parameters_to_context(codec_ctx, video_stream->codecpar); avcodec_open2(codec_ctx, codec, NULL); ``` 5. 创建输出文件 在多屏录制中,需要将多个视频流合并为一个视频文件。为了实现这个功能,需要创建一个输出文件,使用 FFmpeg 的 avformat_alloc_output_context2() 函数创建一个 AVFormatContext 结构体,并指定输出文件的格式和输出文件路径。 ``` AVFormatContext* out_fmt_ctx = NULL; // 创建输出文件 avformat_alloc_output_context2(&out_fmt_ctx, NULL, NULL, output_file); ``` 6. 添加视频流 创建输出文件之后,需要为每个视频流创建一个输出流,并将它们添加到输出文件中。创建输出流需要使用 FFmpeg 的 avformat_new_stream() 函数。创建输出流之后,需要设置输出流的参数,并将输出流添加到输出文件中。 ``` AVStream* out_video_stream = NULL; // 创建输出流 out_video_stream = avformat_new_stream(out_fmt_ctx, NULL); // 设置输出流参数 out_video_stream->codecpar->codec_id = codec->id; out_video_stream->codecpar->codec_type = AVMEDIA_TYPE_VIDEO; out_video_stream->codecpar->width = codec_ctx->width; out_video_stream->codecpar->height = codec_ctx->height; out_video_stream->codecpar->format = codec_ctx->pix_fmt; out_video_stream->codecpar->bit_rate = codec_ctx->bit_rate; out_video_stream->codecpar->extradata = codec_ctx->extradata; out_video_stream->codecpar->extradata_size = codec_ctx->extradata_size; // 添加输出流 avformat_write_header(out_fmt_ctx, NULL); ``` 7. 读取视频帧 在多屏录制中,需要同时读取多个视频流的视频帧,并将它们合并为一个视频文件。读取视频帧需要使用 FFmpeg 的 av_read_frame() 函数,该函数会返回一个 AVPacket 结构体,包含了一个视频帧的所有信息。 ``` AVPacket packet; // 读取视频帧 av_read_frame(fmt_ctx, &packet); ``` 8. 解码视频帧 读取视频帧之后,需要将视频帧解码为原始的视频数据。解码视频帧需要使用 FFmpeg 的 avcodec_send_packet() 和 avcodec_receive_frame() 函数,前者将视频帧发送给视频解码器,后者从视频解码器中获取解码后的视频帧。 ``` AVFrame* frame = NULL; // 解码视频帧 avcodec_send_packet(codec_ctx, &packet); while (avcodec_receive_frame(codec_ctx, frame) == 0) { // 处理解码后的视频帧 } ``` 9. 将视频帧写入输出文件 解码视频帧之后,需要将视频帧写入输出文件。写入视频帧需要使用 FFmpeg 的 av_write_frame() 函数,该函数会将一个视频帧写入输出文件。 ``` // 将视频帧写入输出文件 av_write_frame(out_fmt_ctx, &packet); ``` 10. 释放资源 多屏录制结束之后,需要释放所有资源,包括视频采集设备、视频解码器、输入文件和输出文件等。 ``` avcodec_free_context(&codec_ctx); avformat_close_input(&fmt_ctx); avformat_free_context(fmt_ctx); avformat_close_input(&out_fmt_ctx); ``` 以上就是使用 FFmpeg 实现多屏录制的主要步骤。需要注意的是,不同的视频采集设备可能使用不同的视频编码格式,因此需要为每个视频流分别打开视频解码器,并将解码后的视频帧写入输出文件中。此外,多屏录制需要同时读取多个视频流的视频帧,并将它们合并为一个视频文件,因此需要使用多线程或多进程来实现

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值