mp4转成flv格式文件步骤如下:
1.打开输入文件,创建输入文件和输出文件的上下文环境
2.遍历输入文件的每一路流,每个输入流对应创建一个输出流,将输入流中的编解码参数直接拷贝到输出流中。
3.文件的写入。
先写入新的多媒体文件的头。
然后遍历输入文件的每一帧,对每一帧进行时间基的转换,转换好后写入新的多媒体文件。
最后再多媒体文件中写入文件尾。
bool fftest::transfmp42flv( const char* dst)
{
AVOutputFormat* _ofmt = nullptr; //输出格式,每种封装格式对应一个该结构体
AVInputFormat* _ifmt = nullptr; //输入格式
//封装格式上下文结构体,也是统领全局的结构体,保存了视频文件封装格式相关信息
AVFormatContext* _ifmt_ctx = nullptr, * _ofmt_ctx = nullptr; // 输入、输出是上下文环境
AVPacket pkt;
int ret;
int stream_index = 0;
int* stream_mapping = nullptr;//数组用于存储输出文件流的index
int stream_mapping_size = 0;//输入文件中流的总数量
//打开输入文件,为ifmt_ctx分配内存
if ((ret = avformat_open_input(&_ifmt_ctx, _src, nullptr, nullptr)) < 0) {
std::cout << "Could not open input file " << _src << std::endl;
avformat_close_input(&_ifmt_ctx);
return false;
}
//检索输入文件流信息
if ((ret = avformat_find_stream_info(_ifmt_ctx, 0)) < 0) {
std::cout << "Failed to retrieve input stream information" << std::endl;
avformat_close_input(&_ifmt_ctx);
return false;
}
//打印输入文件相关信息
av_dump_format(_ifmt_ctx, 0, _src, 0);
//为输出上下文环境分配内存
if ((ret = avformat_alloc_output_context2(&_ofmt_ctx, NULL, NULL, dst)) < 0) {
std::cout << "Could not create output context\n";
avformat_free_context(_ofmt_ctx);
avformat_close_input(&_ifmt_ctx);
return false;
}
//输入文件流的数量
stream_mapping_size = _ifmt_ctx->nb_streams;
//分配stream_mapping_size段内存,每段内存大小是sizeof(*stream_mapping)
stream_mapping = (int*)av_mallocz_array(stream_mapping_size, sizeof(*stream_mapping));
if (!stream_mapping) {
std::cout << "Could not malloc stream mapping array\n";
ret = AVERROR(ENOMEM);
avformat_free_context(_ofmt_ctx);
avformat_close_input(&_ifmt_ctx);
av_freep(&stream_mapping);
return false;
}
//输出文件格式
_ofmt = _ofmt_ctx->oformat;
//遍历输入文件中的每一路流,对于每一路流都要创建一个新的流进行输出
for (uint32_t i = 0; i < _ifmt_ctx->nb_streams; i++) {
AVStream* out_stream; //输出流
AVStream* in_stream = _ifmt_ctx->streams[i];//输入流
AVCodecParameters* in_codecpar = in_stream->codecpar;//输入流的编解码参数
//只保留音频、视频、字幕流,其他的流不需要
if (in_codecpar->codec_type != AVMEDIA_TYPE_AUDIO &&
in_codecpar->codec_type != AVMEDIA_TYPE_VIDEO &&
in_codecpar->codec_type != AVMEDIA_TYPE_SUBTITLE) {
stream_mapping[i] = -1;
continue;
}
//对于输出流的index重写编号
stream_mapping[i] = stream_index++;
//创建一个对应的输出流
out_stream = avformat_new_stream(_ofmt_ctx, nullptr);
if (!out_stream) {
std::cout << "Failed allocating output stream\n";
ret = AVERROR_UNKNOWN;
avformat_free_context(_ofmt_ctx);
avformat_close_input(&_ifmt_ctx);
av_freep(&stream_mapping);
return false;
}
//直接将输入流的编解码参数拷贝到输出流中
if (avcodec_parameters_copy(out_stream->codecpar, in_codecpar) < 0)
{
std::cout << "Failed to copy codec parameters\n";
ret = AVERROR_UNKNOWN;
avformat_free_context(_ofmt_ctx);
avformat_close_input(&_ifmt_ctx);
av_freep(&stream_mapping);
return false;
}
out_stream->codecpar->codec_tag = 0;
}
//打印要输出的多媒体文件的详细信息
av_dump_format(_ofmt_ctx, 0, dst, 1);
if (!(_ofmt->flags & AVFMT_NOFILE)) {
if (avio_open(&_ofmt_ctx->pb, dst, AVIO_FLAG_WRITE) < 0) {
std::cout << "Could not open output file " << dst << std::endl;
ret = AVERROR_UNKNOWN;
avio_closep(&_ofmt_ctx->pb);
avformat_free_context(_ofmt_ctx);
avformat_close_input(&_ifmt_ctx);
av_freep(&stream_mapping);
return false;
}
}
//写入新的多媒体文件的头
if (avformat_write_header(_ofmt_ctx, nullptr) < 0) {
std::cout << "Error occurred when opening output file\n";
ret = AVERROR_UNKNOWN;
avio_closep(&_ofmt_ctx->pb);
avformat_free_context(_ofmt_ctx);
avformat_close_input(&_ifmt_ctx);
av_freep(&stream_mapping);
return false;
}
while (true)
{
AVStream* in_stream, * out_stream;
//循环读取每一帧数据
if (av_read_frame(_ifmt_ctx, &pkt) < 0) //读取完后退出循环
break;
in_stream = _ifmt_ctx->streams[pkt.stream_index];
if (pkt.stream_index >= stream_mapping_size ||
stream_mapping[pkt.stream_index] < 0) {
av_packet_unref(&pkt);
continue;
}
pkt.stream_index = stream_mapping[pkt.stream_index]; // 按照输出流的index给pkt重新编号
out_stream = _ofmt_ctx->streams[pkt.stream_index]; // 根据pkt的stream_index获取对应的输出流
// 对pts、dts、duration进行时间基转换,不同格式时间基都不一样,不转换会导致音视频同步问题
pkt.pts = av_rescale_q_rnd(pkt.pts, in_stream->time_base, out_stream->time_base, AV_ROUND_NEAR_INF/*|AV_ROUND_PASS_MINMAX*/);
pkt.dts = av_rescale_q_rnd(pkt.dts, in_stream->time_base, out_stream->time_base, AV_ROUND_NEAR_INF /*| AV_ROUND_PASS_MINMAX*/);
pkt.duration = av_rescale_q(pkt.duration, in_stream->time_base, out_stream->time_base);
pkt.pos = -1;
// 将处理好的pkt写入输出文件
ret = av_interleaved_write_frame(_ofmt_ctx, &pkt);
if (ret < 0) {
fprintf(stderr, "Error muxing packet\n");
break;
}
av_packet_unref(&pkt);
}
// 写入新的多媒体文件尾
av_write_trailer(_ofmt_ctx);
if (_ofmt_ctx && !(_ofmt->flags & AVFMT_NOFILE))
avio_closep(&_ofmt_ctx->pb);
av_freep(&stream_mapping);
avformat_free_context(_ofmt_ctx);
avformat_close_input(&_ifmt_ctx);
return true;
}