音视频开发(22)---基于RTMP推送实时AAC+H264流(三)

基于RTMP推送实时AAC+H264流(三)

 

 https://blog.csdn.net/scnu20142005027/article/details/60623670

推送

流程:初始化、连接服务器、发送数据 
这一部分主要用的是librtmp,由于是使用别人封装好的库,总的来说比较简单

初始化

简单地调用一下函数

rtmp = RTMP_Alloc();
RTMP_Init(rtmp);

连接服务器

四个函数分别代表:设置URL、使自己成为发送端、建立NetConnection,建立NetStream

RTMP_SetupURL(rtmp, url);
RTMP_EnableWrite(rtmp);
RTMP_Connect(rtmp, NULL);
RTMP_ConnectStream(mRTMP, 0);

发送数据

不断从队列中取出RTMP包,加上时间戳和流ID,然后往服务器发送,帧率的控制位于编码线程,所以这里不用计算时间,直接加上时间戳发送即可,而且由于这里也不好计算时间,还有就是这里的队列是阻塞队列

while (true) {
    RTMPPacket& packet = queue.front();
    packet.m_nInfoField2 = rtmp->m_stream_id;
    packet.m_nTimeStamp = RTMP_GetTime();

    RTMP_SendPacket(rtmp, &packet, 1);
    queue.pop();
}

主程序

主要分为:视频编码线程、音频编码线程、主线程(发送线程)

视频编码线程

根据帧率算出间隔时间,然后把视频元数据的rtmp包存下来以便多次发送,从视频源获取帧,判断是否是关键帧,如果是则先发送元数据,经过编码封装后发送数据,最后比较花费时间与间隔时间决定是否需要等待

const int interval = 1000 / fps;
int bytes;
char *buf, *frame;
RTMPPacket packet, meta;
H264RTMPPackager packager;
std::chrono::milliseconds duration;
std::pair<int, char*> result;

meta = encoder.getMetadata();
buf = pool.get(1024);
packet = packager.metadata(buf, result.second, result.first);

auto last = std::chrono::system_clock::now();

while ((frame = source.getNextFrame()) != NULL) {
    result = source.encode(frame);

    if (H264RTMPPackager::isKeyFrame(result.second)) {
        queue.push(meta, true);
    }

    bytes = packager.getBodyLength(result.first);
    buf = pool.get(bytes);
    packet = packager.pack(buf, result.second, result.first)
    queue.push(packet);

    duration = std::chrono::duration_cast<std::chrono::milliseconds>(std::chrono::system_clock::now() - last);

    if (duration < interval) {
        msleep((interval - duration).count());
    }
    last = std::chrono::system_clock::now();
}

音频编码线程

步骤与视频编码线程相似,只是这里无需等待,因为音频源是根据采样率来输出帧的,这里由于元数据只需要发送一次,所以可以不用保存下来

int bytes;
char *buf;
RTMPPacket packet;
AACRTMPPackager packager;
std::pair<int, char*> frame, result;

result = encoder.getMetadata();
buf = pool.get(128);
packet = packager.metadata(buf, result.second, result.first);
queue.push(packet, true);

while ((frame = source.getNextFrames()).second != NULL) {
    result = encoder.encode(frame.first, frame.second);

    if (result.first != 0) {
        bytes = packager.getBodyLength(result.first);
        buf = pool.get(bytes);
        packet = packager.pack(buf, result.second, result.first);
        queue.push(packet);
    }
}

主线程

创建H264流以及AAC流,然后开启视频编码线程和音频编码线程

PacketQueue queue;
MemoryPool pool;
V4L2Source v4l2(width, height);
PCMSource pcm;
YUY2Converter converter(YUY2_CVT_RGB24);
MotionDetector detector;

FilteredVideoSource videoSource(v4l2);
videoSource.addFilter(&converter);
videoSource.addFilter(&detector);

RTMPPublisher publisher(queue, pool);
publisher.connect(url);

H264Stream videoStream(videoSource, queue, pool, fps, bitrate);
AACStream audioStream(pcm, queue, pool);

std::thread videoEncodeThread(&H264Stream::run, &videoStream);
std::thread audioEncodeThread(&AACStream::run, &audioStream);

publisher.run();

后记

至此,简单的推送程序就完成了,项目整体比较简单,基本上也就是在调用第三方库,但是总的来说学到的东西不少,对于以前不懂的视音频编码,也有了一些了解,而且也是第一次遇到生产者-消费者的情景,虽然这里的情景比较简单,只有一位消费者 
自己的测试环境是电脑Ubuntu和树莓派Raspbian,关于使用到的库,opencv3应该是需要编译安装,树莓派上libfaac可能也需要编译安装 
rtmp服务器用的是SRS,配置方法再网上可以很简单地搜索到

RTMP(Real-Time Messaging Protocol)是一种用于音频、视频和数据传输的通信协议,通常用于媒体传输。 在RTMP推送H264AAC数据之前,需要先准备好H264AAC数据。以下是RTMP推送H264AAC数据的步骤: 1. 建立RTMP连接 使用RTMP协议的应用程序需要首先建立到媒体服务器的连接。可以使用第方库如librtmp来实现。连接的过程中需要设置一些连接参数,如服务器地址、端口号、应用程序名称、名称等。 2. 发送RTMP元数据 在发送音视频数据前,需要先发送一些元数据,用于描述音视频数据的格式及相关信息。RTMP协议中用AMF0或AMF3格式来传递元数据信息。例如,可以发送视频的宽度、高度、帧率、编码格式等信息。 3. 发送H264视频数据 发送H264视频数据时,需要将视频数据封装为FLV格式。FLV格式是一种常用的媒体视频格式,由头部、tag和数据部分组成。其中,tag包含了视频的时间戳和数据大小等信息。每个tag的前4个字节表示tag类型,其中8表示视频tag类型。 4. 发送AAC音频数据 发送AAC音频数据也需要将音频数据封装为FLV格式。每个tag的前4个字节表示tag类型,其中10表示音频tag类型。音频tag中需要包含音频的时间戳和数据大小等信息。 以下是一个推送H264AAC数据的示例代码: ``` AVFormatContext *fmt_ctx; AVCodecContext *video_enc_ctx, *audio_enc_ctx; AVOutputFormat *ofmt; AVStream *video_stream, *audio_stream; AVPacket video_pkt, audio_pkt; int video_frame_count = 0, audio_frame_count = 0; // 初始化FFmpeg av_register_all(); avformat_network_init(); // 打开输出 avformat_alloc_output_context2(&fmt_ctx, NULL, "flv", "rtmp://server/live/stream"); ofmt = fmt_ctx->oformat; if (avio_open(&fmt_ctx->pb, fmt_ctx->filename, AVIO_FLAG_WRITE) < 0) { fprintf(stderr, "Failed to open output file\n"); exit(1); } // 添加视频和音频 video_stream = avformat_new_stream(fmt_ctx, NULL); audio_stream = avformat_new_stream(fmt_ctx, NULL); video_enc_ctx = video_stream->codec; audio_enc_ctx = audio_stream->codec; // 设置视频编码器 video_enc_ctx->codec_id = AV_CODEC_ID_H264; video_enc_ctx->bit_rate = 400000; video_enc_ctx->width = 640; video_enc_ctx->height = 480; video_enc_ctx->time_base = (AVRational){1, 25}; video_enc_ctx->gop_size = 10; video_stream->time_base = video_enc_ctx->time_base; // 设置音频编码器 audio_enc_ctx->codec_id = AV_CODEC_ID_AAC; audio_enc_ctx->bit_rate = 64000; audio_enc_ctx->sample_rate = 44100; audio_enc_ctx->channels = 2; audio_stream->time_base = (AVRational){1, audio_enc_ctx->sample_rate}; // 写入文件头 avformat_write_header(fmt_ctx, NULL); // 发送视频元数据 AVDictionary *video_options = NULL; av_dict_set(&video_options, "profile", "main", 0); av_dict_set(&video_options, "preset", "medium", 0); av_dict_set(&video_options, "tune", "zerolatency", 0); av_dict_set(&video_options, "crf", "23", 0); av_dict_set(&video_options, "level", "4.0", 0); av_dict_set(&video_options, "refs", "4", 0); av_dict_set(&video_options, "bufsize", "2M", 0); av_dict_set(&video_options, "maxrate", "400k", 0); av_dict_set(&video_options, "zerolatency", "1", 0); av_dict_set(&video_options, "threads", "4", 0); av_dict_set(&video_options, "bframes", "0", 0); av_dict_set(&video_options, "slices", "8", 0); avformat_write_header(fmt_ctx, &video_options); // 发送音频元数据 AVDictionary *audio_options = NULL; av_dict_set(&audio_options, "profile", "aac_low", 0); av_dict_set(&audio_options, "strict", "-2", 0); avformat_write_header(fmt_ctx, &audio_options); // 发送视频数据 while (1) { // 生成视频帧 AVFrame *video_frame = av_frame_alloc(); video_frame->width = video_enc_ctx->width; video_frame->height = video_enc_ctx->height; video_frame->format = AV_PIX_FMT_YUV420P; av_image_alloc(video_frame->data, video_frame->linesize, video_frame->width, video_frame->height, video_frame->format, 32); // 编码视频帧 avcodec_send_frame(video_enc_ctx, video_frame); while (avcodec_receive_packet(video_enc_ctx, &video_pkt) == 0) { // 将视频数据封装为FLV格式 video_pkt.pts = av_rescale_q(video_pkt.pts, video_enc_ctx->time_base, video_stream->time_base); video_pkt.dts = av_rescale_q(video_pkt.dts, video_enc_ctx->time_base, video_stream->time_base); video_pkt.duration = av_rescale_q(video_pkt.duration, video_enc_ctx->time_base, video_stream->time_base); video_pkt.stream_index = video_stream->index; av_interleaved_write_frame(fmt_ctx, &video_pkt); av_packet_unref(&video_pkt); } // 发送音频数据 AVFrame *audio_frame = av_frame_alloc(); audio_frame->nb_samples = audio_enc_ctx->frame_size; audio_frame->format = audio_enc_ctx->sample_fmt; audio_frame->channel_layout = audio_enc_ctx->channel_layout; av_frame_get_buffer(audio_frame, 0); // 填充音频数据 ... // 编码音频帧 avcodec_send_frame(audio_enc_ctx, audio_frame); while (avcodec_receive_packet(audio_enc_ctx, &audio_pkt) == 0) { // 将音频数据封装为FLV格式 audio_pkt.pts = av_rescale_q(audio_pkt.pts, audio_enc_ctx->time_base, audio_stream->time_base); audio_pkt.dts = av_rescale_q(audio_pkt.dts, audio_enc_ctx->time_base, audio_stream->time_base); audio_pkt.duration = av_rescale_q(audio_pkt.duration, audio_enc_ctx->time_base, audio_stream->time_base); audio_pkt.stream_index = audio_stream->index; av_interleaved_write_frame(fmt_ctx, &audio_pkt); av_packet_unref(&audio_pkt); } // 释放帧内存 av_frame_free(&video_frame); av_frame_free(&audio_frame); } // 写入文件尾 av_write_trailer(fmt_ctx); // 关闭输出 avio_close(fmt_ctx->pb); // 释放FFmpeg资源 avformat_free_context(fmt_ctx); ``` 注意,以上代码仅为示例,实际情况下需要根据具体的视频编码器和音频编码器来设置编码参数。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值