最简单的视频编码器:基于libx264(编码YUV为H.264)

本文详细记录了一个基于libx264的简单视频编码器的实现过程,包括流程图解析、关键函数介绍以及具体编码代码。通过此编码器,可以将输入的YUV数据高效地编码为H.264码流文件。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

=====================================================

最简单的视频编码器系列文章列表:

最简单的视频编码器:编译

最简单的视频编码器:基于libx264(编码YUV为H.264)

最简单的视频编码器:基于libx265(编码YUV为H.265)

最简单的视频编码器:libvpx(编码YUV为VP8)

=====================================================

本文记录一个最简单的基于libx264的H.264视频编码器。此前记录的H.264编码器都是基于FFmpeg调用libx264完成编码的,例如:

 《最简单的基于FFMPEG的视频编码器(YUV编码为H.264)》
相比与上文中的编码器,本文记录的编码器属于“轻量级”的编码器。因为它不再包含FFmpeg的代码,直接调用libx264完成编码。因此项目的体积非常小巧。该编码器可以将输入的YUV数据编码为H.264码流文件。
 

流程图

调用libx264进行视频编码的流程图如下所示。


流程图中主要的函数如下所示。
x264_param_default():设置参数集结构体x264_param_t的缺省值。
x264_picture_alloc():为图像结构体x264_picture_t分配内存。
x264_encoder_open():打开编码器。
x264_encoder_encode():编码一帧图像。
x264_encoder_close():关闭编码器。
x264_picture_clean():释放x264_picture_alloc()申请的资源。
 
存储数据的结构体如下所示。
x264_picture_t:存储压缩编码前的像素数据。
x264_nal_t:存储压缩编码后的码流数据。

 
此外流程图中还包括一个“flush_encoder”模块,该模块使用的函数和编码模块是一样的。唯一的不同在于不再输入视频像素数据。它的作用在于输出编码器中剩余的码流数据。
 

源代码

/**
 * 最简单的基于X264的视频编码器
 * Simplest X264 Encoder
 *
 * 雷霄骅 Lei Xiaohua
 * leixiaohua1020@126.com
 * 中国传媒大学/数字电视技术
 * Communication University of China / Digital TV Technology
 * http://blog.csdn.net/leixiaohua1020
 *
 * 本程序可以YUV格式的像素数据编码为H.264码流,是最简单的
 * 基于libx264的视频编码器
 *
 * This software encode YUV data to H.264 bitstream.
 * It's the simplest encoder example based on libx264.
 */
#include <stdio.h>
#include <stdlib.h>
 
#include "stdint.h"
 
#if defined ( __cplusplus)
extern "C"
{
#include "x264.h"
};
#else
#include "x264.h"
#endif
 
 
int main(int argc, char** argv)
{
 
         int ret;
         int y_size;
         int i,j;
 
         //FILE* fp_src  = fopen("../cuc_ieschool_640x360_yuv444p.yuv", "rb");
         FILE* fp_src  = fopen("../cuc_ieschool_640x360_yuv420p.yuv", "rb");
 
         FILE* fp_dst = fopen("cuc_ieschool.h264", "wb");
        
         //Encode 50 frame
         //if set 0, encode all frame
         int frame_num=50;
         int csp=X264_CSP_I420;
         int width=640,height=360;
 
         int iNal   = 0;
         x264_nal_t* pNals = NULL;
         x264_t* pHandle   = NULL;
         x264_picture_t* pPic_in = (x264_picture_t*)malloc(sizeof(x264_picture_t));
         x264_picture_t* pPic_out = (x264_picture_t*)malloc(sizeof(x264_picture_t));
         x264_param_t* pParam = (x264_param_t*)malloc(sizeof(x264_param_t));
        
         //Check
         if(fp_src==NULL||fp_dst==NULL){
                   printf("Error open files.\n");
                   return -1;
         }
 
         x264_param_default(pParam);
         pParam->i_width   = width;
         pParam->i_height  = height;
         /*
         //Param
         pParam->i_log_level  = X264_LOG_DEBUG;
         pParam->i_threads  = X264_SYNC_LOOKAHEAD_AUTO;
         pParam->i_frame_total = 0;
         pParam->i_keyint_max = 10;
         pParam->i_bframe  = 5;
         pParam->b_open_gop  = 0;
         pParam->i_bframe_pyramid = 0;
         pParam->rc.i_qp_constant=0;
         pParam->rc.i_qp_max=0;
         pParam->rc.i_qp_min=0;
         pParam->i_bframe_adaptive = X264_B_ADAPT_TRELLIS;
         pParam->i_fps_den  = 1;
         pParam->i_fps_num  = 25;
         pParam->i_timebase_den = pParam->i_fps_num;
         pParam->i_timebase_num = pParam->i_fps_den;
         */
         pParam->i_csp=csp;
         x264_param_apply_profile(pParam, x264_profile_names[5]);
        
         pHandle = x264_encoder_open(pParam);
   
         x264_picture_init(pPic_out);
         x264_picture_alloc(pPic_in, csp, pParam->i_width, pParam->i_height);
 
         //ret = x264_encoder_headers(pHandle, &pNals, &iNal);
 
         y_size = pParam->i_width * pParam->i_height;
         //detect frame number
         if(frame_num==0){
                   fseek(fp_src,0,SEEK_END);
                   switch(csp){
                   case X264_CSP_I444:frame_num=ftell(fp_src)/(y_size*3);break;
                   case X264_CSP_I420:frame_num=ftell(fp_src)/(y_size*3/2);break;
                   default:printf("Colorspace Not Support.\n");return -1;
                   }
                   fseek(fp_src,0,SEEK_SET);
         }
        
         //Loop to Encode
         for( i=0;i<frame_num;i++){
                   switch(csp){
                   case X264_CSP_I444:{
                            fread(pPic_in->img.plane[0],y_size,1,fp_src);         //Y
                            fread(pPic_in->img.plane[1],y_size,1,fp_src);         //U
                            fread(pPic_in->img.plane[2],y_size,1,fp_src);         //V
                            break;}
                   case X264_CSP_I420:{
                            fread(pPic_in->img.plane[0],y_size,1,fp_src);         //Y
                            fread(pPic_in->img.plane[1],y_size/4,1,fp_src);     //U
                            fread(pPic_in->img.plane[2],y_size/4,1,fp_src);     //V
                            break;}
                   default:{
                            printf("Colorspace Not Support.\n");
                            return -1;}
                   }
                   pPic_in->i_pts = i;
 
                   ret = x264_encoder_encode(pHandle, &pNals, &iNal, pPic_in, pPic_out);
                   if (ret< 0){
                            printf("Error.\n");
                            return -1;
                   }
 
                   printf("Succeed encode frame: %5d\n",i);
 
                   for ( j = 0; j < iNal; ++j){
                             fwrite(pNals[j].p_payload, 1, pNals[j].i_payload, fp_dst);
                   }
         }
         i=0;
         //flush encoder
         while(1){
                   ret = x264_encoder_encode(pHandle, &pNals, &iNal, NULL, pPic_out);
                   if(ret==0){
                            break;
                   }
                   printf("Flush 1 frame.\n");
                   for (j = 0; j < iNal; ++j){
                            fwrite(pNals[j].p_payload, 1, pNals[j].i_payload, fp_dst);
                   }
                   i++;
         }
         x264_picture_clean(pPic_in);
         x264_encoder_close(pHandle);
         pHandle = NULL;
 
         free(pPic_in);
         free(pPic_out);
         free(pParam);
 
         fclose(fp_src);
         fclose(fp_dst);
 
         return 0;
}

运行结果

程序的输入为一个YUV文件(已经测试过YUV444P和YUV420P两种格式)。


输出为H.264码流文件。


H.264码流文件的信息如下所示。


下载


Simplest Encoder

 

项目主页

SourceForge:https://sourceforge.net/projects/simplestencoder/

Github:https://github.com/leixiaohua1020/simplest_encoder

开源中国:http://git.oschina.net/leixiaohua1020/simplest_encoder


CDSN下载地址:http://download.csdn.net/detail/leixiaohua1020/8284105

 
该解决方案包含了几个常见的编码器的使用示例:
simplest_vpx_encoder:最简单的基于libvpx的视频编码器
simplest_x264_encoder:最简单的基于libx264的视频编码器
simplest_x265_encoder:最简单的基于libx265的视频编码器
 
 
 
你可以使用 FFmpeg 库来进行 H.264 编码。 首先,你需要用 OpenCV 来读取视频并把每一帧转换为 `cv::Mat` 格式。然后,你可以使用多线程来并行处理视频帧。 下一步是使用 FFmpeg 库来编码每个 `cv::Mat` 帧。你可以使用 `AVCodecContext` 来设置编码器参数,然后使用 `avcodec_encode_video2()` 方法将帧编码为 H.264 格式。最后,你需要使用 `AVPacket` 将编码数据写入输出文件。 以下是一个简单的代码示例,可以将 `cv::Mat` 帧编码为 H.264 格式: ```c++ #include <iostream> #include <thread> #include <mutex> #include <condition_variable> extern "C" { #include <libavcodec/avcodec.h> #include <libavformat/avformat.h> #include <libswscale/swscale.h> } // Video parameters const int WIDTH = 640; const int HEIGHT = 480; const int FPS = 30; // FFmpeg variables AVFormatContext *pFormatCtx = nullptr; AVOutputFormat *pOutputFmt = nullptr; AVCodec *pCodec = nullptr; AVCodecContext *pCodecCtx = nullptr; AVStream *pStream = nullptr; uint8_t *pFrameBuffer = nullptr; AVFrame *pFrame = nullptr; AVPacket pkt; // Thread synchronization variables std::mutex mtx; std::condition_variable cv; bool ready = false; bool quit = false; // Thread function to encode a frame void encodeFrame(cv::Mat frame) { // Convert OpenCV Mat to FFmpeg AVFrame cv::cvtColor(frame, frame, cv::COLOR_BGR2YUV_I420); memcpy(pFrame->data[0], frame.data, WIDTH*HEIGHT); memcpy(pFrame->data[1], frame.data + WIDTH*HEIGHT, WIDTH*HEIGHT/4); memcpy(pFrame->data[2], frame.data + WIDTH*HEIGHT*5/4, WIDTH*HEIGHT/4); // Encode the frame int ret = avcodec_send_frame(pCodecCtx, pFrame); if (ret < 0) { std::cerr << "Error sending frame to encoder: " << av_err2str(ret) << std::endl; return; } while (ret >= 0) { ret = avcodec_receive_packet(pCodecCtx, &pkt); if (ret == AVERROR(EAGAIN) || ret == AVERROR_EOF) { break; } else if (ret < 0) { std::cerr << "Error receiving packet from encoder: " << av_err2str(ret) << std::endl; return; } // Write the packet to the output file av_interleaved_write_frame(pFormatCtx, &pkt); } } int main() { // Initialize FFmpeg av_register_all(); avformat_network_init(); // Open output file int ret = avformat_alloc_output_context2(&pFormatCtx, nullptr, nullptr, "output.mp4"); if (ret < 0) { std::cerr << "Error allocating output format context: " << av_err2str(ret) << std::endl; return 1; } pOutputFmt = pFormatCtx->oformat; // Find H.264 encoder pCodec = avcodec_find_encoder_by_name("libx264"); if (!pCodec) { std::cerr << "Error finding H.264 encoder" << std::endl; return 1; } // Create codec context pCodecCtx = avcodec_alloc_context3(pCodec); if (!pCodecCtx) { std::cerr << "Error allocating codec context" << std::endl; return 1; } pCodecCtx->width = WIDTH; pCodecCtx->height = HEIGHT; pCodecCtx->time_base = {1, FPS}; pCodecCtx->framerate = {FPS, 1}; pCodecCtx->pix_fmt = AV_PIX_FMT_YUV420P; pCodecCtx->gop_size = 10; pCodecCtx->bit_rate = 1000000; // Open codec ret = avcodec_open2(pCodecCtx, pCodec, nullptr); if (ret < 0) { std::cerr << "Error opening codec: " << av_err2str(ret) << std::endl; return 1; } // Add video stream to output file pStream = avformat_new_stream(pFormatCtx, pCodec); if (!pStream) { std::cerr << "Error creating new stream" << std::endl; return 1; } ret = avcodec_parameters_from_context(pStream->codecpar, pCodecCtx); if (ret < 0) { std::cerr << "Error setting codec parameters: " << av_err2str(ret) << std::endl; return 1; } av_dump_format(pFormatCtx, 0, "output.mp4", 1); // Open output file ret = avio_open(&pFormatCtx->pb, "output.mp4", AVIO_FLAG_WRITE); if (ret < 0) { std::cerr << "Error opening output file: " << av_err2str(ret) << std::endl; return 1; } // Write header to output file ret = avformat_write_header(pFormatCtx, nullptr); if (ret < 0) { std::cerr << "Error writing header to output file: " << av_err2str(ret) << std::endl; return 1; } // Allocate frame buffer and AVFrame pFrameBuffer = (uint8_t*) av_malloc(av_image_get_buffer_size(pCodecCtx->pix_fmt, WIDTH, HEIGHT, 32)); av_image_fill_arrays(pFrame->data, pFrame->linesize, pFrameBuffer, pCodecCtx->pix_fmt, WIDTH, HEIGHT, 32); pFrame->width = WIDTH; pFrame->height = HEIGHT; pFrame->format = pCodecCtx->pix_fmt; // Start encoding thread std::thread encoder([&]() { while (!quit) { std::unique_lock<std::mutex> lock(mtx); cv.wait(lock, []{ return ready || quit; }); if (ready) { // Encode the frame encodeFrame(frame); // Notify main thread that encoding is done ready = false; cv.notify_one(); } } }); // Start reading video frames cv::VideoCapture cap("input.mp4"); if (!cap.isOpened()) { std::cerr << "Error opening input file" << std::endl; return 1; } cv::Mat frame; while (cap.read(frame)) { // Wait for encoding thread to finish previous frame std::unique_lock<std::mutex> lock(mtx); cv.wait(lock, []{ return !ready || quit; }); if (!quit) { // Start encoding new frame ready = true; cv.notify_one(); } } // Wait for encoding thread to finish last frame std::unique_lock<std::mutex> lock(mtx); cv.wait(lock, []{ return !ready; }); // Clean up FFmpeg av_write_trailer(pFormatCtx); avcodec_free_context(&pCodecCtx); av_frame_free(&pFrame); av_free(pFrameBuffer); avio_close(pFormatCtx->pb); avformat_free_context(pFormatCtx); quit = true; cv.notify_one(); encoder.join(); return 0; } ``` 请注意,此代码示例省略了许多错误检查和清理代码,并且可能需要进行适当修改以适应你的需求。
评论 57
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值