开发虚拟演播室,或者需要读出渲染后数据的应用上SDL_RenderSetLogicalSize是个很有用的函数

在做虚拟演播室时候,我需要读出来渲染以后的yuv数据,进行H.264编码。
假如我预设的h.264编码大小是1920*1080,为了用硬件渲染。我必须创建一个同等大小的render和窗口。再加上还需要一个预览窗口,这样。两个窗口显然是
在屏幕上没有办法排列开来的。
变通的方法,你当然可以用setwindowpos把这个大窗体移动到一个负数的看不到的窗口位置,虽然问题解决了,但是你还是需要维持两个窗口。
一个用来渲染(大窗口),一个用来预览(一个较小的窗口)。又不能把大窗口隐藏,因为隐藏起来以后,d3d或者opengl发现窗体隐藏就不进行渲染了。
有了这个函数SDL_RenderSetLogicalSize,我们可以把两个窗口合并为一个。
sdlwindow,render大小设置为预览窗口区域的size,然后调用SDL_RenderSetLogicalSize设置为设置为1920*1080,
这样渲染后的数据用SDL_RenderReadPixels都出来还是1920*1080分辨率的
#include <SDL2/SDL.h> #include <libavcodec/avcodec.h> #include <libavformat/avformat.h> #include <libswscale/swscale.h>int main() { AVFormatContext *pFormatCtx = NULL; AVCodecContext *pCodecCtx = NULL; AVCodec *pCodec = NULL; AVFrame *pFrame = NULL; AVPacket packet; int videoStream; SDL_Window *screen; SDL_Renderer *renderer; SDL_Texture *texture; int i, numBytes; uint8_t *buffer = NULL; // 首先打开视频文件 if(avformat_open_input(&pFormatCtx, "test.mp4", NULL, NULL) != 0) { printf("Couldn't open the file"); return -1; } // 找到视频流 if(avformat_find_stream_info(pFormatCtx, NULL) < 0) { printf("Couldn't find stream info"); return -1; } // 查找视频流索引 videoStream = -1; for(i=0; i<pFormatCtx->nb_streams; i++) { if(pFormatCtx->streams[i]->codec->codec_type == AVMEDIA_TYPE_VIDEO) { videoStream = i; break; } } if(videoStream == -1) { printf("Couldn't find a video stream"); return -1; } // 初始化SDL if(SDL_Init(SDL_INIT_VIDEO | SDL_INIT_AUDIO | SDL_INIT_TIMER)) { printf("Couldn't initialize SDL: %s", SDL_GetError()); return -1; } // 创建窗口 screen = SDL_CreateWindow("FFmpeg Player", SDL_WINDOWPOS_UNDEFINED, SDL_WINDOWPOS_UNDEFINED, pFormatCtx->streams[videoStream]->codec->width, pFormatCtx->streams[videoStream]->codec->height, SDL_WINDOW_OPENGL); if(!screen) { printf("SDL: could not create window - exiting: %s", SDL_GetError()); return -1; } // 创建渲染renderer = SDL_CreateRenderer(screen, -1, 0); if(!renderer) { printf("SDL: could not create renderer - exiting: %s", SDL_GetError()); return -1; } // 创建纹理 texture = SDL_CreateTexture(renderer, SDL_PIXELFORMAT_YV12, SDL_TEXTUREACCESS_STREAMING, pFormatCtx->streams[videoStream]->codec->width, pFormatCtx->streams[videoStream]->codec->height); if(!texture) { printf("SDL: could not create texture - exiting: %s", SDL_GetError()); return -1; } // 获取解码器 pCodecCtx = pFormatCtx->streams[videoStream]->codec; pCodec = avcodec_find_decoder(pCodecCtx->codec_id); if(pCodec == NULL) { printf("Unsupported codec"); return -1; } // 打开解码器 if(avcodec_open2(pCodecCtx, pCodec, NULL) < 0) { printf("Could not open codec"); return -1; } // 分配视频帧 pFrame = av_frame_alloc(); // 申请缓冲区 numBytes = avpicture_get_size(AV_PIX_FMT_YUV420P, pCodecCtx->width, pCodecCtx->height); buffer = (uint8_t *)av_malloc(numBytes*sizeof(uint8_t)); // 将缓冲区放入视频帧中 avpicture_fill((AVPicture *)pFrame, buffer, AV_PIX_FMT_YUV420P, pCodecCtx->width, pCodecCtx->height); // 开始解码 while(av_read_frame(pFormatCtx, &packet) >= 0) { if(packet.stream_index == videoStream) { int frameFinished; // 解码视频帧 avcodec_decode_video2(pCodecCtx, pFrame, &frameFinished, &packet); // 如果解码完成 if(frameFinished) { SDL_UpdateYUVTexture(texture, NULL, pFrame->data[0], pFrame->linesize[0], pFrame->data[1], pFrame->linesize[1], pFrame->data[2], pFrame->linesize[2]); SDL_RenderClear(renderer); SDL_RenderCopy(renderer, texture, NULL, NULL); SDL_RenderPresent(renderer); } } // 释放packet av_free_packet(&packet); } // 释放资源 av_free(buffer); av_free(pFrame); avcodec_close(pCodecCtx); avformat_close_input(&pFormatCtx); return 0; }答案:使用FFmpeg采集视频数据,然后通过SDL渲染,可以使用如下代码例程:
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值