对FrameBuffer的简单解释和用法示例

大家都知道Unix/Linux系统是由命令驱动的。那么最基本的系统是命令行的(就是想DOS一样的界面)。X-Window-System是Unix/Linux上的图形系统,它是通过X-Server来控制硬件的。但有一些Linux的发行版在引导的时候就会在屏幕上出现图形,这时的图形是不可能由X来完成的,那是什么机制呢?答案是FrameBuffer。
FrameBuffer不是一个图形系统,更不是窗口系统。它比X要低级,简单来说FrameBuffer就是一种机制的实现。这种机制是把屏幕上的每个点映射成一段线性内存空间,程序可以简单的改变这段内存的值来改变屏幕上某一点的颜色。X的高度可移植性就是来自于这种机制,不管是在那种图形环境下,只要有这种机制的实现就可以运行X。所以在几乎所有的平台上都有相应的X版本的移植。
好了,闲话少说,下面我们来看看可以利用FrameBuffer来干点什么。首先看看你是否有了相应的驱动:找一下在/dev/下是否有fb*这个设备文件,这是个字符类的特殊文件。

代码:
  
  
ls -l /dev/fb0 (Enter) crw-rw---- 1 root video 29, 0 Jan 27 15:32 /dev/fb0

如果没有这个文件也可以找找其他的比如:/dev/fb1,/dev/fb2...如果找不到这些文件,那就得重新编译内核了。下面假设存在这个文件/dev/fb0,这就是FrameBuffer的设备文件。
有了这个我们可以play with FrameBuffer了。(一下的操作不一定要在X下,可以在启动了FrameBuffer的虚拟控制台下)

代码:
  
  
cat /dev/fb0 > sreensnap ls -l sreensnap -rw-r--r-- 1 wsw wsw 6291456 Jan 27 21:30 sreensnap

我们得到了一个恰好6M的文件,再做下面的操作:

代码:
  
  
clear /*清楚屏幕的输出*/ cat sreensnap > /dev/fb0

是不是奇怪的事情发生了?好像是中了病毒一般?屏幕又恢复了以前的状态?不用着急,

代码:
  
  
clear

这样屏幕就正常了。

通过以上的操作,我想你也猜到了。文件/dev/fb0就是控制屏幕上的每一点的颜色的文件。我们可以写程序来改变这个文件的内容,就可以方便的在屏幕上画图了:-)

我下面就来写一个小程序,探测一下屏幕的属性。

 

代码:
 
 
#include <unistd.h> #include <stdio.h> #include <fcntl.h> #include <linux/fb.h> #include <sys/mman.h> int main () { int fp=0; struct fb_var_screeninfo vinfo; struct fb_fix_screeninfo finfo; fp = open ("/dev/fb0",O_RDWR); if (fp < 0){ printf("Error : Can not open framebuffer device/n"); exit(1); } if (ioctl(fp,FBIOGET_FSCREENINFO,&finfo)){ printf("Error reading fixed information/n"); exit(2); } if (ioctl(fp,FBIOGET_VSCREENINFO,&vinfo)){ printf("Error reading variable information/n"); exit(3); } printf("The mem is :%d/n",finfo.smem_len); printf("The line_length is :%d/n",finfo.line_length); printf("The xres is :%d/n",vinfo.xres); printf("The yres is :%d/n",vinfo.yres); printf("bits_per_pixel is :%d/n",vinfo.bits_per_pixel); close (fp); }

struct fb_var_screeninfo 和 struct fb_fix_screeninfo 两个数据结构是在/usr/include/linux/fb.h中定义的,里面有些有趣的值:(都是无符号32位的整数)

 

在fb_fix_screeninfo中有
__u32 smem_len 是这个/dev/fb0的大小,也就是内存大小。
__u32 line_length 是屏幕上一行的点在内存中占有的空间,不是一行上的点数。
在fb_var_screeninfo 中有
__u32 xres ,__u32 yres 是x和y方向的分辨率,就是两个方向上的点数。
__u32 bits_per_pixel 是每一点占有的内存空间。

把上面的程序编译以后运行,在我的机器上的结果如下:

代码:
  
  
The mem is :6291456 The line_length is :4096 The xres is :1024 The yres is :768 bits_per_pixel is :32

内存长度恰好是6M,每行占有4M的空间,分辨率是1024x768,色彩深度是32位。细心的你可能已经发现有些不对。屏幕上的点有1024x768=786432个,每个点占有32比特。屏幕一共的占有内存数为32x786432=25165824 就是3145728字节,恰好是3M但是上面的程序告诉我们有6M的存储空间。这是因为在现代的图形系统中大多有缓冲技术,显存中存有两页屏幕数据,这是方便快速的改变屏幕内容实现动画之类比较高的要求。关于这种缓冲技术有点复杂,我们目前先不讨论。对于我们来说只有这3M内存来存放这一个屏幕的颜色数据。
好了,现在你应该对FrameBuffer有一个大概的了解了吧。那么接下来你一定会想在屏幕上画一些东西,让我们先从画一个点开始吧。先说说我的想法:在类Unix系统中,一切东西都是文件。我们对屏幕的读写就可以转换成对/dev/fb0的读写。那么就把/dev/fb0用open打开,再用lseek定位要读写的位置,最后调用read或者write来操作。通过这么一大段的操作我们才完成了对一个点的读或者写。这种方法开销太大了。还有一种方法,我们把/dev/fb0映射到程序进程的内存空间中来,然后得到一个指向这段存储空间的指针,这样就可以方便的读写了。但是我们要知道能映射多少和该映射多少,这能很方便的从上面一个程序得出的参数来决定。
下面是程序代码:

代码:
  
  
#include <unistd.h> #include <stdio.h> #include <fcntl.h> #include <linux/fb.h> #include <sys/mman.h> int main () { int fp=0; struct fb_var_screeninfo vinfo; struct fb_fix_screeninfo finfo; long screensize=0; char *fbp = 0; int x = 0, y = 0; long location = 0; fp = open ("/dev/fb0",O_RDWR); if (fp < 0){ printf("Error : Can not open framebuffer device/n"); exit(1); } if (ioctl(fp,FBIOGET_FSCREENINFO,&finfo)){ printf("Error reading fixed information/n"); exit(2); } if (ioctl(fp,FBIOGET_VSCREENINFO,&vinfo)){ printf("Error reading variable information/n"); exit(3); } screensize = vinfo.xres * vinfo.yres * vinfo.bits_per_pixel / 8; /*这就是把fp所指的文件中从开始到screensize大小的内容给映射出来,得到一个指向这块空间的指针*/ fbp =(char *) mmap (0, screensize, PROT_READ | PROT_WRITE, MAP_SHARED, fp,0); if ((int) fbp == -1) { printf ("Error: failed to map framebuffer device to memory./n"); exit (4); } /*这是你想画的点的位置坐标,(0,0)点在屏幕左上角*/ x = 100; y = 100; location = x * (vinfo.bits_per_pixel / 8) + y * finfo.line_length; *(fbp + location) = 100; /* 蓝色的色深 */ /*直接赋值来改变屏幕上某点的颜色*/ *(fbp + location + 1) = 15; /* 绿色的色深*/ *(fbp + location + 2) = 200; /* 红色的色深*/ *(fbp + location + 3) = 0; /* 是否透明*/ munmap (fbp, screensize); /*解除映射*/ close (fp); /*关闭文件*/ return 0; }

因为这是对线性存储空间的读写,所以代码有点不清晰,不易理解。但是有了这个基本的代码实现,我们可以很容易写一些DrawPoint之类的函数去包装一下低层的对线性存储空间的读写。但是有了画点的程序,再写出画线画圆的函数就不是非常困难了。

这些就是我对FrameBuffer的初步研究,匆忙之间写些东西不成文章,以后要写些更高级一点的函数的实现。

 

  • 0
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 2
    评论
创建 RTSP 服务器需要使用 FFmpeg 和 C++,下面是一个简单示例: 首先,需要包含 FFmpeg 和 C++ 的头文件: ```cpp extern "C" { #include <libavformat/avformat.h> #include <libavutil/avutil.h> #include <libavutil/opt.h> #include <libavutil/imgutils.h> #include <libswscale/swscale.h> } #include <iostream> ``` 然后,创建一个 RTSP 服务器类: ```cpp class RTSPServer { public: RTSPServer() {} ~RTSPServer() {} int open(const char* url); void close(); private: AVFormatContext* m_formatCtx; AVCodecContext* m_codecCtx; AVStream* m_stream; AVPacket* m_packet; AVFrame* m_frame; uint8_t* m_frameBuffer; int m_frameBufferSize; void init(const char* url); void deinit(); void encode(); void send(AVFormatContext* formatCtx, AVStream* stream, AVPacket* packet); }; ``` `open()` 方法用于打开 RTSP 服务器,`close()` 方法用于关闭服务器。`init()` 方法用于初始化 FFmpeg 相关的数据结构,`deinit()` 方法用于释放这些数据结构。 `encode()` 方法用于编码一帧视频数据,`send()` 方法用于将编码后的数据发送到客户端。 下面是 `open()` 方法的实现: ```cpp int RTSPServer::open(const char* url) { init(url); AVDictionary* options = nullptr; av_dict_set(&options, "rtsp_transport", "tcp", 0); av_dict_set(&options, "muxdelay", "0.1", 0); int ret = avformat_write_header(m_formatCtx, &options); if (ret < 0) { std::cerr << "avformat_write_header error: " << av_err2str(ret) << std::endl; deinit(); return ret; } while (true) { encode(); send(m_formatCtx, m_stream, m_packet); av_packet_unref(m_packet); } return 0; } ``` 首先,调用 `init()` 方法初始化数据结构。然后,设置 RTSP 相关的选项。接着,调用 `avformat_write_header()` 方法写入文件头。 最后,进入一个循环,不断编码视频数据并发送到客户端。注意,这里没有实现 RTSP 的状态机,只是简单地发送视频数据。 下面是 `init()` 方法的实现: ```cpp void RTSPServer::init(const char* url) { av_register_all(); avformat_network_init(); m_formatCtx = nullptr; m_codecCtx = nullptr; m_stream = nullptr; m_packet = nullptr; m_frame = nullptr; m_frameBuffer = nullptr; m_frameBufferSize = 0; avformat_alloc_output_context2(&m_formatCtx, nullptr, "rtsp", url); if (!m_formatCtx) { std::cerr << "avformat_alloc_output_context2 error" << std::endl; return; } AVCodec* codec = avcodec_find_encoder_by_name("libx264"); if (!codec) { std::cerr << "avcodec_find_encoder_by_name error" << std::endl; deinit(); return; } m_stream = avformat_new_stream(m_formatCtx, codec); if (!m_stream) { std::cerr << "avformat_new_stream error" << std::endl; deinit(); return; } m_codecCtx = avcodec_alloc_context3(codec); if (!m_codecCtx) { std::cerr << "avcodec_alloc_context3 error" << std::endl; deinit(); return; } m_codecCtx->codec_type = AVMEDIA_TYPE_VIDEO; m_codecCtx->pix_fmt = AV_PIX_FMT_YUV420P; m_codecCtx->width = 640; m_codecCtx->height = 480; m_codecCtx->time_base = { 1, 25 }; m_codecCtx->framerate = { 25, 1 }; m_codecCtx->bit_rate = 1000000; av_opt_set(m_codecCtx->priv_data, "preset", "ultrafast", 0); av_opt_set(m_codecCtx->priv_data, "tune", "zerolatency", 0); int ret = avcodec_open2(m_codecCtx, codec, nullptr); if (ret < 0) { std::cerr << "avcodec_open2 error: " << av_err2str(ret) << std::endl; deinit(); return; } avcodec_parameters_from_context(m_stream->codecpar, m_codecCtx); m_packet = av_packet_alloc(); if (!m_packet) { std::cerr << "av_packet_alloc error" << std::endl; deinit(); return; } m_frame = av_frame_alloc(); if (!m_frame) { std::cerr << "av_frame_alloc error" << std::endl; deinit(); return; } m_frame->format = m_codecCtx->pix_fmt; m_frame->width = m_codecCtx->width; m_frame->height = m_codecCtx->height; ret = av_image_alloc(m_frame->data, m_frame->linesize, m_frame->width, m_frame->height, m_frame->format, 32); if (ret < 0) { std::cerr << "av_image_alloc error: " << av_err2str(ret) << std::endl; deinit(); return; } m_frameBufferSize = av_image_get_buffer_size(m_frame->format, m_frame->width, m_frame->height, 32); m_frameBuffer = new uint8_t[m_frameBufferSize]; } ``` 首先,调用 `av_register_all()` 和 `avformat_network_init()` 方法初始化 FFmpeg 库和网络协议。然后,分配 `AVFormatContext` 结构体。 接着,查找 libx264 编码器,并创建一个新的流。然后,分配 `AVCodecContext` 结构体,设置编码器的参数,并打开编码器。 接下来,将 `AVCodecContext` 中的参数赋值给 `AVStream` 中的 `AVCodecParameters`。分配 `AVPacket` 和 `AVFrame` 结构体,并设置 `AVFrame` 的参数。 最后,分配 `AVFrame` 的数据缓冲区。 下面是 `deinit()` 方法的实现: ```cpp void RTSPServer::deinit() { if (m_formatCtx) { avio_closep(&m_formatCtx->pb); avformat_free_context(m_formatCtx); } if (m_codecCtx) { avcodec_free_context(&m_codecCtx); } if (m_packet) { av_packet_free(&m_packet); } if (m_frame) { av_freep(&m_frame->data[0]); av_frame_free(&m_frame); } if (m_frameBuffer) { delete[] m_frameBuffer; } m_formatCtx = nullptr; m_codecCtx = nullptr; m_stream = nullptr; m_packet = nullptr; m_frame = nullptr; m_frameBuffer = nullptr; m_frameBufferSize = 0; avformat_network_deinit(); } ``` 这个方法用于释放 FFmpeg 相关的数据结构。 下面是 `encode()` 方法的实现: ```cpp void RTSPServer::encode() { av_init_packet(m_packet); m_packet->data = nullptr; m_packet->size = 0; av_frame_make_writable(m_frame); // fill the frame with dummy data for (int y = 0; y < m_codecCtx->height; y++) { for (int x = 0; x < m_codecCtx->width; x++) { m_frame->data[0][y * m_frame->linesize[0] + x] = x + y; } } // convert frame from RGB to YUV SwsContext* swsCtx = sws_getContext(m_codecCtx->width, m_codecCtx->height, AV_PIX_FMT_RGB24, m_codecCtx->width, m_codecCtx->height, AV_PIX_FMT_YUV420P, SWS_BILINEAR, nullptr, nullptr, nullptr); sws_scale(swsCtx, m_frame->data, m_frame->linesize, 0, m_codecCtx->height, m_frame->data, m_frame->linesize); sws_freeContext(swsCtx); int ret = avcodec_send_frame(m_codecCtx, m_frame); if (ret < 0) { std::cerr << "avcodec_send_frame error: " << av_err2str(ret) << std::endl; return; } while (ret >= 0) { ret = avcodec_receive_packet(m_codecCtx, m_packet); if (ret == AVERROR(EAGAIN) || ret == AVERROR_EOF) { return; } else if (ret < 0) { std::cerr << "avcodec_receive_packet error: " << av_err2str(ret) << std::endl; return; } m_packet->stream_index = m_stream->index; av_packet_rescale_ts(m_packet, m_codecCtx->time_base, m_stream->time_base); av_packet_rescale_ts(m_packet, m_stream->time_base, { 1, 90000 }); av_interleaved_write_frame(m_formatCtx, m_packet); } } ``` 这个方法用于编码一帧视频数据。首先,创建一个空的 `AVPacket`,然后填充一个 RGB24 格式的 `AVFrame`,并将其转换为 YUV420P 格式。 然后,调用 `avcodec_send_frame()` 方法将 `AVFrame` 发送给编码器。接着,调用 `avcodec_receive_packet()` 方法从编码器中获取编码后的数据。 最后,将 `AVPacket` 的时间戳进行转换,并调用 `av_interleaved_write_frame()` 方法将数据写入到输出流中。 下面是 `send()` 方法的实现: ```cpp void RTSPServer::send(AVFormatContext* formatCtx, AVStream* stream, AVPacket* packet) { int ret = av_write_frame(formatCtx, packet); if (ret < 0) { std::cerr << "av_write_frame error: " << av_err2str(ret) << std::endl; return; } av_usleep(1000000 / 25); } ``` 这个方法用于将编码后的数据发送到客户端。这里使用了 `av_write_frame()` 方法将 `AVPacket` 写入到输出流中。注意,这里没有实现 RTSP 的状态机,只是简单地让发送的数据按照一定的速率发送。 最后,我们可以在 `main()` 函数中创建一个 `RTSPServer` 对象,并调用 `open()` 方法打开 RTSP 服务器: ```cpp int main(int argc, char* argv[]) { RTSPServer server; server.open("rtsp://127.0.0.1:8554/live"); return 0; } ``` 这里将 RTSP 服务器的地址设置为 `rtsp://127.0.0.1:8554/live`,可以根据实际情况进行修改。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值